Skip to main content

Amazon Redshift

Tipo de conexión

ODBC (64 bits)

Tipo de soporte

Lectura y escritura; en base de datos

Se validó el

Versión de base de datos: 1.0.35649

Versión del cliente ODBC: 1.4.52.1000

Para obtener más información sobre el controlador ODBC de Athena con Simba, consulta la documentación sobre ODBC de Simba .

Nota

Para evitar errores cuando guardes tu flujo de trabajo en Server, selecciona la casilla de verificación Cifrar contraseña para: todos los usuarios de esta máquina en Configuración del DNS del controlador ODBC de Amazon Redshift con Simba .

Herramientas de Alteryx utilizadas para establecer conexiones

Procesamiento de flujos de trabajo estándares

Input Data Tool Icon
Output Data Tool Icon

Procesamiento de flujos de trabajo en base de datos

Blue icon with database being plugged in.
Blue icon with a stream-like object flowing into a database.

Configurar una conexión ODBC

En el administrador de fuentes de datos ODBC:

  1. Selecciona el controlador de Redshift y, luego, selecciona Configurar .

  2. Ingresa tu configuración de conexión y las credenciales.

  3. En Opciones adicionales , selecciona la opción Recuperar resultados completos en memoria .

    Nota

    Esta configuración recupera todo el conjunto de datos en la memoria física. Si la memoria física es poca, este ajuste está sujeto a cambios según el volumen de datos y la memoria física disponible, y es posible que debas solicitar ayuda al administrador de base de datos para un ajuste recomendado.

  4. Selecciona Aceptar para guardar la conexión.

Configurar una conexión masiva de Amazon Redshift

Para utilizar la conexión masiva a través de la herramienta Datos de salida:

  1. Haz clic en la lista desplegable Escribir en archivo o en base de datos y selecciona Otras bases de datos > Conexión masiva de Amazon Redshift.

  2. Selecciona un Nombre de fuente de datos (o selecciona Administrador de ODBC para crear uno). Consulta Conexiones de base de datos ODBC y OLEDB .

  3. (Opcional) Ingresa un Nombre de usuario y una Contraseña .

  4. En la sección Amazon S3 , ingresa o pega tu Clave de acceso de AWS y la Clave secreta de AWS para acceder a los datos que se cargarán.

  5. En la lista desplegable Cifrado de clave secreta , selecciona una opción de cifrado:

    • Ocultar : oculta la contraseña utilizando un cifrado mínimo.

    • Cifrar para el equipo : cualquier usuario en la computadora será capaz de utilizar por completo la conexión.

    • Cifrar para el usuario : el usuario que inició sesión puede utilizar la conexión en cualquier computadora.

  6. En la lista desplegable Punto de conexión , selecciona Predeterminado para permitir que Amazon determine de manera automática el punto de conexión según el bucket seleccionado. Para especificar un punto de conexión para las implementaciones privadas de S3 o si conoces un bucket de una región específica, puedes seleccionar un punto de conexión (región S3), introducir un punto de conexión final personalizado o seleccionar uno de los diez puntos de conexión personalizados introducidos previamente.

    Si el bucket seleccionado no se encuentra en el punto de conexión especificado, se produce este error: “El bucket al que intentas acceder debe dirigirse con el punto de conexión especificado. Envía todas las solicitudes futuras a este punto de conexión”. Selecciona Predeterminado para borrar el error.

  7. (Opcional) Selecciona Utilizar Signature V4 para la autenticación para utilizar la versión Signature 4 en lugar de la versión predeterminada Signature 2. Esto aumenta la seguridad, pero las velocidades de conexión pueden ser más lentas. Esta opción se activa automáticamente para las regiones que requieren la versión Signature V4.

    Regiones que requieren Signature Version 4 : las regiones creadas después del 30 de enero de 2014 solo admiten Signature Version 4. Las siguientes regiones requieren autenticación de Signature Version 4:

    • Región del este de los EE. UU. (Ohio)

    • Región de Canadá (central)

    • Región de Asia Pacífico (Mumbai)

    • Región de Asia Pacífico (Seúl)

    • Región de la UE (Frankfurt)

    • Región de la UE (Londres)

    • Región de China (Beijing)

  8. Selecciona un método de Cifrado en el lado del servidor para cargar en un bucket de Amazon S3 cifrado. Para obtener más información sobre los métodos de cifrado Amazon S3, consulta la Guía del desarrollador de servicios de almacenamiento simple de Amazon .

    • Ninguno (predeterminado) : no se utiliza ningún método de cifrado.

    • SSE-KMS : utiliza la encriptación del servidor con las claves administradas por AWS KMS. Opcionalmente, proporciona un Id. de clave KMS . Al seleccionar este método, la opción Usar la firma V4 para la autenticación está habilitada de forma predeterminada.

  9. En Nombre de bucket , ingresa el nombre del bucket de AWS en el que se almacenan tus objetos de datos.

Opcionalmente selecciona Usar Redshift Spectrum para conectarse a tablas Spectrum.

Asignación de campos

Cuando se cargan datos de forma masiva en Amazon Redshift, los datos se escriben en campos incorrectos cuando el orden de los campos en la salida del flujo de trabajo es diferente del de la base de datos de Redshift. Sigue estos pasos para solucionarlo:

  1. Selecciona la opción Agregar mapa de campos en la herramienta Datos de salida para configurarlos, incluso si no cambias la configuración predeterminada. En el XML del flujo de trabajo de la herramienta Datos de salida, esto rellenará la etiqueta <AppendMapping mode="ByName" /> .

  2. Cambia la opción de salida a Sobrescribir tabla (descartar) .

Configurar opciones de salida

Tienes la opción de especificar o ajustar las siguientes opciones de Redshift. Para obtener más información, consulta la Guía de desarrolladores de bases de datos de Amazon Redshift .

Nota

Para crear tablas Spectrum con la herramienta Datos de salida, especifica el nombre de esquema y de la tabla.

spectrum_schema.tablename

La clave de distribución se ignora si no se selecciona 'Clave' para el estilo de distribución. La clave de ordenamiento se ignora si se selecciona 'Ninguno' para el estilo de ordenamiento.

  • Clave principal : selecciona las columnas para la clave principal y ajusta el orden de las columnas.

  • Estilo de distribución : selecciona Uniforme , Clave o Todos .

  • Clave de distribución : selecciona una columna para la clave de distribución.

  • Estilo de ordenamiento : selecciona Ninguno , Compuesto o Intercalado .

  • Clave de ordenamiento : selecciona las columnas para la clave de ordenamiento y ajusta el orden de las columnas.

  • Habilitar operaciones de Vacuum y Analize : (solo conexiones masivas) habilitado de forma predeterminada. Cuando está activada esta opción, los comandos de mantenimiento VACUUM y ANALYZE se ejecutan después de añadir (APPEND) una carga masiva a la base de datos de Redshift.

  • Tamaño de los trozos de carga masiva (1 MB a 102400 MB) : para aumentar el rendimiento de carga, los archivos grandes se dividen en archivos más pequeños con un tamaño especificado en megabytes. El valor predeterminado es 128.

  • Habilitar la barra invertida (\) como carácter de escape: (Sólo conexiones masivas) habilitado de forma predeterminada. Cuando está activado, un carácter que sigue inmediatamente a un carácter de barra invertida se carga como datos de columna, incluso si ese carácter normalmente se utiliza para un propósito especial (por ejemplo, carácter delimitador, marca de comillas, carácter de nueva línea incrustada o carácter de escape).

Importante

Los identificadores se pasan a minúsculas en la base de datos. En los resultados de consultas, las tablas y los nombres de columnas se muestran en minúsculas de forma predeterminada. Para obtener más información, consulta la documentación Nombres e identificadores de Amazon .

Problemas conocidos

  • Cuando se inserta un registro en una tabla de Amazon Redshift con una columna que contiene un atributo IDENTITY(seed, step), el valor de la primera columna que se inserta es nulo, en lugar del valor que recibe la herramienta Datos de salida.