Databricks
Herramientas Alteryx utilizadas para conectar
- Herramienta Datos de entrada (para procesamiento de flujo de trabajo estándar)
- Herramienta Conexión en BDD y Secuencia de datos en la herramienta (para procesamiento de flujo de trabajo en la base de datos).
Detalles adicionales
Si tiene problemas para leer o escribir caracteres Unicode ®, acceda al controlador ODBC de Simba Impala. En opciones avanzadas, seleccione la opción "usar tipos de Unicódigo de SQL".
Soporte de Read
Instale y configure el controlador ODBC de Apache Spark:
- Tipo de servidor de chispa: Seleccione el tipo de servidor adecuado para la versión de Apache Spark que esté ejecutando. Si está ejecutando Apache Spark 1,1 y posterior, seleccione Apache SparkThriftServer.
- Mecanismo de autenticación: consulte la guía de instalación descargada con el controlador de chispas Simba Apache para configurar esta configuración basándose en su configuración.
Para configurar las opciones avanzadas del controlador, consulte la guía de instalación descargada con el controlador de chispas Simba Apache.
Soporte de Write
Para flujos de trabajo estándar y en base de datos, utilice el Secuencia de datos en la herramienta para escribir en Bricks. La ayuda de la escritura está vía el cargador a granel de los bricks.
En la ficha administrar conexiones en dB > Write:
- Seleccione el cargador a granel de los bricks de los ladrillos (Avro) o el cargador a granel de los bricks (CSV).
- Seleccione la cadena de conexión desplegable y, a continuación, seleccione nueva conexión de los bricks.
- Seleccione un origen de datos ODBC existente o haga clic en administrador de ODBC para crear uno.
- Especifique un nombre de usuario y una contraseña. Estos campos no pueden estar en blanco.
-
Especifique la URL de bricks
https://ABC-ABC123-123A.Cloud.databricks.com
Para escribir una tabla con nombres de campo que tengan un total de más de 4000 caracteres, utilice CSV en lugar de Avro.