ODBC de Apache Spark
Tipo de conexión | ODBC (64 bits) |
Requisitos de configuración del controlador | Para lograr un rendimiento óptimo, debes habilitar la opción SQLPrepare rápido en las Opciones avanzadas del controlador a fin de que Alteryx pueda recuperar los metadatos sin ejecutar una consulta. |
Detalles del controlador | El procesamiento en base de datos requiere controladores de base de datos de 64 bits. |
Tipo de soporte | Lectura y escritura; en base de datos |
Se validó en | Versión de la base de datos: 2.3.1.3.0.1.0-187 Versión del cliente ODBC: 2.6.18.1030 |
Para obtener más información sobre el controlador ODBC de Simba Athena, consulta la documentación ODBC de Simba .
Herramientas de Alteryx utilizadas para establecer conexiones
Procesamiento de flujos de trabajo estándares
??? |
Procesamiento de flujos de trabajo en base de datos
Para usar el ODBC de Apache Spark, debes tener el SQL de Apache Spark habilitado. No todas las distribuciones de Hadoop son compatibles con Apache Spark. Si no puedes conectarte mediante el ODBC de Apache Spark, comunícate con tu proveedor de Hadoop para obtener instrucciones sobre cómo configurar el servidor de Apache Spark correctamente.
Si tienes problemas con la lectura o la escritura de caracteres Unicode®, accede al controlador ODBC de Simba Impala. En Opciones avanzadas, selecciona la opción “Usar tipos Unicode de SQL”.
Soporte de lectura
Instala y configura el controlador ODBC de Apache Spark:
Tipo de servidor Spark : Selecciona el tipo de servidor apropiado para la versión de Apache Spark que estás ejecutando. Si estás ejecutando Apache Spark 1.1 y versiones posteriores, selecciona Apache Spark Thrift Server.
Mecanismo de autenticación : Consulta la guía de instalación descargada con el controlador Simba Apache Spark para modificar estos ajustes en función de tu configuración.
Para configurar las Opciones avanzadas del controlador, consulta la guía de instalación descargada con el controlador Simba Apache Spark.
Soporte de escritura
Utiliza la herramienta Entrada de flujo de datos a fin de escribir en Apache Spark, tanto para flujos de trabajo estándares como en base de datos. El soporte de escritura se efectúa a través de HDFS.
Limitaciones
Cloudera terminó el soporte para el servidor JDBC/ODBC de Spark Thrift en Cloudera Enterprise versión CDH 6.0. Consulta la documentación de Cloudera para obtener más información: Características no compatibles en CDH 6.0.1 | 6.x | Documentación de Cloudera e interfaces y características no compatibles .