Skip to main content

ODBC de Apache Spark

Tipo de conexión

ODBC (64 bits)

Requisitos de configuración del controlador

Para lograr un rendimiento óptimo, debes habilitar la opción SQLPrepare rápido en las Opciones avanzadas del controlador a fin de que Alteryx pueda recuperar los metadatos sin ejecutar una consulta.

Detalles del controlador

El procesamiento en base de datos requiere controladores de base de datos de 64 bits.

Tipo de soporte

Lectura y escritura; en base de datos

Se validó en

Versión de la base de datos: 2.3.1.3.0.1.0-187

Versión del cliente ODBC: 2.6.18.1030

Para obtener más información sobre el controlador ODBC de Simba Athena, consulta la documentación ODBC de Simba .

Herramientas de Alteryx utilizadas para establecer conexiones

Procesamiento de flujos de trabajo estándares

Procesamiento de flujos de trabajo en base de datos

Para usar el ODBC de Apache Spark, debes tener el SQL de Apache Spark habilitado. No todas las distribuciones de Hadoop son compatibles con Apache Spark. Si no puedes conectarte mediante el ODBC de Apache Spark, comunícate con tu proveedor de Hadoop para obtener instrucciones sobre cómo configurar el servidor de Apache Spark correctamente.

Si tienes problemas con la lectura o la escritura de caracteres Unicode®, accede al controlador ODBC de Simba Impala. En Opciones avanzadas, selecciona la opción “Usar tipos Unicode de SQL”.

Soporte de lectura

Instala y configura el controlador ODBC de Apache Spark:

  • Tipo de servidor Spark : Selecciona el tipo de servidor apropiado para la versión de Apache Spark que estás ejecutando. Si estás ejecutando Apache Spark 1.1 y versiones posteriores, selecciona Apache Spark Thrift Server.

  • Mecanismo de autenticación : Consulta la guía de instalación descargada con el controlador Simba Apache Spark para modificar estos ajustes en función de tu configuración.

Para configurar las Opciones avanzadas del controlador, consulta la guía de instalación descargada con el controlador Simba Apache Spark.

Soporte de escritura

  • Utiliza la herramienta Entrada de flujo de datos a fin de escribir en Apache Spark, tanto para flujos de trabajo estándares como en base de datos. El soporte de escritura se efectúa a través de HDFS.

Limitaciones

Cloudera terminó el soporte para el servidor JDBC/ODBC de Spark Thrift en Cloudera Enterprise versión CDH 6.0. Consulta la documentación de Cloudera para obtener más información: Características no compatibles en CDH 6.0.1 | 6.x | Documentación de Cloudera e interfaces y características no compatibles .