Skip to main content

Databricks Unity Catalog

Tipo de conexión

ODBC (64 bits)

Requisitos de configuración del controlador

El host debe ser un nombre de host del servidor de JDBC/ODBC del clúster de Databricks Unity Catalog.

Es compatible con AWS y Azure.

Tipo de soporte

Lectura y escritura; en base de datos

Se validó el

Clúster de Databricks y SQL Warehouse, controlador de Apache Spark con Simba 2.6.23.

Detalles del controlador

El procesamiento en base de datos requiere controladores de base de datos de 64 bits.

Herramientas de Alteryx utilizadas para establecer conexiones

Procesamiento de flujos de trabajo estándares

Input Data Tool Icon

Enlace

Procesamiento de flujos de trabajo en base de datos

Herramienta Conexión En-BD

Blue icon with database being plugged in.

Enlace

Herramienta Entrada de flujo de datos

Blue icon with a stream-like object flowing into a database.

Enlace

Aviso

La compatibilidad con Databricks Unity Catalog solo se admite utilizando DCM.

Databricks Unity Catalog solo se admite utilizando una conexión sin DSN.

La escritura en Databricks Unity Catalog solo es compatible con las herramientas En-BD .

Admitimos la fusión en base de datos para Databricks Unity Catalog. Visita Herramienta Escribir datos en-BD .

Configurar herramienta Entrada

La herramienta utiliza la tecnología de conexión ODBC de Apache Spark sin DSN con Simba Databricks Unity Catalog en DCM.

  1. Verifica que DCM esté habilitado.

  2. En la herramienta Entrada, selecciona Configurar una conexión .

  3. Selecciona la pestaña Fuentes de datos .

  4. Selecciona la opción Conexión rápida en Databricks Unity Catalog .

  5. El Administrador de conexión de DCM está prefiltrado para mostrar solo las conexiones de ODBC de Apache Spark sin DSN con Simba Databricks Unity Catalog .

  6. Elige una conexión de DCM existente o selecciona +Nuevo para crear una conexión nueva. Consulta la información a continuación para configurar una conexión nueva usando DCM.

  7. Se carga la ventana Elegir tabla o especificar consulta y permite seleccionar las tablas.

Configurar conexión en-BD

  1. Abre el Administrador de conexiones en-BD .

  2. Selecciona Databricks Unity Catalog en la lista desplegable Fuente de datos.

  3. Selecciona Nuevo para crear una nueva conexión.

  4. Ingresa un nombre de conexión.

  5. En la pestaña Leer , selecciona Configurar conexión para abrir el administrador de conexión de DCM de Databricks Unity Catalog. El Administrador de conexión de DCM está prefiltrado para mostrar solo las conexiones de ODBC de Apache Spark sin DSN con Simba Databricks Unity Catalog .

  6. Selecciona una conexión existente o haz clic en +Nuevo para crear una conexión nueva. Consulta la información a continuación para configurar una conexión nueva usando DCM.

  7. En la pestaña Escribir, selecciona Configurar conexión a fin de abrir el administrador de conexión de DCM para la conexión con Databricks. El Administrador de conexión de DCM está prefiltrado para mostrar solo las conexiones ODBC de carga masiva de Apache Spark sin DSN con Simba Databricks Unity Catalog .

  8. Selecciona una conexión existente o selecciona +Nuevo para crear una conexión nueva. Consulta la información a continuación para configurar una conexión nueva usando DCM.

  9. En la pestaña Escribir, selecciona Configurar conexión a fin de abrir el administrador de conexión de DCM para la conexión con Delta Lake. El Administrador de conexión de DCM está prefiltrado para mostrar solo las conexiones de Delta Lake .

  10. Selecciona una conexión existente o selecciona +Nuevo para crear una conexión nueva. Consulta la información a continuación para configurar una conexión nueva usando DCM.

  11. Selecciona Aplicar y Aceptar para guardar la conexión y cerrar la ventana.

  12. Si accediste al Administrador de conexión En-BD desde la herramienta Conexión En-BD, se carga la ventana Elegir tabla o especificar consulta y permite seleccionar tablas.

Configurar ODBC de Apache Spark sin DSN con Simba Databricks Unity Catalog en DCM

Esta conexión se utiliza para leer datos de Databricks Unity Catalog.

  1. Abre el Administrador de conexiones de datos y navega a ODBC de Apache Spark sin DSN con Simba Databricks Unity Catalog .

    • El DCM está prefiltrado desde una herramienta Entrada o el Administrador de conexión En-BD.

    • Desde el menú Archivo , ve a Archivo > Administrar conexiones > +Nuevo > Apache Spark > ODBC de Apache Spark sin DSN con Simba Databricks Unity Catalog .

  2. Ingresa un Nombre de la fuente de datos .

  3. Ingresa el nombre del host de Databricks Unity Catalog .

  4. El puerto está configurado en 443 de forma predeterminada. Cámbialo si es necesario.

  5. Ingresa la ruta http, es decir, la URL de recursos de cómputo de Databricks.

  6. Selecciona Guardar para guardar la Fuente de datos.

  7. Selecciona +Conectar credencial .

    • Selecciona un Método de autenticación .

    • Para usar un token de acceso personal, selecciona Nombre de usuario y contraseña como el método de autenticación y cambia el nombre de usuario a “token”.

    • Para usar Azure AD, consulta Autenticación OAuth de Azure para Databricks .

    • Selecciona una credencial existente o Crear nueva credencial para crear una credencial nueva e ingresa el token de acceso personal o la información de Azure AD.

  8. Selecciona Vincular para vincular la credencial a la fuente de datos y selecciona Conectar .

Configurar ODBC de carga masiva de Apache Spark sin DSN con Simba Databricks Unity Catalog en DCM

Esta conexión se utiliza para escribir datos de Databricks Unity Catalog.

  1. Abre el Administrador de conexiones de datos y navega a ODBC de carga masiva de Apache Spark sin DSN con Simba Databricks Unity Catalog .

    • El DCM está prefiltrado desde una herramienta Entrada o el Administrador de conexión En-BD.

    • Desde el menú Archivo , ve a Archivo > Administrar conexiones > +Nuevo > Apache Spark > ODBC de Apache Spark sin DSN con Simba Databricks Unity Catalog .

  2. Ingresa un Nombre de la fuente de datos .

  3. Ingresa el nombre del host de Databricks Unity Catalog .

  4. El puerto está configurado en 443 de forma predeterminada. Cámbialo si es necesario.

  5. Ingresa la ruta http, es decir, la URL de recursos de cómputo de Databricks.

  6. Ingresa el catálogo . Esto establece el catálogo que se utiliza para escribir los datos y crear las tablas.

  7. Ingresa el esquema . Esto establece el esquema que se utiliza para escribir los datos y crear las tablas.

  8. Selecciona Guardar para guardar la Fuente de datos.

  9. Selecciona +Conectar credencial para agregar una credencial.

    • Selecciona un Método de autenticación .

    • Para usar un token de acceso personal, selecciona Nombre de usuario y contraseña como el método de autenticación y cambia el nombre de usuario a “token”.

    • Para usar Azure AD, consulta Autenticación OAuth de Azure para Databricks .

    • Selecciona una credencial existente o Crear nueva credencial para crear una credencial nueva e ingresa el token de acceso personal o la información de Azure AD.

  10. Selecciona Vincular para vincular la credencial a la fuente de datos.

  11. Para conectarte, selecciona Conectar .

Configurar conexión a Delta Lake en DCM

Esta conexión se utiliza para realizar un ensayo con los datos en AWS S3 o ADLS.

  1. Abre el Administrador de conexiones de datos y navega hasta Delta Lake en AWS o Delta Lake en Azure .

    1. El DCM está prefiltrado desde una herramienta Entrada o el Administrador de conexión En-BD.

    2. Desde el menú Archivo , ve a Archivo > Administrar conexiones > +Nuevo > Delta Lake > Delta Lake en AWS/Delta Lake en Azure .

  2. Realiza estos pasos para Delta Lake en AWS:

    1. Ingresa un Nombre de la fuente de datos .

    2. Ingresa un punto de conexión o déjalo como Predeterminado. Cuando se utiliza el valor Predeterminado, Amazon determina el punto de conexión según el bucket seleccionado.

    3. Verifica que Utilizar Signature V4 para la autenticación esté seleccionado, a menos que se indique lo contrario de forma específica. Si no está marcado, se utiliza Signature V2. Las regiones creadas después del 30 de enero de 2014 solo admiten Signature Version 4. Las siguientes regiones requieren autenticación de Signature Version 4:

      • Región del este de los EE. UU. (Ohio).

      • Región de Canadá (central).

      • Región de Asia-Pacífico (Bombay).

      • Región de Asia-Pacífico (Seúl).

      • Región de la UE (Fráncfort).

      • Región de la UE (Londres).

      • Región de China (Pekín).

    4. Selecciona el grado necesario de Cifrado en el lado del servidor. El valor predeterminado es Ninguno.

      • Ninguno (predeterminado) : no se utiliza ningún método de cifrado.

      • SSE-KMS : utiliza la encriptación del servidor con las claves administradas por AWS KMS. También puedes proporcionar un  Id. de clave de KMS . Cuando seleccionas este método, debes seleccionar  Utilizar Signature V4 para la autenticación .

    5. Ingresa el nombre del bucket que utilizarás en el ensayo. El usuario debe tener permisos de lectura, escritura y eliminación en el bucket.

  3. Realiza estos pasos para Delta Lake en Azure:

    1. Ingresa el nombre de la fuente de datos , el contenedor de ADLS y la cuenta de almacenamiento .

    2. El directorio temporal de almacenamiento es opcional. Cuando ingreses el directorio temporal, no repitas el nombre del contenedor. Si el directorio ingresado aquí no existe, Alteryx creará uno. Alteryx crea una subcarpeta con el nombre de la tabla para cada tabla que se utiliza en el ensayo.

  4. Selecciona Guardar para guardar la Fuente de datos.

  5. Selecciona +Conectar credencial .

    1. Selecciona un Método de autenticación .

      • Para Delta Lake en AWS, el único método de autenticación son las claves de acceso para usuarios IAM de AWS .

      • Para Delta Lake en Azure, puedes seleccionar entre Clave de acceso compartida o autenticación de Azure AD .

    2. Selecciona una credencial existente o Crear nueva credencial para crear una credencial nueva.

      • Ingresa un nombre de credencial y las claves de acceso para usuarios IAM de AWS o la clave compartida de Azure.

  6. Selecciona Vincular para vincular la credencial a la fuente de datos.

  7. Selecciona Conectar .