Skip to main content

Databricks Unity Catalog

Type de connexion

ODBC (64 bits)

Configuration requise pour le pilote

L'hôte doit correspondre à un nom d'hôte JDBC/ODBC Server du cluster Databricks Unity Catalog.

Pris en charge pour AWS et Azure.

Type de prise en charge

Lecture et écriture, En base de données

Validé le

Cluster Databricks et SQL Warehouse, pilote Simba Apache Spark 2.6.23

Détails du pilote

Le traitement dans la base de données nécessite des pilotes de base de données de 64 bits.

Outils Alteryx utilisés pour la connexion

Traitement standard de workflow

Input Data Tool Icon

Lien

Traitement de workflow en base de données

Outil Connecter en BDD

Blue icon with database being plugged in.

Lien

Outil Entrée du flux de données

Blue icon with a stream-like object flowing into a database.

Lien

Avis

La prise en charge de Databricks Unity Catalog n'est réalisée qu'à l'aide de DCM.

Databricks Unity Catalog n'est pris en charge qu'à l'aide de connexions sans DSN.

L'écriture dans Databricks Unity Catalog est uniquement prise en charge à l'aide des outils En BDD .

Nous prenons en charge MergeInDB pour Databricks Unity Catalog, accédez à la section Écrire des données en BDD .

Configuration de l'outil Entrée

L'outil utilise la technologie de connexion Apache Spark ODBC sans DSN avec Simba Databricks Unity Catalog dans DCM.

  1. Assurez-vous que DCM est activé.

  2. Dans l'outil Entrée, sélectionnez Configurer une connexion .

  3. Sélectionnez l'onglet Sources de données .

  4. Sélectionnez l'option Connexion rapide sous Databricks Unity Catalog .

  5. Le gestionnaire de connexions DCM est pré-filtré pour afficher uniquement les connexions à Apache Spark ODBC sans DSN avec Simba Databricks Unity Catalog.

  6. Choisissez une connexion DCM existante ou sélectionnez +Nouveau pour créer une nouvelle connexion. Voir ci-dessous pour la configuration d'une nouvelle connexion à l'aide de DCM.

  7. La fenêtre Choisir une table ou Spécifier une requête se charge et permet la sélection de tables.

Configurer une connexion en BDD

  1. Ouvrez le Gestionnaire de connexions en BDD .

  2. Sélectionnez Databricks Unity Catalog dans la liste déroulante Source de données.

  3. Sélectionnez Nouveau pour créer une nouvelle connexion.

  4. Entrez un nom de connexion.

  5. Dans l'onglet Lire , sélectionnez Configurer la connexion pour ouvrir le gestionnaire de connexions DCM pour le Databricks Unity Catalog. Le gestionnaire de connexions DCM est pré-filtré pour afficher uniquement les connexions à Apache Spark ODBC sans DSN avec Simba Databricks Unity Catalog.

  6. Sélectionnez une connexion existante ou cliquez sur +Nouveau pour créer une nouvelle connexion. Voir ci-dessous pour la configuration d'une nouvelle connexion à l'aide de DCM.

  7. Dans l'onglet Écrire, sélectionnez Configurer la connexion pour ouvrir le gestionnaire de connexions DCM pour la connexion Databricks. Le gestionnaire de connexions DCM est pré-filtré pour afficher uniquement les connexions à Apache Spark ODBC en masse sans DSN avec Simba Databricks Unity Catalog .

  8. Sélectionnez une connexion existante ou sélectionnez +Nouveau pour créer une nouvelle connexion. Voir ci-dessous pour la configuration d'une nouvelle connexion à l'aide de DCM.

  9. Dans l'onglet Écrire, sélectionnez Configuration de la connexion pour ouvrir le gestionnaire de connexion DCM pour la connexion Delta Lake. Le gestionnaire de connexions DCM est pré-filtré pour afficher uniquement les connexions Delta Lake .

  10. Sélectionnez une connexion existante ou sélectionnez +Nouveau pour créer une nouvelle connexion. Voir ci-dessous pour la configuration d'une nouvelle connexion à l'aide de DCM.

  11. Sélectionnez Appliquer et OK pour enregistrer la connexion et fermer la fenêtre.

  12. Si le gestionnaire de connexions en BDD a été accessible via l'outil Connecter en BDD, la fenêtre Choisir une table ou spécifier la requête se charge et permet la sélection de tables.

Configurer Apache Spark ODBC sans DSN avec Simba Databricks Unity Catalog dans DCM

Cette connexion est utilisée pour lire les données issues de Databricks Unity Catalog.

  1. Ouvrez le Gestionnaire de connexion de données et accédez à Apache Spark ODBC sans DSN avec Simba Databricks Unity Catalog

    • À partir d'un outil d'entrée ou du gestionnaire de connexion en BDD, DCM est pré-filtré

    • À partir du menu Fichier , accédez à la section Fichier > Gérer les connexions > +Nouveau > Apache Spark > Apache Spark ODBC sans DSN avec Simba Databricks Unity Catalog

  2. Saisissez un nom de source de données .

  3. Entrez le nom d' hôte Databricks Unity Catalog .

  4. Le port est défini par défaut sur 443. Modifiez-le au besoin.

  5. Entrez le chemin http. Le chemin http est l'URL des ressources de calcul Databricks.

  6. Sélectionnez Enregistrer pour enregistrer la source de données.

  7. Sélectionnez +Connecter les informations d'identification .

    • Sélectionnez une Méthode d'authentification .

    • Pour utiliser un jeton d'accès personnel, sélectionnez Nom d'utilisateur et mot de passe comme méthode d'authentification et définissez le nom d'utilisateur par « jeton ».

    • Pour utiliser Azure AD, consultez Authentification Databricks Azure OAuth .

    • Sélectionnez des informations d'identification existantes ou sélectionnez Créer Nouvelles informations d'identification pour créer de nouvelles informations d'identification et entrez le jeton d'accès personnel ou les informations pour Azure AD.

  8. Sélectionnez Lier pour lier les informations d'identification à la source de données et sélectionnez Connecter .

Configuration d'Apache Spark ODBC en masse sans DSN avec Simba Databricks Unity Catalog dans DCM

Cette connexion est utilisée pour écrire des données dans Databricks Unity Catalog.

  1. Ouvrez le Gestionnaire de connexions de données et accédez à Apache Spark ODBC en masse avec Simba Databricks Unity Catalog .

    • À partir d'un outil Entrée ou Gestionnaire de connexion en DBB, DCM est pré-filtré.

    • Dans le menu Fichier , accédez à la section Fichier > Gérer les connexions > +Nouveau > Apache Spark > Apache Spark ODBC sans DSN avec Simba Databricks Unity Catalog .

  2. Saisissez un nom de source de données .

  3. Entrez le nom d' hôte Databricks Unity Catalog .

  4. Le port est défini par défaut sur 443. Modifiez-le au besoin.

  5. Entrez le chemin http. Le chemin http est l'URL des ressources de calcul Databricks.

  6. Entrez le Catalogue . Ceci définit le catalogue utilisé pour l'écriture de données et la création de tables.

  7. Entrez le Schéma . Ceci définit le schéma utilisé pour l'écriture de données et la création de tables.

  8. Sélectionnez Enregistrer pour enregistrer la source de données.

  9. Sélectionnez +Connecter les informations d'identification pour ajouter des informations d'identification.

    • Sélectionnez une Méthode d'authentification .

    • Pour utiliser un jeton d'accès personnel, sélectionnez Nom d'utilisateur et mot de passe comme méthode d'authentification et définissez le nom d'utilisateur par « jeton ».

    • Pour utiliser Azure AD, consultez Authentification Databricks Azure OAuth .

    • Sélectionnez des informations d'identification existantes ou sélectionnez Créer Nouvelles informations d'identification pour créer de nouvelles informations d'identification et entrez le jeton d'accès personnel ou les informations pour Azure AD.

  10. Sélectionnez Lier pour lier les informations d'identification à la source de données.

  11. Sélectionnez Connecter pour vous connecter.

Configuration de connexion Delta Lake dans DCM

Cette connexion est utilisée pour préparer les données dans AWS S3 ou ADLS.

  1. Ouvrez le Gestionnaire de connexion de données et accédez à Delta Lake sur AWS ou Delta Lake sur Azure

    1. À partir d'un outil Entrée ou Gestionnaire de connexion en DBB, DCM est pré-filtré.

    2. Dans le menu Fichier , accédez à la section Fichier > Gérer les connexions > +Nouveau > Delta Lake > Delta Lake sur AWS/Delta Lake sur Azure .

  2. Delta Lake sur AWS

    1. Saisissez un nom de source de données .

    2. Entrez un Point de terminaison ou laissez-le par défaut. Lorsque la valeur par défaut est utilisée, Amazon détermine le point de terminaison sur la base du compartiment sélectionné.

    3. Assurez-vous que l'option Utiliser Signature V4 pour l'authentification est sélectionnée, sauf instruction contraire spécifique. Si cette case n'est pas cochée, Signature V2 est utilisée. Les régions créées après le 30 janvier 2014 ne prennent en charge que signature version 4. Ces régions nécessitent une authentification avec Signature Version 4 :

      • Région Est des États-Unis (Ohio),

      • Région Canada (Central),

      • Région Asie-Pacifique (Bombay),

      • Région Asie-Pacifique (Séoul),

      • Région UE (Francfort),

      • Région UE (Londres),

      • Région Chine (Pékin).

    4. Sélectionnez le niveau de cryptage requis côté serveur, Aucun est la valeur par défaut.

      • Aucun(e) (par défaut)  : aucune méthode de chiffrement n'est utilisée.

      • SSE-kms : utilisez le chiffrement côté serveur avec les clés gérées par AWS KMS. Vous pouvez également fournir un  ID de clé KMS . Lorsque vous choisissez cette méthode,  Utiliser Signature v4 pour l'authentification  doit être sélectionnée.

    5. Saisissez le nom du compartiment à utiliser pour la préparation. L'utilisateur doit disposer d'autorisations de lecture, d'écriture et de suppression pour le compartiment.

  3. Pour Delta Lake sur Azure

    1. Entrez Nom de la source de données , Conteneur ADLS et Compte de stockage .

    2. Le Répertoire temporaire de stockage est facultatif. Lorsque vous entrez dans le répertoire temporaire, ne répétez pas le nom du conteneur. Si le répertoire saisi ici n'existe pas déjà, Alteryx en crée un. Alteryx crée un sous-dossier avec le nom de la table pour chaque table préparée.

  4. Sélectionnez Enregistrer pour enregistrer la source de données.

  5. Sélectionnez +Connecter les informations d'identification .

    1. Sélectionnez une Méthode d'authentification .

      • Pour Delta Lake sur AWS, la seule méthode d'authentification est Clés d'accès AWS IAM .

      • Pour Delta Lake sur Azure, vous pouvez choisir entre la méthode Clé d'accès partagée ou la méthode d'authentification Azure AD .

    2. Sélectionnez des Informations d'identification existantes ou Créer Nouvelles informations d'identification pour créer de nouvelles informations d'identification.

      • Entrez un nom d'identification et les clés d'accès AWS IAM ou la clé partagée Azure.

  6. Sélectionnez Lier pour lier les informations d'identification à la source de données.

  7. Sélectionnez Se connecter .