Skip to main content

Databricks Unity Catalog

Verbindungstyp

ODBC (64 Bit)

Anforderungen an die Treiberkonfiguration

Der Host muss ein JDBC/ODBC-Serverhostname des Databricks Unity Catalog-Clusters sein.

Unterstützt sowohl unter AWS als auch unter Azure.

Typ der Unterstützung

Lesen und Schreiben; In-DB

Validiert am

Databricks Cluster und SQL Warehouse, Simba Apache Spark Driver 2.6.23

Treiberdetails

Die In-DB-Verarbeitung erfordert 64-Bit-Datenbanktreiber.

Alteryx-Tools für die Verbindung

Standard-Workflow-Verarbeitung

Eingabedaten-Tool Input Data Tool

Input Data Tool Icon

Link

In-DB-Workflow-Verarbeitung

In-DB-verbinden-Tool

Blue icon with database being plugged in.

Link

Eingehender-Datenstrom-Tool

Blue icon with a stream-like object flowing into a database.

Link

Hinweis

Databricks Unity Catalog wird nur bei Verwendung von DCM unterstützt.

Databricks Unity Catalog wird nur mit Verbindungen ohne DSN unterstützt.

Das Schreiben in Databricks Unity Catalog wird nur mit den In-DB-Tools unterstützt.

Wir unterstützen MergeInDB für Databricks Unity Catalog. Gehen Sie zu In-DB-Daten-schreiben-Tool .

Eingabe-Tool konfigurieren

Das Tool verwendet Apache Spark ODBC ohne DSN mit Simba Databricks Unity Catalog Verbindungstechnologie in DCM.

  1. Stellen Sie sicher, dass DCM aktiviert ist.

  2. Wählen Sie im Eingabe-Tool die Option Eine Verbindung einrichten aus.

  3. Wählen Sie die Registerkarte Datenquellen aus.

  4. Wählen Sie die Option Schnellverbindung unter Databricks Unity Catalog aus.

  5. Der DCM Connection Manager ist so vorgefiltert, dass nur Verbindungen vom Typ Apache Spark ODBC ohne DSN mit Simba Databricks Unity Catalog angezeigt werden.

  6. Wählen Sie eine vorhandene DCM-Verbindung aus, oder erstellen Sie mit +Neu eine neue Verbindung. Informationen zum Konfigurieren einer neuen Verbindung mit DCM finden Sie weiter unten.

  7. Das Fenster Tabelle auswählen oder Abfrage angeben wird geladen und ermöglicht es Ihnen, Tabellen auszuwählen.

In-DB-Verbindung konfigurieren

  1. Öffnen Sie den In-DB-Verbindungsmanager .

  2. Wählen Sie Databricks Unity Catalog im Dropdown Datenquelle aus.

  3. Wählen Sie Neu aus, um eine neue Verbindung zu erstellen.

  4. Geben Sie einen Verbindungsnamen ein.

  5. Wählen Sie auf der Registerkarte Lesen die Option Verbindung einrichten aus, um den DCM-Verbindungsmanager für Databricks Unity Catalog zu öffnen. Der DCM Connection Manager ist so vorgefiltert, dass nur Verbindungen vom Typ Apache Spark ODBC ohne DSN mit Simba Databricks Unity Catalog angezeigt werden.

  6. Wählen Sie eine vorhandene Verbindung aus, oder klicken Sie auf +Neu , um eine neue Verbindung zu erstellen. Informationen zum Konfigurieren einer neuen Verbindung mit DCM finden Sie weiter unten.

  7. Wählen Sie auf der Registerkarte „Schreiben“ die Option Verbindung einrichten aus, um den DCM-Verbindungsmanager für die Databricks-Verbindung zu öffnen. Der DCM Connection Manager ist so vorgefiltert, dass nur Verbindungen vom Typ Apache Spark ODBC Bulk ohne DSN mit Simba Databricks Unity Catalog angezeigt werden.

  8. Wählen Sie eine vorhandene Verbindung aus, oder erstellen Sie mit +Neu eine neue Verbindung. Informationen zum Konfigurieren einer neuen Verbindung mit DCM finden Sie weiter unten.

  9. Wählen Sie auf der Registerkarte Schreiben die Option Verbindung einrichten aus , um den DCM Connection Manager für die Delta Lake-Verbindung zu öffnen. Der DCM Connection Manager ist so vorgefiltert, dass nur Delta Lake -Verbindungen angezeigt werden.

  10. Wählen Sie eine vorhandene Verbindung aus, oder erstellen Sie mit +Neu eine neue Verbindung. Informationen zum Konfigurieren einer neuen Verbindung mit DCM finden Sie weiter unten.

  11. Wählen Sie Anwenden und OK aus, um die Verbindung zu speichern und das Fenster zu schließen.

  12. Wenn über das In-DB-verbinden-Tool auf den In-DB-Connections Manager zugegriffen wurde, wird das Fenster Tabelle auswählen oder Abfrage angeben geladen ermöglicht es Ihnen, Tabellen auszuwählen.

Konfigurieren von Apache Spark ODBC ohne DSN mit Simba Databricks Unity Catalog in DCM

Diese Verbindung wird zum Lesen von Daten aus Databricks Unity Catalog verwendet.

  1. Öffnen Sie Data Connection Manager und navigieren Sie zu Apache Spark ODBC ohne DSN mit Simba Databricks Unity Catalog

    • Über ein Eingabe-Tool oder den In-DB Connection Manager wird DCM vorgefiltert

    • Gehen Sie im Dateimenü auf Datei > Verbindungen verwalten > +Neu > Apache Spark > Apache Spark ODBC ohne DSN mit Simba Databricks Unity Catalog

  2. Geben Sie einen Datenquellennamen ein.

  3. Geben Sie den Hostnamen für Databricks Unity Catalog ein.

  4. Der Port ist standardmäßig auf 443 gesetzt. Bei Bedarf ändern.

  5. Geben Sie den HTTP-Pfad ein. Der HTTP-Pfad ist die URL für die Computing-Ressourcen von Databricks.

  6. Wählen Sie Speichern aus, um die Datenquelle zu speichern.

  7. Wählen Sie +Anmeldedaten verbinden aus.

    • Wählen Sie eine Authentifizierungsmethode aus.

    • Um ein persönliches Zugriffstoken zu verwenden, wählen Sie Benutzername und Kennwort als Authentifizierungsmethode aus. Setzen Sie den Benutzernamen auf „Token“.

    • Informationen zur Verwendung von Azure AD finden Sie unter Databricks Azure OAuth-Authentifizierung .

    • Wählen Sie Vorhandene Anmeldedaten aus, oder nutzen Sie neue Anmeldedaten erstellen und geben Sie das persönliche Zugriffstoken bzw. die Informationen für Azure AD ein.

  8. Wählen Sie Verknüpfen aus, um die Anmeldedaten mit der Datenquelle zu verknüpfen, und wählen Sie dann Verbinden aus.

Konfigurieren von Apache Spark ODBC Bulk ohne DSN mit Simba Databricks Unity Catalog in DCM

Diese Verbindung wird zum Schreiben von Daten in Databricks Unity Catalog verwendet.

  1. Öffnen Sie Data Connection Manager und navigieren Sie zu Apache Spark ODBC Bulk ohne DSN mit Simba Databricks Unity Catalog .

    • Über ein Eingabe-Tool oder den In-DB Connection Manager wird DCM vorgefiltert.

    • Gehen Sie im Dateimenü auf Datei > Verbindungen verwalten > +Neu > Apache Spark > Apache Spark ODBC ohne DSN mit Simba Databricks Unity Catalog .

  2. Geben Sie einen Datenquellennamen ein.

  3. Geben Sie den Hostnamen für Databricks Unity Catalog ein.

  4. Der Port ist standardmäßig auf 443 gesetzt. Bei Bedarf ändern.

  5. Geben Sie den HTTP-Pfad ein. Der HTTP-Pfad ist die URL für die Computing-Ressourcen von Databricks.

  6. Geben Sie den Katalog ein. Legt den Katalog fest, der zum Schreiben von Daten und Erstellen von Tabellen verwendet wird.

  7. Geben Sie das Schema ein. Legt das Schema fest, das zum Schreiben von Daten und Erstellen von Tabellen verwendet wird.

  8. Wählen Sie Speichern aus, um die Datenquelle zu speichern.

  9. Wählen Sie +Anmeldedaten verbinden aus, um Anmeldedaten hinzuzufügen.

    • Wählen Sie eine Authentifizierungsmethode aus.

    • Um ein persönliches Zugriffstoken zu verwenden, wählen Sie Benutzername und Kennwort als Authentifizierungsmethode aus. Setzen Sie den Benutzernamen auf „Token“.

    • Informationen zur Verwendung von Azure AD finden Sie unter Databricks Azure OAuth-Authentifizierung .

    • Wählen Sie Vorhandene Anmeldedaten aus, oder nutzen Sie neue Anmeldedaten erstellen und geben Sie das persönliche Zugriffstoken bzw. die Informationen für Azure AD ein.

  10. Wählen Sie Verknüpfen aus, um die Anmeldedaten mit der Datenquelle zu verknüpfen.

  11. Wählen Sie Verbinden aus, um eine Verbindung herzustellen.

Konfigurieren der Delta Lake-Verbindung in DCM

Diese Verbindung wird für das Staging von Daten in AWS S3 oder ADLS verwendet.

  1. Öffnen Sie Data Connection Manager und navigieren Sie zu Delta Lake auf AWS oder Delta Lake auf Azure

    1. Über ein Eingabe-Tool oder den In-DB Connection Manager wird DCM vorgefiltert.

    2. Gehen Sie im Dateimenü auf Datei > Verbindungen verwalten > +Neu > Delta Lake > Delta Lake auf AWS/Delta Lake auf Azure .

  2. Bei Delta Lake auf AWS

    1. Geben Sie einen Datenquellennamen ein.

    2. Geben Sie einen Endpunkt ein, oder lassen Sie ihn auf Standard. Bei Standard bestimmt Amazon den Endpunkt auf Grundlage des ausgewählten Buckets.

    3. Stellen Sie sicher, dass die Option Signatur V4 für Authentifizierung verwenden ausgewählt ist, sofern nicht ausdrücklich anders angegeben. Wenn die Option nicht aktiviert ist, wird Signatur V2 verwendet. Nach dem 30. Januar 2014 erstellte Regionen unterstützen nur die Signaturversion 4. Diese Regionen erfordern eine Authentifizierung nach Signaturversion 4:

      • Osten der USA (Ohio),

      • Kanada (zentral),

      • Asiatisch-Pazifischer Raum (Mumbai),

      • Asiatisch-Pazifischer Raum (Seoul),

      • Europa (Frankfurt),

      • Europa (London),

      • China (Peking).

    4. Wählen Sie nach Bedarf die erforderliche Stufe der serverseitigen Verschlüsselung aus. Die Standardeinstellung ist „Keine“.

      • None (Standard) : Es wird keine Verschlüsselungsmethode verwendet.

      • SSE-KMS : Verwenden Sie serverseitige Verschlüsselung mit von AWS KMS verwalteten Schlüsseln. Sie können auch eine  KMS-Schlüssel-ID angeben. Wenn Sie diese Methode auswählen, muss auch Signatur V4 für die Authentifizierung verwenden ausgewählt sein.

    5. Geben Sie den Namen des Buckets ein, der für das Staging verwendet werden soll. Der Benutzer benötigt Lese-, Schreib- und Löschberechtigungen für den Bucket.

  3. Bei Delta Lake auf Azure

    1. Geben Sie den Datenquellennamen , den ADLS-Behälter und das Speicherkonto ein.

    2. Das temporäre Speicherverzeichnis ist optional. Wiederholen Sie beim Aufrufen des temporären Verzeichnisses nicht den Behälternamen. Wenn das hier eingegebene Verzeichnis noch nicht vorhanden ist, wird es von Alteryx erstellt. Alteryx erstellt einen Unterordner mit dem Tabellennamen für jede bereitgestellte Tabelle.

  4. Wählen Sie Speichern aus, um die Datenquelle zu speichern.

  5. Wählen Sie +Anmeldedaten verbinden aus.

    1. Wählen Sie eine Authentifizierungsmethode aus.

      • Bei Delta Lake auf AWS ist ausschließlich die Authentifizierungsmethode AWS-IAM-Zugangsschlüssel zulässig.

      • Bei Delta Lake auf Azure können Sie für die Authentifizierung zwischen Geteilter Zugriffsschlüssel und Azure AD wählen.

    2. Wählen Sie Vorhandene Anmeldedaten aus, oder nutzen Sie Neue Anmeldedaten erstellen .

      • Geben Sie einen Anmeldedaten-Namen und die AWS-IAM-Zugangsschlüssel oder den gemeinsam verwendeten Azure-Schlüssel ein.

  6. Wählen Sie Verknüpfen aus, um die Anmeldedaten mit der Datenquelle zu verknüpfen.

  7. Wählen Sie Verbinden aus.