Databricks

Prise en charge : Lecture et écriture ; En base de données
Validé le : Databricks version 2,18; Simba Apache Spark Driver 1.00.09
Type de connexion : ODBC (32 et 64 bits)
Détails du pilote : Le pilote ODBC peut être téléchargé ici.

Le traitement dans la base de données nécessite des pilotes de base de données 64 bits.

Configuration requise pour le pilote :

L’hôte doit correspondre à un nom d’hôte JDBC/ODBC Server du cluster Databricks.

Pour obtenir des performances optimales, vous devez activer l’option Fast SQLPrepare dans les Options avancées du pilote afin de permettre à Alteryx de récupérer les métadonnées sans exécuter une requête.

Pour utiliser le Générateur de requêtes visuelles, sélectionnez l’option Obtenir les tables avec la requête dans les Options avancées du pilote.

Outils Alteryx utilisés pour la connexion

Détails supplémentaires

Si vous avez des problèmes avec la lecture ou l'écriture de caractères Unicode ®, accédez au pilote ODBC Simba Impala. Sous Options avancées, sélectionnez l'option "utiliser les types Unicode SQL".

Prise en charge de la lecture

Installez et configurez le pilote Apache Spark ODBC:

  • Type de serveur Spark: sélectionnez le type de serveur approprié pour la version d'Apache Spark que vous exécutez. Si vous exécutez Apache Spark 1,1 et ultérieur, sélectionnez Apache SparkThriftServer.
  • Mécanisme d'authentification: Voir le Guide d'installation téléchargé avec le pilote d'étincelles Simba Apache pour configurer ce paramètre en fonction de votre configuration.

Pour configurer les options avancées du pilote, reportez-vous au Guide d'installation téléchargé avec le pilote d'allumage Simba Apache.

Prise en charge de l’écriture

Pour les workflows standard et in-Database, utilisez la Outil Entrée du flux de données pour écrire à Databricks. L’écriture est prise en charge grâce au Chargeur en masse Databricks.

Dans l’onglet Gérer les connexions en BDD > Écriture :

  1. Sélectionnez Databricks Bulk Loader (Avro) ou Databricks Bulk Loader (CSV).
  2. Pour écrire une table contenant des noms de champs totalisant plus de 4 000 caractères, utilisez CSV au lieu d’Avro.

  3. Sélectionnez la liste déroulante chaîne de connexion, puis sélectionnez nouvelle connexion Databricks.
  4. Sélectionnez une source de données ODBC existante ou cliquez sur ODBC Admin pour en créer un.
  5. Indiquez un nom d’utilisateur et un mot de passe. Ces champs ne peuvent pas être vides.
  6. Spécifiez l'URL Databricks

    https://abc-abc123-123a.cloud.databricks.com