Databricks
Outils Alteryx utilisés pour la connexion
- Outil Entrée de données (pour le traitement standard du Workflow)
- Outil Connecter en BDD et Outil Entrée du flux de données (pour le traitement de workflow dans la base de données).
Détails supplémentaires
Si vous avez des problèmes avec la lecture ou l'écriture de caractères Unicode ®, accédez au pilote ODBC Simba Impala. Sous Options avancées, sélectionnez l'option "utiliser les types Unicode SQL".
Prise en charge de la lecture
Installez et configurez le pilote Apache Spark ODBC:
- Type de serveur Spark: sélectionnez le type de serveur approprié pour la version d'Apache Spark que vous exécutez. Si vous exécutez Apache Spark 1,1 et ultérieur, sélectionnez Apache SparkThriftServer.
- Mécanisme d'authentification: Voir le Guide d'installation téléchargé avec le pilote d'étincelles Simba Apache pour configurer ce paramètre en fonction de votre configuration.
Pour configurer les options avancées du pilote, reportez-vous au Guide d'installation téléchargé avec le pilote d'allumage Simba Apache.
Prise en charge de l’écriture
Pour les workflows standard et in-Database, utilisez la Outil Entrée du flux de données pour écrire à Databricks. L’écriture est prise en charge grâce au Chargeur en masse Databricks.
Dans l’onglet Gérer les connexions en BDD > Écriture :
- Sélectionnez Databricks Bulk Loader (Avro) ou Databricks Bulk Loader (CSV).
- Sélectionnez la liste déroulante chaîne de connexion, puis sélectionnez nouvelle connexion Databricks.
- Sélectionnez une source de données ODBC existante ou cliquez sur ODBC Admin pour en créer un.
- Indiquez un nom d’utilisateur et un mot de passe. Ces champs ne peuvent pas être vides.
-
Spécifiez l'URL Databricks
https://abc-abc123-123a.cloud.databricks.com
Pour écrire une table contenant des noms de champs totalisant plus de 4 000 caractères, utilisez CSV au lieu d’Avro.