Apache Spark ODBC

Prise en charge : Lecture et écriture ; En base de données
Validé le : Apache Spark 1.2.0; Simba Apache Spark Driver 1.02.04.1005
Type de connexion : ODBC (32 et 64 bits)
Détails du pilote : Le pilote ODBC peut être téléchargé ici.

Le traitement dans la base de données nécessite des pilotes de base de données 64 bits.

Configuration requise pour le pilote : Pour obtenir des performances optimales, vous devez activer l’option Fast SQLPrepare dans les Options avancées du pilote afin de permettre à Alteryx de récupérer les métadonnées sans exécuter une requête.

Outils Alteryx utilisés pour la connexion

Détails supplémentaires

Pour utiliser Apache Spark ODBC, vous devez avoir activé Apache Spark SQL. Toutes les distributions Hadoop ne supportent pas Apache Spark. Si vous ne parvenez pas à vous connecter à l'aide d'Apache Spark ODBC, contactez votre fournisseur Hadoop pour savoir comment configurer le serveur Apache Spark correctement.

Si vous avez des problèmes avec la lecture ou l'écriture de caractères Unicode ®, accédez au pilote ODBC Simba Impala. Sous Options avancées, sélectionnez l'option "utiliser les types Unicode SQL".

Prise en charge de la lecture

Installez et configurez le pilote Apache Spark ODBC:

  • Type de serveur Spark: sélectionnez le type de serveur approprié pour la version d'Apache Spark que vous exécutez. Si vous exécutez Apache Spark 1,1 et ultérieur, sélectionnez Apache SparkThriftServer.
  • Mécanisme d'authentification: Voir le Guide d'installation téléchargé avec le pilote d'étincelles Simba Apache pour configurer ce paramètre en fonction de votre configuration.

Pour configurer les options avancées du pilote, reportez-vous au Guide d'installation téléchargé avec le pilote d'allumage Simba Apache.

Prise en charge de l’écriture

  • Pour les workflows standard et in-Database, utilisez la Outil Entrée du flux de données d'écrire à Apache Spark. Prise en charge en écriture via HDFS.
  • Si vous écrivez avec HDFS Avro, vous devez sélectionner l' option de port WebHDFS (50070) par défaut dans la fenêtre des propriétés de connexion Avro HDFS.

Pour écrire une table contenant des noms de champs totalisant plus de 4 000 caractères, utilisez CSV au lieu d’Avro.