Apache Spark ODBC
Outils Alteryx utilisés pour la connexion
- Outil Entrée de données et Outil Sortie de données (Traitement de workflow standard)
- Outil Connecter en BDD et Outil Entrée du flux de données (traitement de workflow dans la base de données)
Détails supplémentaires
Pour utiliser Apache Spark ODBC, vous devez avoir activé Apache Spark SQL. Toutes les distributions Hadoop ne supportent pas Apache Spark. Si vous ne parvenez pas à vous connecter à l'aide d'Apache Spark ODBC, contactez votre fournisseur Hadoop pour savoir comment configurer le serveur Apache Spark correctement.
Si vous avez des problèmes avec la lecture ou l'écriture de caractères Unicode ®, accédez au pilote ODBC Simba Impala. Sous Options avancées, sélectionnez l'option "utiliser les types Unicode SQL".
Prise en charge de la lecture
Installez et configurez le pilote Apache Spark ODBC:
- Type de serveur Spark: sélectionnez le type de serveur approprié pour la version d'Apache Spark que vous exécutez. Si vous exécutez Apache Spark 1,1 et ultérieur, sélectionnez Apache SparkThriftServer.
- Mécanisme d'authentification: Voir le Guide d'installation téléchargé avec le pilote d'étincelles Simba Apache pour configurer ce paramètre en fonction de votre configuration.
Pour configurer les options avancées du pilote, reportez-vous au Guide d'installation téléchargé avec le pilote d'allumage Simba Apache.
Prise en charge de l’écriture
- Pour les workflows standard et in-Database, utilisez la Outil Entrée du flux de données d'écrire à Apache Spark. Prise en charge en écriture via HDFS.
- Si vous écrivez avec HDFS Avro, vous devez sélectionner l' option de port WebHDFS (50070) par défaut dans la fenêtre des propriétés de connexion Avro HDFS.
Pour écrire une table contenant des noms de champs totalisant plus de 4 000 caractères, utilisez CSV au lieu d’Avro.