Apache Spark ODBC
Type de connexion | ODBC (64 bits) |
Configuration requise pour le pilote | Pour obtenir des performances optimales, vous devez activer l’option Fast SQLPrepare dans les Options avancées du pilote afin de permettre à Alteryx de récupérer les métadonnées sans exécuter une requête. |
Détails du pilote | Le traitement dans la base de données nécessite des pilotes de base de données de 64 bits. |
Type de prise en charge | Lecture et écriture, En base de données |
Validé le | Version de base de données : 2.3.1.3.0.1.0-187 Version du client ODBC : 2.6.18.1030 |
Pour plus d'informations sur le pilote ODBC Simba Athena, consultez la documentation ODBC Simba .
Outils Alteryx utilisés pour la connexion
Traitement standard de workflow
Traitement de workflow en base de données
Pour utiliser l'ODBC Apache Spark, Apache Spark SQL doit être activé. Toutes les distributions Hadoop ne prennent pas en charge Apache Spark. Si vous ne pouvez pas vous connectez à l'aide de l'ODBC Apache Spark, contactez votre revendeur Hadoop pour obtenir des instructions afin de configurer le serveur Apache Spark correctement.
Si vous rencontrez des problèmes avec la lecture ou l'écriture de caractères Unicode®, accédez au pilote ODBC Simba Impala. Sous Options avancées, sélectionnez l'option « Utiliser les types SQL Unicode ».
Prise en charge de la lecture
Installez et configurez le pilote Apache Spark ODBC :
Type de serveur Spark : Sélectionnez le type de serveur approprié à la version de Apache Spark que vous exécutez. Si vous disposez d'Apache Spark 1.1 ou d'une version ultérieure, sélectionnez Apache SparkThriftServer.
Mécanisme d'authentification : voir le guide d'installation téléchargé avec le pilote Simba Apache Spark pour configurer ce paramètre en fonction de votre configuration.
Pour configurer les Options avancées du pilote, consultez le guide d'installation téléchargé avec le pilote Simba Apache Spark.
Prise en charge de l’écriture
Pour les workflows standard et en base de données, utilisez l' outil Entrée du flux de données pour écrire à Apache Spark. Prise en charge en écriture via HDFS.
Limites
Cloudera a mis fin à la prise en charge du serveur JDBC/ODBC Spark Thrift avec Cloudera Enterprise version CDH 6.0. Consultez la documentation Cloudera pour plus d'informations : fonctionnalités non prises en charge dans CDH 6.0.1 | 6.x | Documentation Cloudera et interfaces et fonctionnalités non prises en charge .