Apache Spark ODBC

バージョン:
2023.1
Last modified: August 11, 2021

For more information about the Simba Spark ODBC driver, see the Installation and Configuration Guide on Simba portal.

接続に使用される Alteryx ツール

標準的なワークフロー処理

In-DB ワークフロー処理

Link
Blue icon with database being plugged in.

接続In-DBツール

Link
Blue icon with a stream-like object flowing into a database.

データストリーム入力ツール

apache spark ODBC を使用するには、apache spark SQL が有効になっている必要があります。すべての Hadoop ディストリビューションが Apache Spark をサポートするわけではありません。apache spark ODBC を使用して接続できない場合は、apache spark サーバを正しくセットアップする方法について、Hadoop ベンダに問い合わせてください。

Unicode ®文字の読み書きに問題がある場合は、シンバインパラ ODBC ドライバにアクセスしてください。[詳細オプション] で、[SQL Unicode の種類を使用する] オプションを選択します。

サポートを読み込む

Apache Spark ODBC ドライバをインストールして設定します。

  • Spark サーバーの種類: 実行中の Apache Spark のバージョンに適したサーバータイプを選択します。apache Spark 1.1 以降を実行している場合は、apache SparkThriftServer を選択します。
  • 認証メカニズム: セットアップに基づいてこの設定を構成するには、Simba Apache Spark ドライバでダウンロードしたインストールガイドを参照してください。

ドライバの詳細オプションを設定するには、シンバ Apache Spark ドライバでダウンロードしたインストールガイドを参照してください。

書き込みサポート

  • 標準ワークフローとデータベース内ワークフローの両方で、データストリーム イン ツールを使用して Apache Spark に書き込みます。書き込みサポートはHDFS経由です。
  • HDFS Avro で書き込む場合は、HDFS Avro 接続プロパティ ウィンドウでデフォルトのWebHDFS (50070)ポート オプションを選択する必要があります。

合計4000文字を超えるフィールド名を持つテーブルを作成するには、Avroの代わりにCSVを使用します。

このページは役に立ちましたか?

Alteryx 製品のご利用中に何か問題がございましたら、Alteryx コミュニティにアクセスするか、サポートにお問い合わせください。このフォームを送信できない場合E メールでお送りください。