Apache Spark ODBC
サポートのタイプ: | 読み込み&書き込み、インデータベース |
検証済み: | アパッチスパーク 1.2.0;シンバアパッチスパークドライバ1.02.04.1005 |
接続タイプ: | ODBC(32ビットおよび64ビット) |
ドライバの詳細: | ODBC ドライバはここからダウンロードできます。 インデータベース処理には、64ビットのデータベースドライバが必要です。 |
ドライバ構成要件: | 最適なパフォーマンスを得るには、ドライバの高度なオプションでFast SQLPrepareオプションを有効にして、クエリを実行せずにAlteryxがメタデータを取得できるようにする必要があります。 |
接続に使用されるAlteryxツール
- データ入力ツール および 出力データツール (標準ワークフロー処理)
- 接続(In-DB)ツール および データストリームインツール (データベース内のワークフロー処理)
追加の詳細
apache spark ODBC を使用するには、apache spark SQL が有効になっている必要があります。 すべての Hadoop ディストリビューションが Apache Spark をサポートするわけではありません。 apache spark ODBC を使用して接続できない場合は、apache spark サーバを正しくセットアップする方法について、Hadoop ベンダに問い合わせてください。
Unicode ®文字の読み書きに問題がある場合は、シンバインパラ ODBC ドライバにアクセスしてください。 [詳細オプション] で、[SQL Unicode の種類を使用する] オプションを選択します。
サポートを読み込む
Apache Spark ODBC ドライバをインストールして設定します。
- Spark サーバーの種類: 実行しているApache Spark のバージョンに適したサーバーの種類を選択します。 apache Spark 1.1 以降を実行している場合は、apache SparkThriftServer を選択します。
- 認証メカニズム:シンバ Apache Spark ドライバでダウンロードしたインストールガイドを参照して、セットアップに基づいてこの設定を構成してください。
ドライバの詳細オプションを設定するには、シンバ Apache Spark ドライバでダウンロードしたインストールガイドを参照してください。
書き込みサポート
- 標準およびデータベース内の両方のワークフローでは、 データストリームインツール Apache のスパークに書き込みます。 書き込みサポートはHDFS経由です。
- hdfs アブロを使用して書き込みを行う場合は、 hdfs アブロ接続のプロパティウィンドウでデフォルトの WebHDFS (50070) ポートオプションを選択する必要があります。
合計4000文字を超えるフィールド名を持つテーブルを作成するには、Avroの代わりにCSVを使用します。