Databricks

バージョン:
2021.3
Last modified: August 11, 2021
Connection Type

ODBC (64-bit)

Driver Configuration Requirements

ホストはDatabricksクラスタJDBC / ODBCサーバーのホスト名である必要があります。

最適なパフォーマンスを得るには、ドライバの高度なオプションでFast SQLPrepareオプションを有効にして、クエリを実行せずにAlteryxがメタデータを取得できるようにする必要があります。

ビジュアルクエリビルダーを使用するには、ドライバの高度なオプションで[クエリでテーブルを取得]オプションを選択します。

Type of Support

読み取り & 書き込み、インデータベース

Validated On

Databricks バージョン 2.18 、 Simba Apache Spark ドライバ 2.06.16

接続に使用する Alteryx ツール

標準ワークフロー処理

データベース内ワークフロー処理

Link
Blue icon with database being plugged in.

接続In-DBツール

Link
Blue icon with a stream-like object flowing into a database.

データストリーム入力ツール

Unicode ® 文字の読み書きに問題がある場合は、 Simba Impala ODBC ドライバにアクセスしてください。[ 詳細オプション ] で、 [SQL Unicode の種類を使用する ] オプションを選択します。

サポートを読み込む

Apache Spark ODBC ドライバをインストールして設定します。

  • Spark サーバータイプ:実行している Apache Spark のバージョンに適したサーバータイプを選択します。Apache Spark 1.1 以降を実行している場合は、 Apache SparkThriftServer を選択します。
  • 認証メカニズム:設定に基づいてこの設定を構成するには、 Simba Apache Spark ドライバでダウンロードしたインストールガイドを参照してください。

ドライバの詳細オプションを設定するには、 Simba Apache Spark ドライバでダウンロードしたインストールガイドを参照してください。

書き込みサポート

標準ワークフローとデータベース内ワークフローの両方で 、データストリーム入力ツールを使用して Databricks に書き込みます。書き込みのサポートは、Databricks Bulk Loader経由で行います。

[ DB 内接続の管理 > - 書き込み ] タブ

[Write] タブを設定します

  1. [Databricks Bulk Loader] ( Avro )または [DatabricksBulk Loader] ( CSV )を選択します。合計4000文字を超えるフィールド名を持つテーブルを作成するには、Avroの代わりにCSVを使用します。
  2. [ 接続文字列 ] ドロップダウンを選択し、 [ 新しいデータブック接続] を選択します。
  3. 既存の ODBC データソースを選択するか、 [ODBC Admin] を選択 して作成します。
  4. ユーザー名とパスワードを指定します。これらのフィールドは空白にすることはできません。
  5. Databricks URL
    https://abc-abc123-123a.cloud.databricks.com を指定します
役に立ちましたか?

Running into problems or issues with your Alteryx product? Visit the Alteryx Community or contact support. Can't submit this form? Email us.