Databricks

Version:
Current
Last modified: April 02, 2020

接続に使用される Alteryx ツール

標準的なワークフロー処理

データベース内ワークフロー処理

Link
Blue icon with database being plugged in.

接続In-DBツール

Link
Blue icon with a stream-like object flowing into a database.

データストリーム入力ツール

Unicode ®文字の読み書きに問題がある場合は、シンバインパラ ODBC ドライバにアクセスしてください。[詳細オプション] で、[SQL Unicode の種類を使用する] オプションを選択します。

サポートを読み込む

Apache Spark ODBC ドライバをインストールして設定します。

  • Spark サーバーの種類: 実行中の Apache Spark のバージョンに適したサーバータイプを選択します。apache Spark 1.1 以降を実行している場合は、apache SparkThriftServer を選択します。
  • 認証メカニズム: セットアップに基づいてこの設定を構成するには、Simba Apache Spark ドライバでダウンロードしたインストールガイドを参照してください。

ドライバの詳細オプションを設定するには、シンバ Apache Spark ドライバでダウンロードしたインストールガイドを参照してください。

書き込みサポート

標準ワークフローとデータベース内ワークフローの両方で、データ ストリーム イン ツールを使用して Databricks に書き込みます。書き込みのサポートは、Databricks Bulk Loader経由で行います。

In-DB接続の管理 > 書き込みタブで次の操作を行います:

[書き込み] タブの構成

  1. [データブリック バルク ローダー(Avro)]または[データブリックバルク ローダー(CSV])を選択します。

    合計4000文字を超えるフィールド名を持つテーブルを作成するには、Avroの代わりにCSVを使用します。
     
  2. [接続文字列] ドロップダウンを選択し、[新しい Databricks 接続 ] を選択します。
  3. 既存の odbc データソースを選択するか、[odbc Admin] をクリックして作成します。
  4. ユーザー名とパスワードを指定します。これらのフィールドは空白にすることはできません。
  5. Databricks URL を指定する
    https://abc-abc123-123a.cloud.databricks.com
Was This Helpful?

Running into problems or issues with your Alteryx product? Visit the Alteryx Community or contact support.