Skip to main content

Databricks

接続タイプ

ODBC (64ビット)

ドライバーの構成要件

ホストはDatabricksクラスタJDBC / ODBCサーバーのホスト名である必要があります。

最適なパフォーマンスを得るには、ドライバの高度なオプションでFast SQLPrepareオプションを有効にして、クエリを実行せずにAlteryxがメタデータを取得できるようにする必要があります。

DSNで [ Enabled Translation for CTAS ] チェックボックスをオフにする必要があります。これは既定で有効になっています。

ビジュアルクエリビルダーを使用するには、ドライバの高度なオプションで[クエリでテーブルを取得]オプションを選択します。

AWSとAzureの両方でサポートされています。

サポートのタイプ

読み込み&書き込み、インデータベース

検証済み

Databricks対話型およびSQLエンドポイントクラスター、Simba Apache Sparkドライバー2.06.23。

接続に使用する Alteryx ツール

標準的なワークフロー処理

Input Data Tool Icon

リンク

インデータベースのワークフロー処理

接続In-DB ツール

Blue icon with database being plugged in.

リンク

データストリーム入力ツール

Blue icon with a stream-like object flowing into a database.

リンク

Unicode ®文字の読み書きに問題がある場合は、Simba Impala ODBCドライバーにアクセスしてください。[ 詳細オプション ] で、[ SQL Unicodeタイプを使用 ] を選択します。

文字列の長さはドライバーによって制御されます。この変更は、ODBC DSNの詳細オプションまたはドライバーのインストールフォルダーにあるドライバー設定の詳細オプションですることができます。

サポートを読み込む

Spark ODBCドライバーをインストールして以下のように設定します。

  • Sparkサーバータイプ : 実行しているApache Sparkのバージョンに適したサーバータイプを選択します。Apache Spark 1.1以降を実行している場合は、Apache SparkThriftServerを選択します。

  • 認証メカニズム : お使いの設定に基づいてこの設定を行うには、Simba Apache Sparkドライバーでダウンロードされたインストールガイドを参照してください。

ドライバーの 詳細オプション を設定するには、Simba Apache Sparkドライバーでダウンロードされたインストールガイドを参照してください。

書き込みサポート

標準ワークフローとインデータベースワークフローの両方で、 データストリーム入力ツール を使用してDatabricksに書き込みます。書き込みのサポートは、Databricks Bulk Loader経由で行います。[ In-DB接続の管理 - 書き込み ] に移動します。

[書き込み] タブの設定

  1. Databricksバルクローダー(Avro) または Databricks バルクローダー(CSV) を選択します。合計4,000文字を超えるフィールド名を持つテーブルを作成する場合は、AvroではなくCSVを使用します。CSVで使用される区切り文字は、見出しの先頭(SOH)文字です。

  2. [ 接続文字列 ] ドロップダウンを選択し、[ 新しいDatabricks接続 ] を選択します。

  3. 既存のODBCデータソースを選択するか、 ODBC管理者 を選択して作成します。

  4. ユーザー名とパスワードを入力してください。これらのフィールドは空白にすることはできません。

  5. Databricks URLの入力

    https://abc-abc123-123a.cloud.databricks.com

    警告

    URLの末尾に「/」を含めると(例: https://abc-abc123-123a.cloud.databricks.com /)、エラーになります。

Databricks Delta Lake バルク接続

Databricks Delta Lakeバルク接続を設定するには、次の手順に従います。

重要

Databricks Delta Lakeバルク接続は、Designerバージョン2022.1以降でのみ使用できます。

  1. [ Databricks Delta Lakeバルクローダー(Avro) ]を、合計4,000文字を超えるフィールド名を持つテーブルを作成する場合は [ Databricks Delta Lake バルクローダー(CSV) ] を選択します。

  2. [ 接続文字列 ] ドロップダウンを選択し、[ 新しいデータベース接続 ] を選択します。

  3. 既存のODBCデータソースを選択するか、 ODBC管理者 を選択して作成します。

  4. ユーザー名とパスワードを入力してください。これらのフィールドは空白にすることはできません。Alteryxは個人のアクセストークンをサポートしています。ユーザー名は「token」です。パスワードは個人のアクセストークンです。

  5. ステージングメソッド を選択します(AWSとAzureの両方でサポートされています)。

    1. Amazon S3用

      1. 認証する AWSアクセスキー シークレットキー を入力します。

      2. エンドポイント を選択するか、[ Default ] のままにします。

      3. [ 認証に署名V4を使用する ] を選択します。

      4. 必要な サーバー側の暗号化 のレベルを選択します。既定は [None] です。

      5. ステージング場所として使用する バケット名 を選択します。

    2. Azure ADLS用

      重要

      Azureのバルクローディングでは、 ADL Gen 2 のみがサポートされています。

      1. [ ADLSコンテナ ] を選択します。

      2. 共有キー を入力します。

      3. ストレージアカウント を入力します。

      4. オプションの 一時ディレクトリ を入力します。一時ディレクトリを入力するときは、 コンテナ名 を繰り返さないでください。

        フォルダ構造がContainer/MyTempFolder/TempTablesの場合は、「MyTempFolder/TempTables」のみを入力します。

        ここで入力したディレクトリが存在しない場合は、Alteryxによって作成されます。

        Alteryxは、ステージングされる各テーブルにつき、そのテーブル名を持つサブフォルダーを1つ作成します。

    3. [ OK ] を選択して適用します。