データ出力ツール
データ出力ツールを使用して、サポートされているファイルの種類またはデータソースにワークフローの結果を書き込みます。
他のツールを使用して、サポートされている他のデータソースに書き込みます。 Alteryx でサポートされているデータソースの完全なリストについては、サポートされているデータソースとファイル形式を参照してください。
- ツールパレットでデータ出力ツールをクリックし、ワークフローキャンバスにドラッグします。
- 設定ウィンドウで、[ファイルまたはデータベースへの書き込み] ドロップダウンの矢印をクリックします。
Alteryxは、[データ接続] ウィンドウを表示します。 最近、保存済み、ファイル、データソース、Gallery のいずれかを使用してデータ接続を設定します。
[最近の接続] を選択します。 [最近の接続] には、最近設定されたファイルとデータ接続が含まれます。
[リストの消去] をクリックして、最近の接続をすべて削除します。
データセットに接続するには、[ファイルを選択] をクリックします。
Alteryx Database | .yxdb |
Alteryx Spatial Zip | .sz |
Avro | .avro |
Comma Separated Values | .csv |
dBase | .dbf |
ESRI Personal GeoDatabase | .mdb |
ESRI Shapefile | .shp |
Flat ASCII | .flat |
Geography Markup Language (GML) | .gml |
Google Earth/Google Maps | .kml |
HyperText Markup Language (HTML) | .htm |
IBM SPSS | .sav |
JSON | .json |
MapInfo Professional Interchange | .mif |
MapInfo Professional Table | .tab |
Microsoft Access 2000-2003 | .mdb |
Microsoft Access 2007、2010、2013、2016 | .accdb |
Microsoft Excel | .xlsx |
Microsoft Excel 1997-2003 | .xls |
Microsoft Excel Macro Enabled | .xlsm |
QlikView | .qvx |
SAS | .sas7bdat |
SQLite | .sqlite |
SRC Geography | .geo |
Tableau Data Extract | .tde |
Tableau Hyper Data Extract | .hyper |
データソースには、サポートされ頻繁に使用されるデータソースが表示されます。
- ツール: インストールしていないツールのクイック接続を選択した場合、そのツールをダウンロードし、インストールするためのブラウザーが Alteryx Gallery に表示されます。 ページの指示をよく読んでください。 ツールがインストールされると、データ入力ツールはキャンバス上で [データソース] タブから選択したツールに変わります。
- データソース
- ODBCは、特定のドライバーを使用して、システム上の Dsn のフィルターされたリストを表示する ODBC 接続ウィンドウを起動します。
- OleDB は、ネイティブの Windows OleDB マネージャーを起動します。
- OCI は、ネイティブ Oracle OCI 接続マネージャを起動します。 ここから、この接続に使用する tnsnames.ora ファイル、ユーザー名とパスワードの資格情報で定義されているネットサービス名を選択します。
- バルクは、選択した接続タイプのバルク接続を設定できるようにする特別なダイアログを開きます。
- クイック接続: SQL または Oracle クイック接続の場合、既存の保存済みの接続を使用するか、保存されている新しい接続を作成することができます。 詳細については、以下を参照してください:
- 他のすべてのクイック接続は、別のツールを使用した接続です。
HDFS の下にある [クイック接続] をクリックして、新しい Hadoop データベース接続を作成します。
Alteryx は Hadoop Distributed File System に接続し、.csv ファイルと .avro ファイルを読み込みます。 HDFS 標準を実装するすべての Hadoop distributions がサポートされています。
HDFS は、httpfs(ポート14000)、webhdfs(ポート50070)、Knox Gateway(8443)を使用して読み込むことができます。 どれを使用するかは Hadoop 管理者に相談してください。 Hadoop High Availability(HA)クラスタールを使用している場合、Hadoop 管理者は httpfs を明示的にに有効にする必要があります。
MapR は webhdfs をサポートしていない場合があります。
HDFS 接続ウィンドウ:
- サーバー構成を選択してください: HTTPFS、WebHDFS、Knox Gateway から選べます。
- [ホスト]: Hadoop サーバーのインストール済みインスタンスを指定します。 エントリーは URL または IP アドレスでなければなりません。
- [ポート]: httpfs (14000)、webhdfs (50070)、Knox Gateway (8443) の既定のポート番号を表示するか、または特定のポート番号を入力します。
- [URL]: ホストに基づく URL の既定値です。 URL は修正できます。
- [ユーザー名]: クラスターのセットアップに応じて、アクセスするユーザー名とパスワードを指定します。
- httpfs: ユーザー名が必要ですが、どんなものでも構いません。
- webhdfs: ユーザー名は必要ありません。
- Knox Gateway: ユーザー名とパスワードが必要です。
- kerberos: HDFS への読み書きのための kerberos 認証オプションを選択します。 選択するオプションは、IT 管理者が HDFS サーバーをどのように構成したかによって異なります。
- [None]: 認証が使用されていません。
- [Kerberos MIT]: Alteryx はデフォルトの MIT チケットを使用してサーバーの認証を行います。 まず、MIT Kerberos Ticket Manager を使用して有効なチケットを取得する必要があります。
- [Kerberos SSPI]: Alteryx は、Windows 資格認証で Windows にログインしたときに取得する Windows kerberos キーを認証に使用します。 従って、ユーザー名とパスワードのフィールドは使用できません。
- (推奨) 接続をテストするには、[テスト] をクリックします。
- [OK] をクリックします。
- ファイルパス (例:
path/to/file.csv
) を指定するか、ファイルを参照して選択します。 - Avro または CSV ファイル形式を選択し、[OK] をクリックします。
自己署名証明書は Alteryx ではサポートされていません。 Knox 認証を構成するときは、信頼できる証明書を使用してください。
インデータベース処理のために HDFS に接続する際に使用するには、 接続 In-DB ツールを使用してください。
データベースへの一般接続または 32 ビット接続も可能です。
データベースに接続する前に、次の点を考慮してください:
- ODBC 接続タイプと OleDB 接続タイプの両方が空間接続をサポートします。 Alteryx は、データベースが空間機能をサポートしているかどうかを自動的に検出し、必要な設定を表示します。
- インデータベース処理のためにデータベースに接続するには、以下を参照してください。 インデータベースの概要。
オプションを指定し、保存または共有されているデータ接続をクリックして接続するか、管理をクリックして接続を表示および編集します。
すべての接続: コンピュータに保存されている接続と、Gallery から共有している接続の一覧が表示されます。
マイコンピュータ: コンピュータに保存されている接続の一覧を表示します。
Gallery: Gallery から共有されている接続の一覧が表示されます。
[Gallery を追加]: Gallery のログイン画面を開きます。 ユーザー名とパスワードを使用してログインします。 ログイン後、保存されたデータ接続に戻り、一覧で Gallery を指定して、Gallery から共有されている接続を表示します。
「保存および共有データ接続の管理」、「トラブルシューティング」の詳細については、「データ接続の管理」を参照してください。
Amazon | Amazon Athena |
Amazon Aurora | |
Amazon Redshift | |
Amazon S3 | |
Apache | Cassandra |
Hadoop Distributed File System (HDFS) | |
Hive | |
Spark | |
Cloudera | Impala |
Hadoop Distributed File System (HDFS) | |
Hive | |
Databricks | Databricks |
ESRI | ESRI GeoDatabase |
Exasolution | EXASOL |
Google BigQuery | |
Google Sheets | |
Hortonworks | Hadoop Distributed File System (HDFS) |
Hive | |
IBM | IBM DB2 |
IBM Netezza | |
Marketo | Marketo |
MapR | Hadoop Distributed File System (HDFS) |
Hive | |
Microsoft | Microsoft Analytics Platform System |
Microsoft Azure Data Lake Store | |
Microsoft Azure SQL Data Warehouse | |
Microsoft Azure SQL Database | |
Microsoft Cognitive Services | |
Microsoft Dynamics CRM | |
Microsoft OneDrive | |
Microsoft SharePoint | |
Microsoft Power BI | |
Microsoft SQL Server | |
MongoDB | MongoDB |
MySQL | MySQL |
Oracle | Oracle |
Pivotal | Pivotal Greenplum |
PostgreSQL | PostgreSQL |
Salesforce | Salesforce |
SAP | SAP Hana |
Snowflake |
|
Teradata | Teradata |
Vertica | Vertica |
Gallery には、ローカルコンピュータに追加されている各 Gallery とその URL が表示されます。 各 Gallery 名の下のリストには、アクセス可能なサーバーに保存されている保存済みの接続が含まれています。
[+ Gallery ] をクリックして、別の Gallery を追加します。
- ファイル形式オプションを選択します。 オプションは、接続先のファイルまたはデータベースによって異なります。 ファイル形式オプションを参照してください。
- (オプション)選択したフィールドの値ごとに個別のファイルを書き込むには、[フィールドからファイル/テーブル名を取得] を選択します。 ドロップダウンをクリックして、オプションを選択します:
-
[ファイル/テーブル名に接尾辞を追加]: 選択したフィールド名を、選択したテーブルの名前の末尾に追加します。
-
[ファイル/テーブル名に接頭辞を追加]: 選択したフィールド名を選択したテーブルの名前の先頭に追加します。
-
[ファイル/テーブル名を変更]: ファイル名を選択したフィールド名に変更します。
-
[ファイルパス全文を変更]: ファイル名を選択したフィールドの名前に変更します。 名前は完全なファイルパスである必要があります。 ファイルがフルパスディレクトリに存在する場合、このオプションは既存のファイルを上書きすることができます。
-
[ファイル名またはファイル名の一部を含むフィールド] をクリックし、フィールドを選択します。
-
(オプション)[フィールドを出力に保持] を選択します。
- ワークフローを実行したら、データ出力ツールを選択します。
- 結果ウィンドウで、 をクリックします。
- 出力ファイルを探して、ファイルリンクをクリックして開きます。
クラシックモードを使用するには:
- [オプション] > [ユーザー設定] > [ユーザー設定の編集] をクリックします。
- [既定] タブで、[入力/出力ツールメニューオプションにクラシックモードを使用] のチェックボックスをオンにします。
- [OK] をクリックします。
- キャンバスをクリックするか、F5 キーを押して更新します。
これで、データ出力ツールのクラシックモードを使用して、ファイルとデータソースを選択できるようになりました。