データ入力ツール
データ入力ツールは、ファイルまたはデータベースへ接続することによってワークフローへデータを送ります。
データ入力ツールを使用して、次のサポートされているデータソースに接続します:
Alteryx Calgary | .cydb |
Alteryx Database | .yxdb |
Alteryx Spatial Zip | .sz |
Avro | .avro |
Comma Separated Values | .csv |
dBase | .dbf |
ESRI Personal GeoDatabase | .mdb |
ESRI Shapefile | .shp |
Extensible Markup Language (XML) | .xml |
Flat ASCII | .flat |
GIS | .grc、.grd |
Google Earth/Google Maps | .kml |
Gzip | .gz、.tgz |
IBM SPSS | .sav |
JSON | .json |
MapInfo Professional Interchange Format | .mif |
MapInfo Professional Table | .tab |
Microsoft Access 2000-2003 | .mdb |
Microsoft Office Access 2007, 2010, 2013, 2016 | .accdb |
Microsoft Excel Binary | .xlsb |
Microsoft Excel 1997-2003 | .xls |
Microsoft Excel | .xlsx |
Microsoft Excel Macro-Enabled | .xlsm |
QlikView | .qvx |
SAS | .sas7bdat |
SQLite | .sqlite |
SRC Geography | .geo |
Text | .txt、.asc |
Zip Files | .zip |
Adobe | Adobe Analytics |
Amazon | Amazon Athena |
Amazon Aurora | |
Amazon Redshift | |
Amazon S3 | |
Apache Hadoop | Cassandra |
Hadoop Distrubted File System (HDFS) | |
Hive | |
Spark | |
Cloudera | Impala |
Hadoop Distributed File System (HDFS) | |
Hive | |
Databricks | Databricks |
ESRI | ESRI GeoDatabase |
Exasolution | EXASOL |
Google Analytics | Google Analytics |
Google Google | Google BigQuery |
Google Sheets | Google Sheets |
Hortonworks | Hadoop Distrubted File System (HDFS) |
Hive | |
HP | Vertica |
IBM | IBM DB2 |
IBM Netezza | |
Marketo | Marketo |
MapR | Hadoop Distrubted FIle System (HDFS) |
Hive | |
Microsoft | Microsoft Analytics Platform System |
Microsoft Azure Data Lake Store | |
Microsoft Azure SQL Data Warehouse | |
Microsoft SQL Database | |
Microsoft Cognitive Services | |
Microsoft Dynamics CRM | |
Microsoft One Drive | |
Microsoft SharePoint | |
Microsoft SQL Server | |
MongoDB | MongoDB |
MySQL | MySQL |
NetSuite | NetSuite |
Oracle | Oracle |
Pivotal | Pivotal Greenplum |
PostgreSQL | PostgreSQL |
Salesforce | Salesforce |
SAP | SAP Hana |
Snowflake |
|
Teradata | Teradata |
Teradata Aster |
他のツールを使用して、サポートされている他のデータソースに接続します。 Alteryx でサポートされる全てのデータソースの一覧について知りたい場合は サポートされたデータソース。
ツールを設定する
- 設定ウィンドウで、ファイルパスをファイルまたはデータベースを接続するに入力するか、オプションを選択します:
- ファイルをクリックして、ファイルを参照してローカルまたはネットワークディレクトリのファイルに接続します。
- ファイルをダブルクリックして選択します。
- 同一のテーブル構造、つまりテーブルに同じ列とデータ型、およびシート名が含まれています。
- 同じディレクトリ内の類似した名前
- シートを選択 してexcel ファイルで使用可能なシートを選択します。
- 名前付き範囲 を選択して、excel ファイルで使用可能な名前付き範囲を選択します。
- シート名のリストのみをインポート は、シート名を値として含む単一の列を持つ出力を作成するために使用します。
このオプションを選択すると、関連データは出力されません。
- サーバー構成を選択してください: HTTPFS 、 WebHDFS 、または Knox Gateway から選べます。
- ホスト: Hadoop サーバーのインストール済みインスタンスを指定します。 エントリはURLまたはIPアドレスでなければなりません。
- ポート: httpfs (14000)、webhdfs (50070)、Knox Gateway (8443) の既定のポート番号を表示するか、または特定のポート番号を入力します。
- URL: ホストに基づく URL の既定値です。 URLは修正できます。
- ユーザー名: クラスターのセットアップに応じて、アクセスするユーザー名とパスワードを指定します。
- httpfs: ユーザー名が必要ですが、何でもかまいません。
- webhdfs: ユーザー名は必要ありません。
- Knox Gateway: ユーザー名とパスワードが必要です。
- kerberos: HDFS への読み書きのための kerberos 認証オプションを選択します。 選択するオプションは、IT 管理者が HDFS サーバーをどのように構成したかによって異なります。
- None : 認証が使用されていません。
- Kerberos MIT : Alteryx はデフォルトの MIT チケットを使用してサーバーの認証を行います。 まず、MIT Kerberos Ticket Managerを使用して有効なチケットを取得する必要があります。
- Kerberos SSPI : Alteryxは、Windows資格認証でWindowsにログインしたときに取得する Windows kerberos キーを認証に使用します。 従って、ユーザー名とパスワードのフィールドは使用できません。
- (推奨) 接続をテストするには、 テスト をクリックします。
- OK をクリックします。
- ファイルパス (
path/to/file.csv
) を指定するか、ファイルを参照して選択します。 - Avro または CSV ファイル形式を選択し、 OK をクリックします。
- ODBC
- OleDB
- Oracle OCI
- Teradata Bulk
- ESRI
- 32-Bit Database Connections
- 以前の接続
- ODBC 接続タイプと OleDB 接続タイプの両方が空間接続をサポートします。 Alteryxは、データベースが空間機能をサポートしているかどうかを自動的に検出し、必要な構成を表示します。
- OleDB または ODBC データベースに接続する場合は、データベースベンダーが提供するネイティブドライバを使用してください。
- [テーブルを選択]または[クエリを指定]ウィンドウ データベースに複数のテーブルがある場合は、ウィンドウが開きます。 その後、テーブルを選択してクエリを作成することができます。
- インデータベース処理のためにデータベースに接続するには、以下を参照してください。 インデータベースの概要。
- すべての接続 : コンピュータに保存されている接続と、ギャラリーから共有している接続の一覧が表示されます。
- マイコンピュータ : コンピュータに保存されている接続の一覧を表示します。
- ギャラリー : ギャラリーから共有されているリストの接続を表示します。
- ギャラリーを追加する : ギャラリーのログイン画面を開きます。 ユーザー名とパスワードを使用してログインします。 ログイン後、 保存されたデータ接続 に戻り、リスト内の ギャラリー を示して、ギャラリーから共有している接続を表示します。
- ファイル形式オプションを選択します。 オプションは、接続先のファイルまたはデータベースによって異なります。 参照: ファイル形式オプション。
- データレイアウトをプレビューします。
コンピュータ上のファイルをクリックしてAlteryxのキャンバスにドラッグし、選択したファイルに接続されたデータ入力ツールを追加することで、ファイルに接続することもできます。
ファイル参照ウィンドウで、ファイルパスの一部としてワイルドカードを入力します。
両方にデータテーブルが複数ある場合を考えてみましょう。
共通のファイル名を入力し、 * を追加して、後続のすべての文字を置き換えるか、? を1文字に置き換えます。 ファイル名を指定するときは、すべてのファイルに共通のファイル拡張子を含めることを忘れないでください。
このパスは、 data\datafiles ディレクトリ内に含まれるすべての .csv ファイルを、 ABCD で始まるファイル名で表示します。
data\datafiles\ABCD*.csv
これは ABCD_4.csv および ABCD_012.csv になります。
このパスは data\datafiles ディレクトリ内に含まれるすべての .csv ファイルを、 ABCD_ + 1 文字で始まるファイル名で表示します。
data\datafiles\ABCD_?.csv
Excel 入力の選択 で、excel の入力のいずれかを選択:
既知の問題
アクセスドライバは !!! を### 、 ,,,または...は ___ として読み取ります。 これはDesigner に持ち込まれたExcel ファイル内のシート名と名前付き範囲に影響を与える可能性があります
参照:Gzip ファイルのサポート および Zipファイルのサポート より詳しい情報を参照してください。
ファイルタイプを選択して抽出 : ドロップダウンを使用して、表示するファイルのタイプを選択します。
ファイルの選択 : 抽出するファイルの横にあるチェックボックスをクリックします。
Alteryx でサポートされていないファイルを含む、Gzip または Zip ファイル内のすべてのファイルを表示するには、抽出するファイルタイプを選択の下にあるその他のファイル を選びます。 ファイルの種類を選択して、 他のファイルを解析 します。
重要
Gzip および Zip ファイルは Alteryx ギャラリーではサポートされていません。
新しい Microsoft SQL Server データベース接続を作成するには、 Microsoft SQL Server をクリックします。
新しい Oracle データベース接続を作成するには、 Oracle をクリックします。
参照: Oracleデータベースに接続する。
新しい Hadoop データベース接続を作成するには、 Hadoop をクリックします。
Alteryx は Hadoop Distributed File System に接続し、.csvファイルと.avroファイルを読み込みます。 HDFS 標準を実装するすべての Hadoop distributions がサポートされています。
HDFSは、httpfs(ポート14000)、webhdfs(ポート50070)、またはKnox Gateway(8443)を使用して読み込むことができます。 どれを使用するかは Hadoop 管理者に相談してください。 Hadoop High Availability(HA)クラスタールを使用している場合、Hadoop 管理者は httpfs を明示的にに有効にする必要があります。
MapR は webhdfs をサポートしていない場合があります。
HDFS Connection ウィンドウ:
自己署名証明書はAlteryxではサポートされていません。 Knox認証を構成するときは、信頼できる証明書を使用してください。
インデータベース内処理のために HDFS に接続する際に使用するのは 接続(In-DB)ツール。
Microsoft、Oracle、または Hadoop 以外のデータベースへの新しいデータベース接続を作成するには、 その他のデータベース を示します。
接続するデータベースを選択します:
データベースに接続する前に、次の点を考慮してください:
オプションを指定し、保存または共有されているデータ接続を選択して接続するか、管理をクリックして接続を表示および編集します。
参照: データ接続を管理 保存および共有データ接続の管理とトラブルシューティングの詳細については、
最良のパフォーマンスとデータの整合性を得るには、ワークフローを作成して実行する前に入力を閉じます。