ツールごとに学習
レコード ID ツールには、「ツールごとに学習」が用意されています。サンプルワークフロー を参照して、Alteryx Designer でこのサンプルやその他の多くのサンプルに直接アクセスする方法を確認してください。
ニューラルネットワークツールは、単一の隠れ層のあるフィードフォワードパーセプトロンニューラルネットワークモデルを作成します。非表示層のニューロンはロジスティック(S字形としても知られる)活性化関数を使用し、出力活性化関数はターゲットフィールドの性質に依存します。具体的には、バイナリ分類問題(たとえば、顧客が購入するまたは購入しない確率)の場合、使用される出力活性化関数はロジスティックで、多項分類問題(たとえば、顧客がオプションA、B、またはCを選択する確率)の場合、使用される出力活性化関数はソフトマックスで、回帰問題(ターゲットが連続した数値フィールドである)の場合、出力に対して線形活性化関数が使用されます。
ニューラルネットワークは、予測モデリングのための第1の機械学習アルゴリズム(従来の統計的アプローチとは対照的)を表します。このメソッドの背後にある動機は、脳内のニューロンの構造を模倣することです(この故に、メソッドの名前)。ニューラルネットワークの基本構造には、1つ以上の「非表示」層に供給される一連の入力(予測フィールド)が含まれ、各非表示層には1つ以上の「ノード」(「ニューロン」としても知られている)があります。
第1の非表示層で、入力は(各ノードの各入力に割り当てられた重みを用いて)線形結合され、「活性化関数」が予測の加重線形結合に適用されます。2番目以降の非表示層では、前の非表示層のノードからもたらされる出力は、非表示層の各ノードにおいて(またしても前の非表示層から各ノードに割り当てられた重みで)線形結合され、活性化関数は加重線形結合に適用されます。最後に、最終的な非表示層のノードからもたらされる結果は、ターゲットタイプと一致する活性化関数を使用する最終的な出力層に結合されます。
推定(または、ニューラルネットワーク文献の語彙における「学習」)には、モデルの目的関数を最小にする各入力または前の層ノードの値に対する1セットの重みを見つけることが含まれます。連続数値フィールドの場合、これは、最終的なモデルの予測の二乗誤差の合計を実際の値と比較して最小にすることを意味しますが、分類ネットワークは、二項分類問題および多項分類問題の両方についてエントロピー測定を最小化しようとします。上記のように、[ニューラルネットワーク]ツール(Rネットパッケージに依存する)は、単一の非表示層(任意の数のノードを有することができる)のみを可能にし、非表示層ノードにおいては常にロジスティック伝達関数を使用します。これらの制限にもかかわらず、私たちの研究は、nnetパッケージが現時点ではRで利用可能な最も強固なニューラルネットワークパッケージであることを示しています。
より現代的な統計的学習方法([ブースト]、[フォレスト]、および[スプライン]モデルツールによって生成されたモデルなど)は、通常は、ニューラルネットワークモデルと比較してより大きな予測効力を提供しますが、(事前に決定できない)ある特定のアプリケーションでは、ニュートラルネットワークモデルの方が分類モデルと回帰モデルの両方で他のメソッドよりも優れています。さらに、金融リスクアセスメントなどの一部の分野では、ニューラルネットワークモデルは広く受け入れられている「標準的な」方法と考えられています。このツールはRツールを使用します。オプション > 予測ツールをダウンロード の順に進み、Alteryx Downloads and Licenses ポータルにサインインして、R と R ツール で使用されるパッケージをインストールします。予測ツールのダウンロードと使用 を参照してください。
モデル名: 各モデルには後で識別できるように名前を付ける必要があります。モデル名は文字で始まる必要があり、文字、数字、および特殊文字ピリオド( ".")とアンダースコア( "_")を含むことができます。その他の特殊文字は使用できず、またRは大文字と小文字を区別します。
ターゲット変数を選択: 予測するデータストリームからフィールドを選択します。このターゲットは文字列型でなければなりません。
予測変数を選択: ターゲット変数の値が変更される「原因」と考えられるフィールドをデータストリームから選択します。サロゲート主キーやナチュラル主キーなどの固有識別子を含む列は、統計分析で使用しないでください。これらの列は予測値がなく、実行時の例外処理を引き起こす可能性があります。
モデル推定にサンプリング重み付けを使用: チェックボックスをクリックしてデータストリームから重み付けフィールドを選択し、サンプリング重み付けを使用するモデルを推定します。
The number of nodes in the hidden layer: The number of nodes (neurons) in the model's single hidden layer. デフォルトは10です。
チェックマークが入っていると、予測変数とターゲットの関係をグラフィカルに表示し、他の予測フィールドの効果を平均した効果プロットが生成されます。生成するプロットの数は、「プロットに含まれるフィールドの重要度の最小レベル」によって制御されます。これは、特定フィールドに対して限界効果プロットを生成するために、そのフィールドがモデルに寄与する必要があるモデルの全予測累乗のパーセンテージを示すものです。この選択の値が高いほど、生成される限界効果プロットの数が少なくなります。
入力(予測フィールド)が異なるスケール(たとえば、1~7人の世帯に存在する家族の数に結合された7000~100万の範囲の収入)にある場合、モデルの重みの最適化の基礎となるニューメリックメソッドが問題となることがあります。
なし(既定)
すべての予測フィールドは、平均値がゼロで標準偏差が1になるようにスケーリングされます。
すべての予測フィールドは、最小値が0、最大値が1、他のすべての値がゼロと1の間にあるようにスケーリングされます。
すべての予測フィールドは、負の値の最小値と1の最大値を持ち、他のすべての値は負と正の値の間にくるようにスケーリングされます)。
減衰重みは、推定プロセスの各反復(「エポック」とも呼ばれる)での新しい重み値の移動を制限します。減衰重みの値はゼロと1の間にくる必要があります。値が大きいほど、重みの可能な移動の制限が大きくなります。一般に、0.01と0.2との間の減量値はしばしば良好に機能します。
The +/- range of the initial (random) weights around zero: The weights given to the input variables in each hidden node are initialized using random numbers. このオプションにより、使用する乱数の範囲を設定できます。通常、値は0.5の近くなるようにする必要があります。ただし、すべての入力変数のサイズが大きい場合は、値を小さくするほうが効果的です。0の値は、実際には特殊な値で、ツールが入力データを与えられた良好な構成値を見つられるようにします。
The maximum number of weights allowed in the model: This option becomes relevant when there are a large number of predictor fields and nodes in the hidden layer. 重み付けの数を減らすとモデル推定が高速化し、アルゴリズムが(グローバルな最適化とは対照的に)重みのための局所的最適を見つける機会を減少させます。モデルから除外された重みは、暗黙的にゼロに設定されます。
この値は、以前の重みのセットと比較して、モデルの重みのセットの改善を見つけるためにアルゴリズムが試行できる回数を制御します。反復回数が最大になる前に重みに改善が見られない場合、アルゴリズムは終了し、最良の重みセットを返します。このオプションのデフォルトの反復回数は100です。一般に、アルゴリズムの行動を考えれば、モデル作成のための実行時間が長くなるという代償を払っても、必要に応じてこの値を増やすのは意味があることです。
プロットサイズ: グラフのサイズをインチとセンチメートルのどちらにするかを選択します。
グラフの解像度: グラフの解像度を 1 インチあたりのドット数で選択します: 1x (96 dpi)、2x (192 dpi)、3x (288 dpi)
解像度を低くするとファイルサイズが小さくなり、モニターでの表示に最適です。
解像度を高くするとファイルサイズが大きくなり、印刷品質が向上します。
ベースフォントサイズ (ポイント): グラフ内のフォントのサイズを選択します。
O アンカー: オブジェクト。シリーズにされたモデルのテーブルとそのモデル名で構成されます。
R アンカー: レポート。単純ベイズ分類器によって生成されたレポートスニペット (基本モデルサマリー、およびターゲット変数の各クラスのおもな効果プロット) で構成されます。