LLM接続の作成
管理者のアクセス制御
フルユーザーロールを持つユーザーは、既定でLLM接続を作成できます。LLM接続へのアクセスを制限するには、LLM接続の機能を無効化したカスタムロールを割り当ててください。ユーザーロールと機能の詳細をご覧ください。
AIツールで大規模言語モデル(LLM)を使用するには、使用するLLMにAlteryx Oneを接続する必要があります。次の手順に従ってください。
Alteryx Oneアカウントで、上部ナビゲーションバーから[接続]ページに移動します。ワークスペースで新しいデータセットエクスペリエンスが有効になっている場合は、まず上部ナビゲーションバーから[データ]ページに移動し、そこで[接続]タブを選択します。
[新しい接続]を選択します。接続の作成に関する詳細については、接続ウィンドウの作成を参照してください。
検索バーを使用してLLMを検索するか、LLMを選択してリストを絞り込み、使用可能なLLM接続のみを表示します。
任意のLLMを選択し、設定の詳細を入力します。
接続を作成すると、DesignerでLLM上書き設定ツールとプロンプトツールを使用して、LLMを使用できるようになります。他のユーザー向けにLLM接続を作成した場合は、[接続]ページから接続を共有してください。
重要
各LLM接続には、LLM自体で必要なセットアップと、Alteryx Oneでの設定の両方で、それぞれ異なる設定要件があります。
詳細については、以下のLLM別の設定に関する詳細を確認してください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
AWSリージョン名: AWSアカウントのリージョン(たとえば、米国西部など)を入力します。
資格情報タイプ: 現時点では、AWSアクセスキーのみ利用できます。接続するアカウントのAWSアクセスキーIDとAWSシークレットアクセスキーを入力します。詳細については、AWS IAMのドキュメンテーションを参照してください。IAMロールを作成し、対応するアクセスキーを使用することをお勧めします。
広い権限を得るには、IAMロールに
AmazonBedrockFullAccessを追加します。最小限の権限を得るには、IAMロールに次の権限を追加します。
bedrock:InvokeModelbedrock:InvokeModelWithResponseStreambedrock:ListFoundationModelsbedrock:GetFoundationModel
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
APIキー: Anthropic APIキーを入力します。Anthropic ConsoleからAPIキーを取得してください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
Azure OpenAIには、2つの資格情報タイプを選択できます。
Alteryx OneでAzure接続を直接設定します。以下のフィールドを設定します。
注記
コンテンツ呼び出しを生成する前に、まずモデルをデプロイする必要があります。最初に、Azure OpenAIモデルを作成してデプロイする方法をご確認ください。
Azure APIキー: Azure OpenAI APIキーを入力します。まずは、Azure OpenAI APIで使用するモデルをAzure API管理ガイドに従って設定する必要があります。
Azure APIベースURL: AzureベースURLを入力します(例:
https://<account_name>.openai.azure.com)。Azure APIバージョン: Azure APIバージョンを入力します(例:
2024-10-21)。AzureクライアントID: このパラメーターの作成については、ITチームにお問い合わせください。このセットアップガイドを参照用に提供してください。
AzureテナントID: このパラメーターの作成については、ITチームにお問い合わせください。このセットアップガイドを参照用に提供してください。
Azureクライアントシークレット: このパラメーターの作成については、ITチームにお問い合わせください。このセットアップガイドを参照用に提供してください。
AzureサブスクリプションID: AzureサブスクリプションIDを入力します。これは、[リソースグループ] > 該当するリソースグループ > [サブスクリプション] > 該当するサブスクリプション > [サブスクリプションID]で確認できます。または、AI Foundryにアクセスして、アカウント名、Foundryポータルの順に選択すると、この情報を見つけることができます。
Azureリソースグループ名: Azureリソースグループ名を入力します。これは、[リソースグループ] > [該当のリソースグループ]で確認できます。または、AI Foundryにアクセスして、アカウント名、Foundryポータルの順に選択すると、この情報を見つけることができます。
Azure (リソース)アカウント名: Azureアカウント名を入力します。これはAI Foundryページで確認できます。
OAuth 2.0を使用してAzure接続を認証します。以下のフィールドを設定します。
注記
コンテンツ呼び出しを生成する前に、まずモデルをデプロイする必要があります。最初に、Azure OpenAIモデルを作成してデプロイする方法をご確認ください。
重要
接続を更新する場合は、OAuthクライアントで[認証]を選択します。これを行わないと、接続が切断されます。
Azure APIベースURL: AzureベースURLを入力します(例:
https://<account_name>.openai.azure.com)。Azure APIバージョン: Azure APIバージョンを入力します(例:
2024-10-21)。モデルリスト: モデルのリストをコンマ区切りで入力します(例:
gpt-5,gpt-4o,custom)。カスタムモデルにはデプロイされたモデル名を使用します。注記
選択したモデルが正しい名前でデプロイされていることを確認してください。正しくない場合、プロンプトツールでそれを使ってリクエストすることができません。
OAuthクライアント: 使用するOAuthクライアントを選択します。次に、[認証]を選択して検証します。OAuthクライアントを作成するには、以下の手順を実行してください。
注記
OAuthクライアントを作成して共有できるのは、ワークスペース管理者のみです。権限がない場合は、ワークスペース管理者にお問い合わせください。
プロファイルメニューから、[ワークスペース管理者] > [OAuthクライアント]に移動します。
[新規]を選択します。
OAuthクライアントの詳細を入力します。
名前: 分かりやすい名前を入力します。
テクノロジー:
Azureを選択します。付与タイプ: [クライアントの資格情報]を選択します。
クライアントID: 設定については、ITチームにお問い合わせください。このセットアップガイドを参照用に提供してください。
クライアントシークレット: 設定については、ITチームにお問い合わせください。このセットアップガイドを参照用に提供してください。
クライアントシークレットの有効期限: 将来の有効期限を選択します。
トークンURL:
https://login.microsoftonline.com/{tenant_id}/oauth2/v2.0/tokenと入力します。{tenant_id}をテナントIDに置き換えます。テナントIDを取得するには、ITチームにお問い合わせください。このセットアップガイドを参照用に提供してください。スコープ:
https://cognitiveservices.azure.com/.defaultと入力します。アクセストークンの有効期限: トークンの有効期間を秒単位で入力します。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
ベースURL: DatabricksのベースURL (例:
https://<workspace>.databricks.com/serving-endpoints)を入力します。APIキー: Databricksの個人のアクセストークンを入力します。これにより、Databricksの基盤モデルまたはデプロイされたカスタムモデルのいずれかにアクセスできます。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、Vertex Credential JSONのみ利用できます。
Vertex資格情報: サービスアカウントキーを含むJSONをコピーして貼り付けます。Google Cloudからサービスアカウントキーを作成する方法については、こちらをご覧ください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
モデルリスト: この接続で使用するモデルのリストを入力します。モデルはコンマで区切ります(たとえば、
meta-llama/Llama-Prompt-Guard-2-86M,meta-llama/Llama-3.3-70B-Instruct,katanemo/Arch-Router-1.5B)。各モデルについて、Hugging Face Inference Providerを使用してHugging Faceにデプロイされていること、テキスト生成がサポートされていること、アクセスできることを確認してください。現時点では、Hugging Face独自の推論プロバイダーを使用してデプロイされたモデルのみがサポートされています。注記
モデル名が正しいことを確認してください。名前が間違っている場合は、プロンプトツールでリクエストを行うことができません。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
APIキー: Hugging Faceユーザーアクセストークンを入力します。Hugging Faceアカウントからユーザーアクセストークンを作成する方法については、こちらを参照してください。
OpenAI API specification (OpenAI APIの仕様)に準拠したLLM APIに接続するには、OpenAI互換の接続を使用してください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
ベースURL: OpenAI互換プロバイダーまたはカスタムモデルのAPIエンドポイント(例:
https://your-custom-endpoint.com/v1)。APIキー: OpenAI互換プロバイダーまたはカスタムモデルのAPIキーを入力します。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
APIキー: Perplexity APIキーを入力します。PerplexityアカウントからAPIキーを作成する方法については、こちらを参照してください。