LLM接続の作成
生成AIツールで大規模言語モデル(LLM)を使用するには、使用するLLMにAlteryx Oneを接続する必要があります。次の手順に従ってください。
Alteryx Oneアカウントから[接続]ページに移動します。
[新しい接続]を選択します。接続の作成に関する詳細については、接続ウィンドウの作成を参照してください。
検索バーを使用してLLMを検索するか、LLMを選択してリストを絞り込み、使用可能なLLM接続のみを表示します。
任意のLLMを選択し、設定の詳細を入力します。
接続を作成すると、DesignerでLLM上書き設定ツールとプロンプトツールを使用して、LLMを使用できるようになります。他のユーザー向けにLLM接続を作成した場合は、[接続]ページから接続を共有してください。
重要
各LLM接続には、LLM自体で必要なセットアップと、Alteryx Oneでの設定の両方で、それぞれ異なる設定要件があります。
詳細については、以下のLLM別の設定に関する詳細を確認してください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
AWSリージョン名: AWSアカウントのリージョン(たとえば、米国西部など)を入力します。
資格情報タイプ: 現時点では、AWSアクセスキーのみ利用できます。接続するアカウントのAWSアクセスキーIDとAWSシークレットアクセスキーを入力します。詳細については、AWS IAMのドキュメンテーションを参照してください。IAMロールを作成し、対応するアクセスキーを使用することをお勧めします。
広い権限を得るには、IAMロールに
AmazonBedrockFullAccessを追加します。最小限の権限を得るには、IAMロールに次の権限を追加します。
bedrock:InvokeModelbedrock:InvokeModelWithResponseStreambedrock:ListFoundationModelsbedrock:GetFoundationModel
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
APIキー: Anthropic APIキーを入力します。Anthropic ConsoleからAPIキーを取得してください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、Azure AAC資格情報のみ利用できます。コンテンツ呼び出しを生成する前に、まずモデルをデプロイする必要があります。最初に、Azure OpenAIモデルを作成してデプロイする方法をご確認ください。
APIキー: Azure OpenAI APIキーを入力します。まずは、Azure OpenAI APIで使用するモデルをAzure API管理ガイドに従って設定する必要があります。
APIベース: AzureベースURL (例:
https://<account_name>.openai.azure.com)を入力します。APIバージョン: Azure APIのバージョンを入力します。(たとえば、
2024-10-21など)。クライアントID: このパラメーターの作成にヘルプが必要な場合は、My Alteryxアカウントからサポートケースを送信してください。このセットアップガイドを参照用にケースに追加してください: Microsoft Entraアプリを登録し、サービスプリンシパルを作成する- Microsoft IDプラットフォーム
クライアントシークレット: このパラメーターの作成にヘルプが必要な場合は、My Alteryxアカウントからサポートケースを送信してください。このセットアップガイドを参照用にケースに追加してください: Microsoft Entraアプリを登録し、サービスプリンシパルを作成する- Microsoft IDプラットフォーム
テナントID: このパラメーターの作成にヘルプが必要な場合は、My Alteryxアカウントからサポートケースを送信してください。このセットアップガイドを参照用にケースに追加してください: Microsoft Entraアプリを登録し、サービスプリンシパルを作成する- Microsoft IDプラットフォーム
サブスクリプションID: AzureサブスクリプションIDを入力します。これは、[リソースグループ] > [該当するリソースグループ] > [サブスクリプション] > [該当するサブスクリプション] > [サブスクリプションID]で確認できます。 または、AI Foundryにアクセスして、アカウント名、Foundryポータルの順に選択しても、情報を見つけることができます。
Resource Group Name: Azureリソースグループ名を入力します。これは、[リソースグループ] > [該当のリソースグループ]で確認できます。または、AI Foundryにアクセスして、アカウント名、Foundryポータルの順に選択しても、情報を見つけることができます。
アカウント名: Azureアカウント名を入力します。これはAI Foundryページで確認できます。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
ベースURL: DatabricksのベースURL (例:
https://<workspace>.databricks.com/serving-endpoints)を入力します。APIキー: Databricksの個人のアクセストークンを入力します。これにより、Databricksの基盤モデルまたはデプロイされたカスタムモデルのいずれかにアクセスできます。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、Vertex Credential JSONのみ利用できます。
Vertex資格情報: サービスアカウントキーを含むJSONをコピーして貼り付けます。Google Cloudからサービスアカウントキーを作成する方法については、こちらをご覧ください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
Model List: Provide a comma-separated list of the model names that should be accessible via this connection. The expected format for each model name is:
provider\model-name. Alteryx performs checks to ensure that models support text generation and chat, and that they're available via an inference provider on Hugging Face. Listed models that meet both these criteria are shown.
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
APIキー: Hugging Faceユーザーアクセストークンを入力します。Hugging Faceアカウントからユーザーアクセストークンを作成する方法については、こちらを参照してください。
OpenAI API specification (OpenAI APIの仕様)に準拠したLLM APIに接続するには、OpenAI互換の接続を使用してください。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
ベースURL: OpenAI互換プロバイダーまたはカスタムモデルのAPIエンドポイント(例:
https://your-custom-endpoint.com/v1)。APIキー: OpenAI互換プロバイダーまたはカスタムモデルのAPIキーを入力します。
接続情報
接続名: 分かりやすい接続名を入力します。これは、後にこの接続を使用するときにユーザーが参照します。
接続の説明(オプション): 接続の説明を入力します。
資格情報
資格情報タイプ: 現時点では、APIキーのみ利用できます。
APIキー: Perplexity APIキーを入力します。PerplexityアカウントからAPIキーを作成する方法については、こちらを参照してください。