Ferramenta Prompt
Função de usuário
Função de usuário* | Disponibilidade da ferramenta |
---|---|
Usuário completo (requer add-on) | ✓ |
Usuário básico | X |
*Aplica-se a clientes do Alteryx One Professional Edition e Enterprise Edition nas versões 2025.1 e posteriores do Designer.
Use a ferramenta Prompt para enviar prompts para um modelo de linguagem avançado (LLM) e, em seguida, receba a resposta do modelo como uma saída. Você também pode configurar os parâmetros do LLM para ajustar a saída do modelo.
Nota
As ferramentas de IA generativa estão atualmente em versão prévia pública. Saiba como participar da versão prévia pública e comece a usar fluxos de trabalho com a tecnologia de IA!
Componentes da ferramenta
A ferramenta Prompt tem três âncoras (duas de entrada e uma de saída):
Âncora de entrada M: (opcional) use a âncora de entrada M para conectar as configurações de conexão do modelo da ferramenta Substituição por LLM. Como alternativa, configure uma conexão nessa ferramenta.
Âncora de entrada D: (opcional) use a âncora de entrada D para conectar os dados de texto que você deseja adicionar ao seu prompt.
Âncora de saída: use a âncora de saída para passar a resposta do modelo para etapas posteriores.
Configurar a ferramenta
Conecte-se ao serviço de modelo de IA no Alteryx One
Se você não estiver usando a ferramenta Substituição por LLM para fornecer as configurações de conexão do modelo à ferramenta Prompt, será necessário configurar uma conexão com o serviço de modelo de IA no Alteryx One.
Para a primeira configuração da ferramenta Prompt, você deve adicionar seu espaço de trabalho do Alteryx One como uma fonte de dados…
Seleção e configuração do provedor e modelo de LLM
Use o menu suspenso Provedor de LLM para selecionar o provedor que você deseja usar no seu fluxo de trabalho. Se você conectou a ferramenta Substituição por LLM, essa opção estará desabilitada.
Em seguida, use o menu suspenso Selecionar modelo para selecionar um modelo disponível do seu provedor de LLM. Se você conectou a ferramenta Substituição por LLM e selecionou um modelo específico, essa opção estará desabilitada.
Use a seção Configuração do modelo para configurar os parâmetros do modelo:
Temperatura: controla a aleatoriedade da saída do modelo como um número entre 0 e 2. O valor padrão é 1.
Valores mais baixos fornecem respostas mais confiáveis e consistentes.
Valores mais altos fornecem respostas mais criativas e aleatórias, mas que também podem se tornar ilógicas.
TopP: controla quais tokens de saída o modelo amostra e varia de 0 a 1. O modelo seleciona entre os tokens mais ou menos prováveis até que a soma de suas probabilidades seja igual ao valor TopP. Por exemplo, se o valor TopP for 0.8 e você tiver 3 tokens com probabilidades de 0.5, 0.3 e 0.2, o modelo só selecionará entre os tokens com probabilidade de 0.5 e 0.3 (soma de 0.8). Valores mais baixos resultam em respostas mais consistentes, enquanto valores mais altos resultam em respostas mais aleatórias.
Máximo de tokens de saída: o número máximo de tokens que o LLM pode incluir em uma resposta. Cada token é cerca de 3/4 de uma palavra. Os tokens são unidades básicas de entrada e de saída em um LLM. São partes de texto que podem ser palavras, conjuntos de caracteres ou combinações de palavras e pontuação. Consulte seu provedor de LLM e um modelo específico para obter o máximo de tokens de saída disponíveis.
Configurações de prompt e resposta
Use a seção Configurações de prompt e resposta para compor o prompt e configurar as colunas de dados associadas ao prompt e à resposta.
Insira o nome da Coluna de resposta. Essa coluna contém a resposta do LLM ao seu prompt.
Insira o nome da Coluna de prompt que vai conter os dados do prompt disponíveis para as ferramentas em etapas posteriores. Você tem duas opções:
Escolha Selecionar existente e selecione uma coluna de um fluxo de dados de entrada (âncora de entrada D).
Escolha Criar novo para inserir um novo nome de coluna.
Insira seu prompt no campo de texto. Para selecionar uma coluna de dados de entrada, você pode…
Inserir um colchete de abertura (
[
) no campo de texto para abrir o menu de seleção de colunas. Você também pode digitar o nome da coluna entre colchetes ([]
).Selecione uma coluna para o menu suspenso Prompt.
Execute o fluxo de trabalho.
Prompt Builder
Use o Prompt Builder para testar rapidamente diferentes prompts e configurações de modelo. Em seguida, você pode comparar os resultados com o histórico de prompts. Para experimentar diferentes modelos e configurações de modelo, clique em Prompt Builder para abrir a janela "Prompt Builder".
Guia "Configuração"
Use a guia Configuração para inserir seus prompts e atualizar as configurações do modelo:
Use o menu suspenso Modelo para selecionar um modelo disponível no seu provedor de LLM.
Use a seção Configuração do modelo para configurar os parâmetros do modelo. Consulte a seção anterior para obter descrições de parâmetros.
Insira ou atualize seu prompt no campo de texto Modelo do prompt.
Insira o Número de registros a serem testados. Se você tiver um conjunto de dados grande, use essa configuração para limitar o número de registros testados com o prompt.
Clique em Executar prompt de teste para visualizar as Respostas de amostra para cada linha.
Se você gostar das respostas do novo prompt, clique em Salvar prompt na tela para atualizar a ferramenta Prompt com a nova configuração do prompt e do modelo.
Guia "Histórico de prompts"
Use a guia Histórico de prompts para visualizar seus prompts anteriores, parâmetros do modelo e uma resposta de amostra.
Para cada prompt anterior, você pode…
Salvar prompt na tela: atualiza a ferramenta Prompt com o prompt selecionado e os parâmetros do modelo associados.
Editar e executar prompt novamente: retorna à guia "Configuração" com o prompt selecionado e os parâmetros do modelo associados.
Atenção
Certifique-se de salvar o prompt antes de sair da janela "Prompt Builder". Você perderá seu histórico de prompts quando selecionar Cancelar.
Saída
A ferramenta gera duas colunas de dados de cadeia de caracteres (string).
"Coluna do prompt": contém o prompt.
"Coluna de resposta": contém a resposta do seu provedor e modelo de LLM.