As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Configurar prompts avançados
Você pode configurar prompts avançados no AWS Management Console ou por meio doAPI.
- Console
-
No console, você pode configurar prompts avançados depois de criar o agente. Configure-os ao editar o agente.
Como visualizar ou editar prompts avançados para o agente
-
Faça login no AWS Management Console usando uma IAMfunção com as permissões do Amazon Bedrock e abra o console do Amazon Bedrock em. https://console.aws.amazon.com/bedrock/
-
No painel de navegação à esquerda, escolha Agentes. Em seguida, escolha um agente na seção Agentes.
-
Na página de detalhes do agente, na seção Rascunho de trabalho, selecione Rascunho de trabalho.
-
Na página Rascunho de trabalho, na seção Solicitações avançadas, escolha Editar.
-
Na página Editar solicitações avançadas, escolha a guia correspondente à etapa da sequência do agente que você deseja editar.
-
Para ativar a edição do modelo, ative Substituir padrões do modelo. Na caixa de diálogo Substituir padrões do modelo, escolha Confirmar.
Atenção
Se você desativar a opção Substituir padrões do modelo ou alterar o modelo, o modelo padrão do Amazon Bedrock será usado e seu modelo será imediatamente excluído. Para confirmar, insira
confirm
na caixa de texto a fim de confirmar a mensagem que é exibida. -
Para permitir que o agente use o modelo ao gerar respostas, ative Ativar modelo. Se essa configuração estiver desativada, o agente não usará o modelo.
-
Para modificar o modelo de prompt de exemplo, use o editor de modelos de prompt.
-
Em Configurações, você pode modificar os parâmetros de inferência para o prompt. Para obter definições dos parâmetros e mais informações sobre os parâmetros para diversos modelos, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos básicos.
-
(Opcional) Para usar uma função Lambda que você definiu para analisar a saída bruta do modelo básico, execute as seguintes ações:
nota
Uma função do Lambda é usada para todos os modelos de prompt.
-
Na seção Configurações, selecione Usar a função Lambda para análise. Se você limpar essa configuração, seu agente usará o analisador padrão para o prompt.
-
Para a função Parser Lambda, selecione uma função Lambda no menu suspenso.
nota
Você deve anexar permissões ao seu agente para que ele possa acessar a função Lambda. Para obter mais informações, consulte Política baseada em recursos para permitir que o Amazon Bedrock invoque uma função Lambda do grupo de ação.
-
-
Para salvar suas configurações, escolha uma das seguintes opções:
-
Para permanecer na mesma janela para que você possa atualizar dinamicamente as configurações do prompt enquanto testa seu agente atualizado, escolha Salvar.
-
Para salvar suas configurações e retornar à página Rascunho de trabalho, escolha Salvar e sair.
-
-
Para testar as configurações atualizadas, escolha Preparar na janela Teste.
-
- API
-
Para configurar prompts avançados usando as API operações, você envia uma UpdateAgentchamada e modifica o
promptOverrideConfiguration
objeto a seguir."promptOverrideConfiguration": { "overrideLambda": "string", "promptConfigurations": [ { "basePromptTemplate": "string", "inferenceConfiguration": { "maximumLength": int, "stopSequences": [ "string" ], "temperature": float, "topK": float, "topP": float }, "parserMode": "DEFAULT | OVERRIDDEN", "promptCreationMode": "DEFAULT | OVERRIDDEN", "promptState": "ENABLED | DISABLED", "promptType": "PRE_PROCESSING | ORCHESTRATION | KNOWLEDGE_BASE_RESPONSE_GENERATION | POST_PROCESSING" } ] }
-
Na lista
promptConfigurations
, inclua um objetopromptConfiguration
para cada modelo de prompt que você deseja editar. -
Especifique o prompt a ser modificado no campo
promptType
. -
Modifique o modelo de prompt por meio das seguintes etapas:
-
Especifique os campos
basePromptTemplate
com o modelo de prompt. -
Inclua parâmetros de inferência nos objetos
inferenceConfiguration
. Para obter mais informações sobre as configurações de inferência, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos básicos.
-
-
Para habilitar o modelo de prompt,
promptCreationMode
definaOVERRIDDEN
o. -
Para permitir ou impedir que o agente execute a etapa no
promptType
campo, modifique opromptState
valor. Essa configuração pode ser útil para solucionar o comportamento do agente.-
Se você
promptState
definirDISABLED
asPOST_PROCESSING
etapasPRE_PROCESSING
, ouKNOWLEDGE_BASE_RESPONSE_GENERATION
, o agente pulará essa etapa. -
Se você definir
promptState
DISABLED
para aORCHESTRATION
etapa, o agente enviará somente a entrada do usuário para o modelo básico na orquestração. Além disso, o agente retorna a resposta no estado em que se encontra, sem orquestrar chamadas entre API operações e bases de conhecimento. -
Por padrão, a
POST_PROCESSING
etapa éDISABLED
. Por padrão, asKNOWLEDGE_BASE_RESPONSE_GENERATION
etapasPRE_PROCESSING
ORCHESTRATION
, e sãoENABLED
.
-
-
Para usar uma função Lambda que você definiu para analisar a saída bruta do modelo básico, execute as seguintes etapas:
-
Para cada modelo de prompt para o qual você deseja habilitar a função Lambda,
parserMode
defina como.OVERRIDDEN
-
Especifique o Amazon Resource Name (ARN) da função Lambda no
overrideLambda
campo do objeto.promptOverrideConfiguration
-
-