Configurar prompts avançados - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Configurar prompts avançados

Você pode configurar prompts avançados no AWS Management Console ou por meio doAPI.

Console

No console, você pode configurar prompts avançados depois de criar o agente. Configure-os ao editar o agente.

Como visualizar ou editar prompts avançados para o agente
  1. Faça login no AWS Management Console usando uma IAMfunção com as permissões do Amazon Bedrock e abra o console do Amazon Bedrock em. https://console.aws.amazon.com/bedrock/

  2. No painel de navegação à esquerda, escolha Agentes. Em seguida, escolha um agente na seção Agentes.

  3. Na página de detalhes do agente, na seção Rascunho de trabalho, selecione Rascunho de trabalho.

  4. Na página Rascunho de trabalho, na seção Solicitações avançadas, escolha Editar.

  5. Na página Editar solicitações avançadas, escolha a guia correspondente à etapa da sequência do agente que você deseja editar.

  6. Para ativar a edição do modelo, ative Substituir padrões do modelo. Na caixa de diálogo Substituir padrões do modelo, escolha Confirmar.

    Atenção

    Se você desativar a opção Substituir padrões do modelo ou alterar o modelo, o modelo padrão do Amazon Bedrock será usado e seu modelo será imediatamente excluído. Para confirmar, insira confirm na caixa de texto a fim de confirmar a mensagem que é exibida.

  7. Para permitir que o agente use o modelo ao gerar respostas, ative Ativar modelo. Se essa configuração estiver desativada, o agente não usará o modelo.

  8. Para modificar o modelo de prompt de exemplo, use o editor de modelos de prompt.

  9. Em Configurações, você pode modificar os parâmetros de inferência para o prompt. Para obter definições dos parâmetros e mais informações sobre os parâmetros para diversos modelos, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos básicos.

  10. (Opcional) Para usar uma função Lambda que você definiu para analisar a saída bruta do modelo básico, execute as seguintes ações:

    nota

    Uma função do Lambda é usada para todos os modelos de prompt.

    1. Na seção Configurações, selecione Usar a função Lambda para análise. Se você limpar essa configuração, seu agente usará o analisador padrão para o prompt.

    2. Para a função Parser Lambda, selecione uma função Lambda no menu suspenso.

      nota

      Você deve anexar permissões ao seu agente para que ele possa acessar a função Lambda. Para obter mais informações, consulte Política baseada em recursos para permitir que o Amazon Bedrock invoque uma função Lambda do grupo de ação.

  11. Para salvar suas configurações, escolha uma das seguintes opções:

    1. Para permanecer na mesma janela para que você possa atualizar dinamicamente as configurações do prompt enquanto testa seu agente atualizado, escolha Salvar.

    2. Para salvar suas configurações e retornar à página Rascunho de trabalho, escolha Salvar e sair.

  12. Para testar as configurações atualizadas, escolha Preparar na janela Teste.

Configurando prompts avançados no console.
API

Para configurar prompts avançados usando as API operações, você envia uma UpdateAgentchamada e modifica o promptOverrideConfiguration objeto a seguir.

"promptOverrideConfiguration": { "overrideLambda": "string", "promptConfigurations": [ { "basePromptTemplate": "string", "inferenceConfiguration": { "maximumLength": int, "stopSequences": [ "string" ], "temperature": float, "topK": float, "topP": float }, "parserMode": "DEFAULT | OVERRIDDEN", "promptCreationMode": "DEFAULT | OVERRIDDEN", "promptState": "ENABLED | DISABLED", "promptType": "PRE_PROCESSING | ORCHESTRATION | KNOWLEDGE_BASE_RESPONSE_GENERATION | POST_PROCESSING" } ] }
  1. Na lista promptConfigurations, inclua um objeto promptConfiguration para cada modelo de prompt que você deseja editar.

  2. Especifique o prompt a ser modificado no campo promptType.

  3. Modifique o modelo de prompt por meio das seguintes etapas:

    1. Especifique os campos basePromptTemplate com o modelo de prompt.

    2. Inclua parâmetros de inferência nos objetos inferenceConfiguration. Para obter mais informações sobre as configurações de inferência, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos básicos.

  4. Para habilitar o modelo de prompt, promptCreationMode defina OVERRIDDEN o.

  5. Para permitir ou impedir que o agente execute a etapa no promptType campo, modifique o promptState valor. Essa configuração pode ser útil para solucionar o comportamento do agente.

    • Se você promptState definir DISABLED as POST_PROCESSING etapasPRE_PROCESSING, ouKNOWLEDGE_BASE_RESPONSE_GENERATION, o agente pulará essa etapa.

    • Se você definir promptState DISABLED para a ORCHESTRATION etapa, o agente enviará somente a entrada do usuário para o modelo básico na orquestração. Além disso, o agente retorna a resposta no estado em que se encontra, sem orquestrar chamadas entre API operações e bases de conhecimento.

    • Por padrão, a POST_PROCESSING etapa éDISABLED. Por padrão, as KNOWLEDGE_BASE_RESPONSE_GENERATION etapas PRE_PROCESSINGORCHESTRATION, e sãoENABLED.

  6. Para usar uma função Lambda que você definiu para analisar a saída bruta do modelo básico, execute as seguintes etapas:

    1. Para cada modelo de prompt para o qual você deseja habilitar a função Lambda, parserMode defina como. OVERRIDDEN

    2. Especifique o Amazon Resource Name (ARN) da função Lambda no overrideLambda campo do objeto. promptOverrideConfiguration