Configurar prompts avançados - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Configurar prompts avançados

Você pode configurar prompts avançados no AWS Management Console ou por meio doAPI.

Console

No console, é possível configurar prompts avançados após a criação do agente. Configure-os ao editar o agente.

Como visualizar ou editar prompts avançados para o agente
  1. Faça login no AWS Management Console usando uma IAMfunção com as permissões do Amazon Bedrock e abra o console do Amazon Bedrock em. https://console.aws.amazon.com/bedrock/

  2. No painel de navegação à esquerda, escolha Agentes. Escolha um agente na seção Agentes.

  3. Na página de detalhes do agente, na seção Rascunho de trabalho, selecione Rascunho de trabalho.

  4. Na página Rascunho de trabalho, na seção Estratégia de orquestração, escolha Editar.

  5. Na página Estratégia de orquestração, na seção Detalhes da estratégia de orquestração, verifique se a Orquestração padrão está selecionada e escolha a guia correspondente à etapa da sequência do agente que você deseja editar.

  6. Para habilitar a edição do modelo, ative Substituir padrões do modelo. Na caixa de diálogo Substituir padrões do modelo, escolha Confirmar.

    Atenção

    Se você desativar a opção Substituir padrões do modelo ou alterar o modelo, o modelo padrão do Amazon Bedrock será usado e o seu modelo será excluído imediatamente. Para confirmar, insira confirm na caixa de texto a fim de confirmar a mensagem que é exibida.

  7. Para permitir que o agente use o modelo ao gerar respostas, ative Ativar modelo. Se essa configuração estiver desativada, o agente não a usará.

  8. Para modificar o exemplo do modelo de prompt, use o Editor de modelos de prompt.

  9. Em Configurações, é possível modificar os parâmetros de inferência do prompt. Para obter definições dos parâmetros e mais informações sobre os parâmetros para modelos diferentes, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos de base.

  10. (Opcional) Para usar uma função do Lambda que você definiu para analisar a saída bruta do modelo de base, execute as ações a seguir.

    nota

    Uma função do Lambda é usada para todos os modelos de prompt.

    1. Na seção Configurações, selecione Usar função do Lambda para análise. Se você limpar essa configuração, o agente usará o analisador padrão para o prompt.

    2. Em Função do Lambda analisadora, selecione uma função do Lambda no menu suspenso.

      nota

      Você deve anexar permissões para que o agente possa acessar a função do Lambda. Para obter mais informações, consulte Política baseada em recurso para permitir que o Amazon Bedrock invoque uma função do Lambda do grupo de ação.

  11. Para salvar as configurações, escolha uma das seguintes opções:

    1. Para permanecer na mesma janela e poder atualizar dinamicamente as configurações do prompt enquanto testa o agente atualizado, escolha Salvar.

    2. Para salvar as configurações e retornar à página Rascunho de trabalho, escolha Salvar e sair.

  12. Para testar as configurações atualizadas, escolha Preparar na janela Teste.

Configurar prompts avançados no console.
API

Para configurar prompts avançados usando as API operações, você envia uma UpdateAgentchamada e modifica o promptOverrideConfiguration objeto a seguir.

"promptOverrideConfiguration": { "overrideLambda": "string", "promptConfigurations": [ { "basePromptTemplate": "string", "inferenceConfiguration": { "maximumLength": int, "stopSequences": [ "string" ], "temperature": float, "topK": float, "topP": float }, "parserMode": "DEFAULT | OVERRIDDEN", "promptCreationMode": "DEFAULT | OVERRIDDEN", "promptState": "ENABLED | DISABLED", "promptType": "PRE_PROCESSING | ORCHESTRATION | KNOWLEDGE_BASE_RESPONSE_GENERATION | POST_PROCESSING | MEMORY_SUMMARIZATION" } ], promptCachingState: { cachingState: "ENABLED | DISABLED" } }
  1. Na lista promptConfigurations, inclua um objeto promptConfiguration para cada modelo de prompt que deseja editar.

  2. Especifique o prompt a ser modificado no campo promptType.

  3. Modifique o modelo de prompt por meio das seguintes etapas:

    1. Especifique os campos basePromptTemplate com o modelo de prompt.

    2. Inclua parâmetros de inferência nos objetos inferenceConfiguration. Para obter mais informações sobre as configurações de inferência, consulte Parâmetros de solicitação de inferência e campos de resposta para modelos de base.

  4. Para habilitar o modelo de prompt, defina promptCreationMode como OVERRIDDEN.

  5. Para permitir ou impedir que o agente execute a etapa no campo promptType, modifique o valor de promptState. Essa configuração pode ser útil para solucionar o comportamento do agente.

    • Se você definir promptState como DISABLED para as etapas PRE_PROCESSING, KNOWLEDGE_BASE_RESPONSE_GENERATION ou POST_PROCESSING, o agente ignorará essa etapa.

    • Se você definir promptState como DISABLED para a etapa ORCHESTRATION, o agente enviará somente a entrada do usuário ao modelo de base em orquestração. Além disso, o agente retorna a resposta no estado em que se encontra, sem orquestrar chamadas entre API operações e bases de conhecimento.

    • Por padrão, a etapa POST_PROCESSING está DISABLED. Por padrão, as etapas PRE_PROCESSING, ORCHESTRATION e KNOWLEDGE_BASE_RESPONSE_GENERATION estão ENABLED.

    • Por padrão, a MEMORY_SUMMARIZATION etapa é ENABLED se a memória estiver ativada e a MEMORY_SUMMARIZATION etapa é DISABLED se a memória estiver desativada.

  6. Para usar uma função do Lambda que definiu para analisar a saída bruta do modelo de base, execute as etapas a seguir.

    1. Para cada modelo de prompt para o qual deseja habilitar a função do Lambda, defina parserMode como OVERRIDDEN.

    2. Especifique o Amazon Resource Name (ARN) da função Lambda no overrideLambda campo do objeto. promptOverrideConfiguration

  7. (Opcional) Para ativar o cache imediato para reduzir a latência quando você tem entradas com contexto longo e repetido, defina o cachingState campo como. ENABLED Para obter mais informações sobre o cache de prompts, consulteCache imediato para inferência mais rápida do modelo.

    nota

    No momento, o cache de prompts do Amazon Bedrock está disponível apenas para um número selecionado de clientes. Para saber mais sobre como participar da prévia, consulte Cache de prompts do Amazon Bedrock.