

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Parâmetros de solicitação de inferência e campos de resposta para modelos de base
<a name="model-parameters"></a>

Os tópicos desta seção descrevem os campos de parâmetro de solicitação e de resposta dos modelos que o Amazon Bedrock fornece. Ao fazer chamadas de inferência para modelos com as operações de API de invocação de modelo ([InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html), [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html), [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) e [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)), inclua os parâmetros de solicitação de acordo com o modelo que você está usando.

Se tiver criado um [modelo personalizado](custom-models.md), use os mesmos parâmetros de inferência do modelo de base do qual ele foi personalizado.

Se você estiver [importando um modelo personalizado para o Amazon Bedrock](model-customization-import-model.md), use os mesmos parâmetros de inferência mencionados para o modelo personalizado que você está importando. Se você estiver usando parâmetros de inferência que não correspondem aos parâmetros de inferência mencionados para esse modelo nesta documentação, esses parâmetros serão ignorados.

Para visualizar os parâmetros de diferentes modelos, primeiro leia o capítulo [Envie prompts e gere respostas com a inferência de modelo](inference.md) para saber o que é inferência de modelo.

Consulte as seguintes páginas para ter mais informações sobre os diferentes modelos no Amazon Bedrock:
+ Para ver uma tabela de modelos e os respectivos IDs para usar com as operações de API de invocação de modelo, as regiões nas quais eles são oferecidos e os recursos gerais que eles permitem usar, consulte [Modelos de base compatíveis no Amazon Bedrock](models-supported.md).
+ Para ver uma tabela das regiões do Amazon Bedrock nas quais é possível usar cada modelo, consulte [Suporte de modelos Região da AWS no Amazon Bedrock](models-regions.md).
+ Para ver uma tabela dos recursos do Amazon Bedrock que cada modelo oferece, consulte [Suporte de modelo por recurso no Amazon Bedrock](models-features.md).
+ Para verificar se a API Converse (`Converse` e `ConverseStream`) pode ser usada em um modelo específico, consulte [Modelos compatíveis e recursos do modelo](conversation-inference-supported-models-features.md).
+ Ao fazer chamadas de inferência a um modelo, inclua um prompt no modelo. Para obter informações gerais sobre como criar prompts para os modelos compatíveis com o Amazon Bedrock, consulte [Conceitos de engenharia de prompts](prompt-engineering-guidelines.md).
+ Para obter exemplos de código, consulte [Exemplos de código para o Amazon Bedrock usando AWS SDKs](service_code_examples.md).

Selecione um tópico para saber mais sobre os modelos desse fornecedor e os respectivos parâmetros.

**Topics**
+ [Modelos da Amazon Nova](model-parameters-nova.md)
+ [Modelos do Amazon Titan](model-parameters-titan.md)
+ [Modelos Claude da Anthropic](model-parameters-claude.md)
+ [Modelos da AI21 Labs](model-parameters-ai21.md)
+ [Modelos da Cohere](model-parameters-cohere.md)
+ [Modelos da DeepSeek](model-parameters-deepseek.md)
+ [Modelos da Luma AI](model-parameters-luma.md)
+ [Modelos Llama da Meta](model-parameters-meta.md)
+ [Modelos da Mistral AI](model-parameters-mistral.md)
+ [Modelos da OpenAI](model-parameters-openai.md)
+ [Modelos da Stability AI](model-parameters-stability-diffusion.md)
+ [Modelos da TwelveLabs](model-parameters-twelvelabs.md)
+ [Modelos Palmyra da Writer AI](model-parameters-writer-palmyra.md)