

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Enviar prompts e gerar respostas usando a API
<a name="inference-api"></a>

O Amazon Bedrock oferece as seguintes operações de API para realizar inferência do modelo:
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)— Envie uma solicitação e gere uma resposta. O corpo da solicitação é específico ao modelo. Para gerar respostas de streaming, use [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html).
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html): envie um prompt e gere respostas com uma estrutura unificada em todos os modelos. Os campos de solicitação específicos ao modelo podem ser indicados no campo `additionalModelRequestFields`. Também é possível incluir prompts do sistema e conversas anteriores para contextualizar. Para gerar respostas de streaming, use [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html).
+ [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html)— Envie uma solicitação e gere uma resposta de forma assíncrona que possa ser recuperada posteriormente. Usado para gerar vídeos.
+ [InvokeModelWithBidirectionalStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithBidirectionalStream.html) – 
+ API Chat Completions da OpenAI: use a [API Chat Completions da OpenAI](https://platform.openai.com/docs/api-reference/chat/create) com modelos compatíveis com o Amazon Bedrock para gerar uma resposta.

**nota**  
As restrições se aplicam às seguintes operações: `InvokeModel` `InvokeModelWithResponseStream``Converse`,, `ConverseStream` e. Consulte as [restrições da API](inference-api-restrictions.md) para obter detalhes.

Para inferência do modelo, determine os seguintes parâmetros:
+ ID do modelo: o ID ou nome do recurso da Amazon (ARN) do modelo ou do perfil de inferência a ser usado no campo `modelId` para inferência. A tabela a seguir descreve como encontrar IDs diferentes tipos de recursos:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/bedrock/latest/userguide/inference-api.html)
+ Corpo da solicitação: contém os parâmetros de inferência para um modelo e outras configurações. Cada modelo de base tem seus próprios de parâmetros de inferência. Os parâmetros de inferência para um modelo personalizado ou provisionado dependem do modelo de base do qual ele foi criado. Para obter mais informações, consulte [Parâmetros de solicitação de inferência e campos de resposta para modelos de base](model-parameters.md).

Selecione um tópico para aprender a usar a APIs invocação do modelo.

**Topics**
+ [Envie uma única solicitação com InvokeModel](inference-invoke.md)
+ [Invocar um modelo com a API Chat Completions da OpenAI](inference-chat-completions.md)
+ [Realizar uma conversa com as operações de API Converse](conversation-inference.md)
+ [Restrições de API](inference-api-restrictions.md)