

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Envie prompts e gere respostas com a inferência de modelo
<a name="inference"></a>

Inferência se refere ao processo de gerar uma saída com base em uma entrada fornecida a um modelo.

O Amazon Bedrock oferece um conjunto de modelos de base que é possível usar para gerar resultados das modalidades a seguir. Para obter a compatibilidade com a modalidade por modelo de base, consulte [Modelos de base compatíveis no Amazon Bedrock](models-supported.md).


****  

| Modalidade de saída | Description | Exemplo de casos de uso | 
| --- | --- | --- | 
| Texto | Fornecer entrada de texto e gerar vários tipos de texto | Bate-papo question-and-answering, brainstorming, resumo, geração de código, criação de tabelas, formatação de dados, reescrita | 
| Imagem | Fornecer texto ou imagens de entrada e gerar ou modificar imagens | Geração de imagens, edição de imagens, variação de imagens | 
| Vídeo | Fornecer textos ou imagens de referência e gerar um vídeo | Geração de vídeo, conversão de imagem em vídeo | 
| Incorporações | Forneça texto, imagens ou texto e imagens e gere um vetor de valores numéricos que representem a entrada. O vetor de saída pode ser comparado a outros vetores de incorporação para determinar a similaridade semântica (para texto) ou visual (para imagens). | Pesquisa de texto e imagem, consulta, categorização, recomendações, personalização, [criação de base de conhecimento](knowledge-base.md) | 

**Topics**
+ [Saiba mais sobre os casos de uso para diferentes métodos de inferência do modelo.](inference-methods.md)
+ [Como a inferência funciona no Amazon Bedrock](inference-how.md)
+ [Geração de resposta de influência com parâmetros de inferência](inference-parameters.md)
+ [Regiões e modelos compatíveis com execução de inferência do modelo](inference-supported.md)
+ [Pré-requisitos para executar a inferência do modelo](inference-prereq.md)
+ [Gerar respostas no console usando playgrounds](playgrounds.md)
+ [Melhorar as respostas do modelo com o raciocínio de modelo](inference-reasoning.md)
+ [Otimizar a inferência do modelo para latência](latency-optimized-inference.md)
+ [Gere respostas usando OpenAI APIs](bedrock-mantle.md)
+ [Enviar prompts e gerar respostas usando a API](inference-api.md)
+ [Obtenha resultados JSON validados de modelos](structured-output.md)
+ [Use uma ferramenta Computer Use para concluir uma resposta do modelo do Amazon Bedrock](computer-use.md)