

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Envío de solicitudes y generación de respuestas con inferencia de modelos
<a name="inference"></a>

La inferencia se refiere al proceso de generar una salida a partir de una entrada proporcionada a un modelo.

Amazon Bedrock ofrece un conjunto de modelos fundacionales que puede utilizar para generar resultados de las siguientes modalidades. Para ver la compatibilidad de modalidades por modelo fundacional, consulte [Modelos fundacionales compatibles en Amazon Bedrock](models-supported.md).


****  

| Modalidad de salida | Description (Descripción) | Ejemplos de casos de uso | 
| --- | --- | --- | 
| Texto | Proporcionar entrada de texto y generar varios tipos de texto | Chat, lluvia de ideas question-and-answering, resumen, generación de código, creación de tablas, formateo de datos, reescritura | 
| Image | Proporcionar texto o imágenes de entrada y generar o modificar imágenes | Generación de imágenes, edición de imágenes, variación de imágenes | 
| Video | Proporcionar texto o imágenes de referencia y generar un vídeo | Generación de vídeo, conversión de imágenes a vídeo | 
| Incrustaciones | Proporcionar texto, imágenes o texto e imágenes y generar un vector de valores numéricos que represente la entrada. El vector de salida se puede comparar con otros vectores de incrustaciones para determinar la similitud semántica (para el texto) o la similitud visual (para las imágenes). | Búsqueda de texto e imágenes, consulta, categorización, recomendaciones, personalización, [creación de bases de conocimientos](knowledge-base.md) | 

**Topics**
+ [Obtenga información sobre los casos de uso de diferentes métodos de inferencia de modelos](inference-methods.md)
+ [Cómo funciona la inferencia en Amazon Bedrock](inference-how.md)
+ [Influencia sobre la generación de respuestas con parámetros de inferencia](inference-parameters.md)
+ [Regiones y modelos compatibles con la ejecución de inferencia de modelos](inference-supported.md)
+ [Requisitos previos para ejecutar la inferencia de modelos](inference-prereq.md)
+ [Generación de respuestas en la consola mediante áreas de juego](playgrounds.md)
+ [Mejora de las respuestas de los modelos con el razonamiento de modelos](inference-reasoning.md)
+ [Optimización de la inferencia del modelo para la latencia](latency-optimized-inference.md)
+ [Genere respuestas utilizando OpenAI APIs](bedrock-mantle.md)
+ [Envío de solicitudes y generación de respuestas mediante la API](inference-api.md)
+ [Obtenga resultados JSON validados de los modelos](structured-output.md)
+ [Uso de la característica Uso de computadora para completar una respuesta del modelo de Amazon Bedrock](computer-use.md)