

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Envío de solicitudes y generación de respuestas mediante la API
<a name="inference-api"></a>

Amazon Bedrock ofrece las siguientes operaciones de API para realizar la inferencia de modelos:
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)— Envíe un mensaje y genere una respuesta. El cuerpo de la solicitud es específico del modelo. Para generar respuestas en streaming, utilice [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html).
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html): envíe una petición y genere respuestas con una estructura unificada en todos los modelos. Los campos de solicitud específicos del modelo se pueden especificar en el campo `additionalModelRequestFields`. También puede incluir peticiones del sistema y conversaciones anteriores para ofrecer contexto. Para generar respuestas de streaming, utilice [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html).
+ [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html)— Envíe un mensaje y genere una respuesta de forma asíncrona que se pueda recuperar más adelante. Se utiliza para generar vídeos.
+ [InvokeModelWithBidirectionalStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithBidirectionalStream.html) – 
+ API Chat Completions de OpenAI: utilice la [API Chat Completions de OpenAI](https://platform.openai.com/docs/api-reference/chat/create) con los modelos compatibles con Amazon Bedrock para generar una respuesta.

**nota**  
Se aplican restricciones a las siguientes operaciones:`InvokeModel`,`InvokeModelWithResponseStream`, `Converse` y. `ConverseStream` Consulte [las restricciones de la API](inference-api-restrictions.md) para obtener más información.

Para la inferencia del modelo, debe determinar los siguientes parámetros:
+ ID de modelo: el ID o nombre de recurso de Amazon (ARN) del modelo o perfil de inferencia que se va a utilizar en el campo `modelId` para la inferencia. En la siguiente tabla se describe cómo IDs buscar diferentes tipos de recursos:  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/bedrock/latest/userguide/inference-api.html)
+ Cuerpo de la solicitud: contiene los parámetros de inferencia de un modelo y otras configuraciones. Cada modelo base tiene sus propios parámetros de inferencia. Los parámetros de inferencia de un modelo personalizado o aprovisionado dependen del modelo base a partir del cual se creó. Para obtener más información, consulte [Parámetros de solicitud de inferencia y campos de respuesta para los modelos fundacionales](model-parameters.md).

Seleccione un tema para aprender a usar la invocación APIs modelo.

**Topics**
+ [Envíe un único mensaje con InvokeModel](inference-invoke.md)
+ [Invocación de un modelo con la API Chat Completions de OpenAI](inference-chat-completions.md)
+ [Cómo mantener una conversación con las operaciones de la API Converse](conversation-inference.md)
+ [Restricciones de API](inference-api-restrictions.md)