Mistral AI modelos - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Mistral AI modelos

En esta sección se describen los parámetros de solicitud y los campos de respuesta para Mistral AI modelos. Utilice esta información para realizar llamadas de inferencia a Mistral AI modelos con las operaciones InvokeModely InvokeModelWithResponseStream(transmisión). Esta sección también incluye Python ejemplos de código que muestran cómo llamar Mistral AI modelos. Para usar un modelo en una operación de inferencia, necesita el ID del modelo. Para obtener el ID del modelo, consulteModelo Amazon Bedrock IDs. Algunos modelos también funcionan con las Converse. API Para comprobar si la Converse es API compatible con un dispositivo específico Mistral AI modelo, consulteModelos compatibles y características del modelo. Para ver más ejemplos de código, consulteEjemplos de código para Amazon Bedrock mediante AWS SDKs.

Los modelos básicos de Amazon Bedrock admiten modalidades de entrada y salida, que varían de un modelo a otro. Para comprobar las modalidades que Mistral AI modelos compatibles, consulteModelos fundacionales compatibles en Amazon Bedrock. Para comprobar qué Amazon Bedrock incluye Mistral AI modelos compatibles, consulteSoporte de modelos por función. Para comprobar qué AWS regiones Mistral AI los modelos están disponibles enSoporte de modelos por AWS región.

Cuando realiza llamadas de inferencia con Mistral AI modelos, se incluye una solicitud para el modelo. Para obtener información general sobre la creación de mensajes para los modelos compatibles con Amazon Bedrock, consulte. Conceptos de ingeniería rápidos En Mistral AI para obtener información específica sobre las solicitudes, consulte la Mistral AI guía de ingeniería rápida.