Mistral AI modelli - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Mistral AI modelli

Questa sezione descrive i parametri di richiesta e i campi di risposta per Mistral AI modelli. Usa queste informazioni per effettuare chiamate di inferenza a Mistral AI modelli con operazioni InvokeModeland InvokeModelWithResponseStream(streaming). Questa sezione include anche Python esempi di codice che mostrano come chiamare Mistral AI modelli. Per utilizzare un modello in un'operazione di inferenza, è necessario l'ID del modello. Per ottenere l'ID del modello, consultaModelli di fondazione supportati in Amazon Bedrock. Alcuni modelli funzionano anche con Converse API. Per verificare se Converse L'API supporta uno specifico Mistral AI modello, vediModelli e caratteristiche del modello supportati. Per altri esempi di codice, vediEsempi di codice per l'utilizzo di Amazon Bedrock AWS SDKs.

I modelli Foundation di Amazon Bedrock supportano modalità di input e output, che variano da modello a modello. Per verificare le modalità Mistral AI supporto per i modelli, vediModelli di fondazione supportati in Amazon Bedrock. Per verificare quali Amazon Bedrock include Mistral AI modelli supportati, vediModelli di fondazione supportati in Amazon Bedrock. Per verificare quali AWS regioni Mistral AI i modelli sono disponibili in, vediModelli di fondazione supportati in Amazon Bedrock.

Quando si effettuano chiamate di inferenza con Mistral AI modelli, si include una richiesta per il modello. Per informazioni generali sulla creazione di prompt per i modelli supportati da Amazon Bedrock, consulta. Concetti ingegneristici rapidi In Mistral AI informazioni specifiche sui prompt, consulta Mistral AI guida tecnica tempestiva.