Mistral AI modelos - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Mistral AI modelos

Esta seção descreve os parâmetros de solicitação e os campos de resposta para Mistral AI modelos. Use essas informações para fazer chamadas de inferência para Mistral AI modelos com as operações InvokeModele InvokeModelWithResponseStream(streaming). Esta seção também inclui Python exemplos de código que mostram como chamar Mistral AI modelos. Para usar um modelo em uma operação de inferência, você precisa do ID do modelo. Para obter o ID do modelo, consulteModelo Amazon Bedrock IDs. Alguns modelos também funcionam com o Converse. API Para verificar se o Converse API suporta um específico Mistral AI modelo, vejaModelos e recursos do modelo compatíveis. Para obter mais exemplos de código, consulteExemplos de código para o Amazon Bedrock usando AWS SDKs.

Os modelos Foundation no Amazon Bedrock oferecem suporte às modalidades de entrada e saída, que variam de modelo para modelo. Para verificar as modalidades que Mistral AI suporte de modelos, consulteModelos de base compatíveis com o Amazon Bedrock. Para verificar qual Amazon Bedrock apresenta o Mistral AI suporte de modelos, consulteSuporte de modelo por recurso. Para verificar quais AWS regiões que Mistral AI os modelos estão disponíveis em, consulteSuporte de modelo por AWS região.

Quando você faz chamadas de inferência com Mistral AI modelos, você inclui uma solicitação para o modelo. Para obter informações gerais sobre a criação de prompts para os modelos que o Amazon Bedrock suporta, consulte. Conceitos de engenharia rápidos Para Mistral AI informações imediatas específicas, consulte o Mistral AI guia de engenharia rápido.