Mistral AI モデル - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Mistral AI モデル

このセクションでは、Mistral AI モデルのリクエストパラメータとレスポンスフィールドについて説明します。この情報を使用して、InvokeModel および InvokeModelWithResponseStream (ストリーミング) オペレーションで Mistral AI モデルに推論呼び出しを実行します。このセクションでは、Mistral AI モデルを呼び出す方法を示す Python コード例も含まれています。推論オペレーションでモデルを使用するには、そのモデルのモデル ID が必要です。モデル ID を取得するには、「Amazon Bedrock でサポートされている基盤モデル」を参照してください。一部のモデルは Converse API でも動作します。Converse API が特定のMistral AIモデルをサポートしているかどうかを確認するには、「」を参照してくださいサポートされているモデルとモデルの機能。コード例については、「AWS SDKsコード例」を参照してください。

Amazon Bedrock の基盤モデルは、モデルごとに異なる入出力モダリティをサポートしています。Mistral AI モデルがサポートするモダリティを確認するには、「Amazon Bedrock でサポートされている基盤モデル」を参照してください。Mistral AI モデルがサポートする Amazon Bedrock 機能を確認するには、「Amazon Bedrock でサポートされている基盤モデル」を参照してください。Mistral AI モデルが利用可能な AWS リージョンを確認するには、「」を参照してくださいAmazon Bedrock でサポートされている基盤モデル

Mistral AI モデルで推論呼び出しを行う場合は、モデルのプロンプトを含めます。Amazon Bedrock がサポートするモデルのプロンプト作成に関する一般情報については、「 プロンプトエンジニアリングの概念」を参照してください。Mistral AI 特定のプロンプト情報については、「Mistral AI プロンプトエンジニアリングガイド」を参照してください。