翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
さまざまなモデル推論方法のユースケースについて説明します。
モデル推論は、次の方法で直接実行できます。
| メソッド | ユースケース |
|---|---|
| Amazon Bedrock コンソールのプレイグラウンド | わかりやすいグラフィカルインターフェイスで推論を実行します。探索に便利です。 |
| Converse または ConverseStream | モデル入力用の統合 API を使用して会話アプリケーションを実装します。 |
| InvokeModel または InvokeModelWithResponseStream | 単一のプロンプトを送信し、レスポンスを同期的に生成します。レスポンスをリアルタイムで生成したり、検索クエリに便利です。 |
| StartAsyncInvoke | 単一のプロンプトを送信し、非同期でレスポンスを生成します。レスポンスを大規模に生成するのに役立ちます。 |
| CreateModelInvocationJob | プロンプトのデータセットを準備し、レスポンスをバッチで生成します。 |
次の Amazon Bedrock の機能も、より大きなワークフローの一部としてモデル推論を使用します。
-
モデル評価では、CreateEvaluationJob リクエストを送信した後、モデル呼び出しプロセスを使用して異なるモデルのパフォーマンスを評価します。
-
ナレッジベースは、RetrieveAndGenerate API を使用してナレッジベースから得た検索結果に基づいてレスポンスを生成するときに、モデル呼び出しを使用します。
-
エージェントは、InvokeAgent リクエストの処理中のさまざまな段階で、モデル呼び出しを使用してレスポンスを生成します。
-
フローには、モデル呼び出しを使用するプロンプト、ナレッジベース、エージェントなどの Amazon Bedrock リソースが含まれます。
異なるプロンプトや推論パラメータでさまざまな基盤モデルをテストした後、必要な仕様でこれらの API を呼び出すようにアプリケーションを設定できます。