さまざまなモデル推論方法のユースケースについて説明します。 - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

さまざまなモデル推論方法のユースケースについて説明します。

モデル推論は、次の方法で直接実行できます。

メソッド ユースケース
Amazon Bedrock コンソールのプレイグラウンド わかりやすいグラフィカルインターフェイスで推論を実行します。探索に便利です。
Converse または ConverseStream モデル入力用の統合 API を使用して会話アプリケーションを実装します。
InvokeModel または InvokeModelWithResponseStream 単一のプロンプトを送信し、レスポンスを同期的に生成します。レスポンスをリアルタイムで生成したり、検索クエリに便利です。
StartAsyncInvoke 単一のプロンプトを送信し、非同期でレスポンスを生成します。レスポンスを大規模に生成するのに役立ちます。
CreateModelInvocationJob プロンプトのデータセットを準備し、レスポンスをバッチで生成します。

次の Amazon Bedrock の機能も、より大きなワークフローの一部としてモデル推論を使用します。

  • モデル評価では、CreateEvaluationJob リクエストを送信した後、モデル呼び出しプロセスを使用して異なるモデルのパフォーマンスを評価します。

  • ナレッジベースは、RetrieveAndGenerate API を使用してナレッジベースから得た検索結果に基づいてレスポンスを生成するときに、モデル呼び出しを使用します。

  • エージェントは、InvokeAgent リクエストの処理中のさまざまな段階で、モデル呼び出しを使用してレスポンスを生成します。

  • フローには、モデル呼び出しを使用するプロンプト、ナレッジベース、エージェントなどの Amazon Bedrock リソースが含まれます。

異なるプロンプトや推論パラメータでさまざまな基盤モデルをテストした後、必要な仕様でこれらの API を呼び出すようにアプリケーションを設定できます。