プロンプトを送信してモデル推論でレスポンスを生成する - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

プロンプトを送信してモデル推論でレスポンスを生成する

推論とは、モデルに提供された入力から出力を生成するプロセスを指します。

Amazon Bedrock には、一連の基盤モデルが用意されていて、以下のモダリティの出力を生成するために使用できます。基盤モデルが対応しているモダリティについては、「Amazon Bedrock でサポートされている基盤モデル」を参照してください。

出力モダリティ 説明 ユースケースの例
[テキスト] テキスト入力を提供し、各種のテキストを生成する チャット、質疑応答、ブレインストーミング、要約、コード生成、表作成、データの書式設定、書き換え
イメージ テキストまたは入力画像を提供し、画像を生成または変更する 画像生成、画像編集、画像バリエーション
埋め込み テキスト、画像、またはテキストと画像の両方を提供し、入力を表す数値のベクトルを生成する。出力ベクトルを他の埋め込みベクトルと比較して、セマンティック類似性 (テキストの場合) または視覚的類似性 (画像の場合) を決定できます。 テキストと画像の検索、クエリ、分類、レコメンデーション、パーソナライズ、ナレッジベースの作成

モデル推論は、次の方法で直接実行できます。

  • では AWS Management Console、Amazon Bedrock プレイグラウンドのいずれかを使用して、わかりやすいグラフィカルインターフェイスで推論を実行します。

  • Converse または ConverseStream API を使用して、会話アプリケーションを実装します。

  • InvokeModel または InvokeModelWithResponseStream API を使用して、単一のプロンプトを送信します。

  • 必要な設定を記述したプロンプトのデータセットを提供し、CreateModelInvocationJob リクエストでバッチ推論を実行します。

次の Amazon Bedrock の機能も、より大きなワークフローの一部としてモデル推論を使用します。

  • モデル評価では、CreateEvaluationJob リクエストを送信した後、モデル呼び出しプロセスを使用して異なるモデルのパフォーマンスを評価します。

  • ナレッジベースは、RetrieveAndGenerate API を使用してナレッジベースから得た検索結果に基づいてレスポンスを生成するときに、モデル呼び出しを使用します。

  • エージェントは、InvokeAgent リクエストの処理中のさまざまな段階で、モデル呼び出しを使用してレスポンスを生成します。

  • フローには、モデル呼び出しを使用するプロンプト、ナレッジベース、エージェントなどの Amazon Bedrock リソースが含まれます。

異なるプロンプトや推論パラメータでさまざまな基盤モデルをテストした後、必要な仕様でこれらの API を呼び出すようにアプリケーションを設定できます。