プロンプトを送信してモデル推論でレスポンスを生成する - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

プロンプトを送信してモデル推論でレスポンスを生成する

推論とは、モデルに提供された入力から出力を生成するプロセスを指します。基盤モデルは確率を使って単語を順番にコンストラクトします。入力が与えられると、モデルはその後に続く可能性のあるトークンのシーケンスを予測し、そのシーケンスを出力として返します。Amazon Bedrock では、選択した基盤モデルで推論を実行できます。推論を実行する場合は、次の入力を提供します。

Amazon Bedrock には、一連の基盤モデルが用意されていて、以下のモダリティの出力を生成するために使用できます。基盤モデルが対応しているモダリティについては、「Amazon Bedrock でサポートされている基盤モデル」を参照してください。

出力モダリティ 説明 ユースケースの例
[テキスト] テキスト入力を提供し、各種のテキストを生成する チャット、 question-and-answering、ブレインストーミング、要約、コード生成、テーブル作成、データフォーマット、書き換え
イメージ テキストまたは入力画像を提供し、画像を生成または変更する 画像生成、画像編集、画像バリエーション
埋め込み テキスト、画像、またはテキストと画像の両方を提供し、入力を表す数値のベクトルを生成する。出力ベクトルを他の埋め込みベクトルと比較して、セマンティック類似性 (テキストの場合) または視覚的類似性 (画像の場合) を決定できます。 テキストと画像の検索、クエリ、分類、レコメンデーション、パーソナライズ、ナレッジベースの作成

モデル推論は、次の方法で直接実行できます。

  • では AWS Management Console、Amazon Bedrock プレイグラウンドのいずれかを使用して、わかりやすいグラフィカルインターフェイスで推論を実行します。

  • Converse または ConverseStreamAPIを使用して、会話型アプリケーションを実装します。

  • InvokeModel または InvokeModelWithResponseStreamAPIを使用して、単一のプロンプトを送信します。

  • 必要な設定でプロンプトのデータセットを用意し、CreateModelInvocationJob リクエストでバッチ推論を実行します。

次の Amazon Bedrock の機能も、より大きなワークフローの一部としてモデル推論を使用します。

  • モデル評価では、モデル呼び出しプロセスを使用して、CreateEvaluationJobリクエストを送信した後のさまざまなモデルのパフォーマンスを評価します。

  • ナレッジベースは、 を使用するときにモデル呼び出しを使用します。 RetrieveAndGenerate API は、ナレッジベースから取得した結果に基づいてレスポンスを生成します。

  • エージェントはモデル呼び出しを使用して、 中にさまざまな段階でレスポンスを生成します。 InvokeAgent リクエスト。

  • フローには、モデル呼び出しを使用するプロンプト、ナレッジベース、エージェントなどの Amazon Bedrock リソースが含まれます。

プロンプトと推論パラメータが異なるさまざまな基盤モデルをテストした後、アプリケーションが希望の仕様APIsでこれらを呼び出すように設定できます。