

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# プロンプトを送信し、モデル推論を使用してレスポンスを生成する
<a name="inference"></a>

推論とは、モデルに提供された入力から出力を生成するプロセスを指します。

Amazon Bedrock には、一連の基盤モデルが用意されていて、以下のモダリティの出力を生成するために使用できます。基盤モデルが対応しているモダリティについては、「[Amazon Bedrock でサポートされている基盤モデル](models-supported.md)」を参照してください。


****  

| 出力モダリティ | 説明 | ユースケースの例 | 
| --- | --- | --- | 
| テキスト | テキスト入力を提供し、各種のテキストを生成する | チャット、質疑応答、ブレインストーミング、要約、コード生成、表作成、データの書式設定、書き換え | 
| Image | テキストまたは入力画像を提供し、画像を生成または変更する | 画像生成、画像編集、画像バリエーション | 
| 動画 | テキストまたはリファレンスイメージを提供して動画を生成する | 動画生成、イメージの動画への変換 | 
| 埋め込み | テキスト、画像、またはテキストと画像の両方を提供し、入力を表す数値のベクトルを生成する。出力ベクトルを他の埋め込みベクトルと比較して、セマンティック類似性 (テキストの場合) または視覚的類似性 (画像の場合) を決定できます。 | テキストと画像の検索、クエリ、分類、レコメンデーション、パーソナライズ、[ナレッジベースの作成](knowledge-base.md) | 

**Topics**
+ [さまざまなモデル推論方法のユースケースについて学ぶ](inference-methods.md)
+ [Amazon Bedrock での推論の仕組み](inference-how.md)
+ [推論パラメータでレスポンスの生成に影響を与える](inference-parameters.md)
+ [モデル推論をサポートするリージョンとモデル](inference-supported.md)
+ [モデル推論を実行するための前提条件](inference-prereq.md)
+ [Generate responses in the console using playgrounds](playgrounds.md)
+ [モデル推論を使用してモデルのレスポンスを強化する](inference-reasoning.md)
+ [レイテンシーのモデル推論を最適化する](latency-optimized-inference.md)
+ [OpenAI APIsを使用してレスポンスを生成する](bedrock-mantle.md)
+ [API を使用してプロンプトを送信し、レスポンスを生成する](inference-api.md)
+ [モデルから検証済みの JSON 結果を取得する](structured-output.md)
+ [Computer Use ツールを使用して Amazon Bedrock モデルレスポンスを完了する](computer-use.md)