

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# API を使用してプロンプトを送信し、レスポンスを生成する
<a name="inference-api"></a>

Amazon Bedrock には、モデル推論を実行するための followingAPI オペレーションが用意されています。
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) – プロンプトを送信し、レスポンスを生成します。リクエスト本文はモデル固有です。ストリーミングレスポンスを生成するには、[InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html) を使用します。
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) – プロンプトを送信し、すべてのモデルにわたって統合された構造でレスポンスを生成します。モデル固有のリクエストフィールドを `additionalModelRequestFields` フィールドで指定できます。コンテキストがわかるように、システムプロンプトと以前の会話を含めることもできます。ストリーミングレスポンスを生成するには、[ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html) を使用します。
+ [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html) – プロンプトを送信し、後で取得できるレスポンスを非同期的に生成します。動画の生成に使用されます。
+ [InvokeModelWithBidirectionalStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithBidirectionalStream.html) – 
+ OpenAI Chat completions API – Amazon Bedrock でサポートされているモデルで [OpenAI Chat Completions API](https://platform.openai.com/docs/api-reference/chat/create) を使用してレスポンスを生成します。

**注記**  
制限は、`InvokeModel`、、`InvokeModelWithResponseStream``Converse`、および のオペレーションに適用されます`ConverseStream`。詳細については、[「API の制限](inference-api-restrictions.md)」を参照してください。

モデル推論では、次のパラメータを決定する必要があります。
+ モデル ID – モデルまたは推論プロファイルの ID または Amazon リソースネーム (ARN)。推論の `modelId` フィールドで使用します。次の表は、各種リソースの ID の調べ方をまとめたものです。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/bedrock/latest/userguide/inference-api.html)
+ リクエスト本文 – モデルの推論パラメータおよびその他の設定が含まれます。各ベースモデルには、独自の推論パラメータがあります。カスタムモデルまたはプロビジョニングモデルの推論パラメータは、作成元のベースモデルによって異なります。詳細については、「[Inference request parameters and response fields for foundation models](model-parameters.md)」を参照してください。

トピックを選択して、モデル呼び出し API の使い方を確認してください。

**Topics**
+ [InvokeModel で 1 つのプロンプトを送信する](inference-invoke.md)
+ [OpenAI Chat Completions API を使用してモデルを呼び出す](inference-chat-completions.md)
+ [Converse API オペレーションを使用して会話を実行する](conversation-inference.md)
+ [API の制限](inference-api-restrictions.md)