

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Bedrock での推論の仕組み
<a name="inference-how"></a>

モデルに入力を送信すると、モデルはその後に続く可能性のあるトークンのシーケンスを予測し、そのシーケンスを出力として返します。Amazon Bedrock により、選択した基盤モデルで推論を実行できるようになります。推論を実行する場合は、次の入力を提供します。
+ **プロンプト** — レスポンスを生成するためにモデルに提供される入力。プロンプトの書き方については、「[プロンプトエンジニアリングの概念](prompt-engineering-guidelines.md)」を参照してください。プロンプトインジェクション攻撃の対策については、「[プロンプトインジェクションのセキュリティ](prompt-injection.md)」を参照してください。
+ **モデル** – プロンプトで推論を実行するようにモデルにリクエストします。選択したモデルによって、スループットのレベルも指定されます。つまり、処理できる入出力トークンの数とレートが定義されます。次のタイプのモデルにリクエストを行うことができます。
  + **ベースモデル** – 推論の実行に使用する基盤モデル。リクエストは 1 つの AWS リージョンに送信されます。モデル ID については、「[Amazon Bedrock でサポートされている基盤モデル](models-supported.md)」を参照してください。Amazon Bedrock で使用できる基盤モデルの詳細については、「[Bedrock でのモデルの使用](foundation-models-reference.md)」を参照してください。
  + **推論プロファイル** – 推論の実行に使用する基盤モデル。複数の AWS リージョンでモデルにリクエストが行われます。推論プロファイルについては、「[推論プロファイルでサポートされているリージョンおよびモデル](inference-profiles-support.md)」を参照してください。
**注記**  
モデルは、リージョンと API メソッドによって、ベースモデルと推論プロファイルの可用性が異なります。詳細については、「[Amazon Bedrock でサポートされている基盤モデル](models-supported.md)」、および「[基盤モデルリファレンス](foundation-models-reference.md)」の個々のモデルのページを参照してください。
  + **プロビジョンドスループット** – 専用スループットを購入した基盤モデル。詳細については、[Amazon Bedrock のプロビジョンドスループットでモデル呼び出し容量を増やす](prov-throughput.md)を参照してください。
  + **カスタムモデル** – モデルのカスタマイズによって重みが変更された基盤モデル。詳細については、「[モデルをカスタマイズしてユースケースのパフォーマンスを向上させる](custom-models.md)」を参照してください。
+ **推論パラメータ** — モデルレスポンスを制限したり影響を与えたりするように調整できる値のセット。推論パラメータの詳細については、「[推論パラメータでレスポンスの生成に影響を与える](inference-parameters.md)」および「[Inference request parameters and response fields for foundation models](model-parameters.md)」を参照してください。

## 異なる AWS リージョンでのモデルの呼び出し
<a name="inference-how-regions"></a>

モデルを呼び出すときは、そのモデルを呼び出す AWS リージョン を選択します。実行できるリクエストの頻度とサイズに対応するクォータは、リージョンによって異なります。これらのクォータは、「[Amazon Bedrock サービスクォータ](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock)」で次のクォータを検索することで確認できます。
+ *\$1\$1Model\$1* の 1 分あたりのオンデマンドモデル推論のリクエスト数
+ *\$1\$1model\$1* の 1 分あたりのオンデマンド InvokeModel のトークン数

基盤モデル自体ではなく、推論プロファイルを呼び出すこともできます。推論プロファイルは、モデルと、その推論プロファイルによるモデル呼び出しリクエストのルーティング先となる 1 つ以上のリージョンを定義します。複数のリージョンを含む推論プロファイルを呼び出すことで、スループットを向上させることができます。詳細については、「[クロスリージョン推論によりスループットを向上させる](cross-region-inference.md)」を参照してください。推論プロファイルで実行できるリクエストの頻度とサイズに対応するクォータを確認するには、「[Amazon Bedrock サービスクォータ](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock)」で次のクォータを検索します。
+ *\$1\$1Model\$1* の 1 分あたりのクロスリージョン InvokeModel のリクエスト数
+ *\$1\$1Model\$1* の 1 分あたりのクロスリージョン InvokeModel のトークン数
+ *\$1\$1Model\$1* の 1 分あたりのグローバルクロスリージョン InvokeModel のリクエスト数
+ *\$1\$1Model\$1* の 1 分あたりのグローバルクロスリージョン InvokeModel のトークン数

リージョンへのリクエストは、同じ親リージョンを共有するローカルゾーンから提供される場合があります。例えば、米国東部 (バージニア北部) (us-east-1) へのリクエストは、米国アトランタ (us-east-1-atl-2a) など、それに関連付けられている任意のローカルゾーンから提供される場合があります。

クロスリージョン推論の使用時にも同じ原則が適用されます。例えば、米国の Anthropic Claude 3 Haiku 推論プロファイルへのリクエストは、親リージョンが米国シアトル (us-west-2-sea-1a) など米国にある任意のローカルゾーンから提供される場合があります。新しいローカルゾーンが に追加されると AWS、対応するクロスリージョン推論エンドポイントにも追加されます。

ローカルエンドポイントとそれらが関連付けられている親リージョンのリストを確認するには、「[AWS ローカルゾーンの場所](https://aws.amazon.com/about-aws/global-infrastructure/localzones/locations/)」を参照してください。

Amazon Bedrock でクロスリージョン推論プロファイルを呼び出すと、リクエストはソースリージョンから発信され、そのプロファイルで定義されている送信先リージョンの 1 つに自動的にルーティングされて、パフォーマンスが最適化されます。グローバルクロスリージョン推論プロファイルの送信リージョンには、商用リージョンがすべて含まれます。

リクエストを処理できる商用リージョン AWS が増えるにつれて、特定のモデルのグローバルクロスリージョン推論プロファイルは時間の経過とともに変化する可能性があります。ただし、推論プロファイルが地域 (米国、欧州、APAC など) に関連付けられている場合、その送信先リージョンリストは変更されません。 は、新しいリージョンを組み込む新しい推論プロファイルを作成する AWS 可能性があります。これらの推論プロファイルを使用するようにシステムを更新するには、セットアップ内の ID を新しいものに変更します。

**注記**  
クロスリージョン推論プロファイルの送信先リージョンには、オ**プトインリージョンを含めることができます。オプトイン**リージョンは、 AWS アカウント または組織レベルで明示的に有効にする必要があるリージョンです。詳細については、アカウントの[「有効または無効にする AWS リージョン](https://docs.aws.amazon.com/accounts/latest/reference/manage-acct-regions.html)」を参照してください。クロスリージョン推論プロファイルを使用する場合、プロファイル内の任意の送信先リージョンをアカウントでオプトインしなかった場合でも、推論リクエストはその送信先リージョンにルーティングされる可能性があります。

サービスコントロールポリシー (SCPs) と AWS Identity and Access Management (IAM) ポリシーは連携して、クロスリージョン推論が許可される場所を制御します。SCP を使用すると、Amazon Bedrock で推論に使用できるリージョンを制御でき、IAM ポリシーを使用すると、推論を実行するためのアクセス許可を持つユーザーまたはロールを定義できます。クロスリージョン推論プロファイルの任意の送信先リージョンが SCP でブロックされている場合、他のリージョンが許可されていてもリクエストは失敗します。クロスリージョン推論による効率的なオペレーションを確保するために、選択した推論プロファイルに含まれるすべての送信先リージョンで、必要なすべての Amazon Bedrock 推論アクション (`bedrock:InvokeModel*` や `bedrock:CreateModelInvocationJob` など) を許可するように SCP と IAM ポリシーを更新できます。詳細については、「[https://aws.amazon.com/blogs/machine-learning/enable-amazon-bedrock-cross-region-inference-in-multi-account-environments/](https://aws.amazon.com/blogs/machine-learning/enable-amazon-bedrock-cross-region-inference-in-multi-account-environments/)Enabling Amazon Bedrock cross-Region inference in multi-account environments」を参照してください。