Amazon Bedrock エンドポイントとクォータ - AWS 全般のリファレンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon Bedrock エンドポイントとクォータ

このサービスのサービスエンドポイントおよび Service Quotas を以下に示します。 AWS サービスにプログラムで接続するには、 エンドポイントを使用します。標準 AWS エンドポイントに加えて、一部の AWS サービスでは、選択したリージョンで FIPS エンドポイントを提供しています。詳細については、「AWS サービスエンドポイント」を参照してください。制限とも呼ばれるサービスクォータは、 AWS アカウントのサービスリソースまたはオペレーションの最大数です。詳細については、「AWS サービスクォータ」を参照してください。

サービスエンドポイント

Amazon Bedrock コントロールプレーン APIs

次の表は、Amazon Bedrock がモデルの管理、トレーニング、デプロイでサポートするリージョン固有のエンドポイントのリストです。Amazon Bedrock API オペレーションには、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (オハイオ) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

米国東部 (バージニア北部) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

米国西部 (オレゴン) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

アジアパシフィック (ムンバイ) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
アジアパシフィック (ソウル) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

欧州 (フランクフルト) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
欧州 (チューリッヒ) eu-central-2 bedrock.eu-central-2.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (米国東部) us-gov-east-1

bedrock.us-gov-east-1.amazonaws.com

bedrock-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (米国西部) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock ランタイムAPIs

次の表は、Amazon Bedrock でホストされているモデルの推論リクエストを行うために Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。Amazon Bedrock Runtime API オペレーションには、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (オハイオ) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

米国東部 (バージニア北部) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

米国西部 (オレゴン) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

アジアパシフィック (ムンバイ) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
アジアパシフィック (ソウル) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

欧州 (フランクフルト) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
欧州 (チューリッヒ) eu-central-2 bedrock-runtime.eu-central-2.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (米国東部) us-gov-east-1

bedrock-runtime.us-gov-east-1.amazonaws.com

bedrock-runtime-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (米国西部) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Agents for Amazon Bedrock ビルドタイムAPIs

次の表は、エージェントとナレッジベースの作成と管理のために Agents for Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。Agents for Amazon Bedrock API オペレーションには、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (バージニア北部) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
米国西部(オレゴン) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
欧州 (フランクフルト) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
南米(サンパウロ) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Agents for Amazon Bedrock ランタイムAPIs

次の表は、エージェントの呼び出しとナレッジベースのクエリのために Agents for Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。Agents for Amazon Bedrock ランタイム API オペレーションには、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (バージニア北部) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
米国西部(オレゴン) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
欧州 (フランクフルト) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
南米(サンパウロ) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Service Quotas

調整可能な値が「はい」とマークされているクォータと「いいえ」とマークされているクォータの両方について、クォータの引き上げをリクエストする方法については、「Amazon Bedrock クォータの引き上げをリクエストする」を参照してください。次の表は、Amazon Bedrock のクォータのリストを示しています。

名前 デフォルト 引き上げ可能 説明
エージェントあたりのAPIs サポートされている各リージョン: 11 可能 エージェントに追加できる APIs の最大数。
エージェントあたりのアクショングループ サポートされている各リージョン: 20 可能 エージェントに追加できるアクショングループの最大数。
フローあたりのエージェントノード サポートされている各リージョン: 10 なし エージェントノードの最大数。
アカウントあたりのエージェント

ca-central-1: 200

eu-central-1: 200

他のサポートされている各リージョン: 50

可能 1 つのアカウント内のエージェントの最大数。
1 秒あたりのAssociateAgentKnowledgeBase リクエスト数 サポートされている各リージョン: 6 なし 1 秒あたりの AssociateAgentKnowledgeBase API Wordリクエストの最大数。
エージェントあたりの関連付けられたエイリアス サポートされている各リージョン: 10 なし エージェントに関連付けることができるエイリアスの最大数。
エージェントあたりの関連付けられたナレッジベース サポートされている各リージョン: 2 可能 エージェントに関連付けることができるナレッジベースの最大数。
バッチ推論入力ファイルサイズ サポートされている各リージョン: 1,073,741,824 可能 バッチ推論用に送信された 1 つのファイルの最大サイズ (バイト単位)。
バッチ推論ジョブのサイズ サポートされている各リージョン: 5,368,709,120 可能 バッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (バイト単位)。
エージェント指示の文字 サポートされている各リージョン: 8,000 可能 エージェントの指示書の最大文字数。
フローあたりのコレクターノード サポートされている各リージョン: 1 [いいえ] コレクターノードの最大数。
アカウントあたりの同時取り込みジョブ サポートされている各リージョン:5 不可 アカウントで同時に実行できる取り込みジョブの最大数。
データソースあたりの同時取り込みジョブ サポートされている各リージョン: 1 [いいえ] データソースに対して同時に実行できる取り込みジョブの最大数。
ナレッジベースあたりの同時取り込みジョブ サポートされている各リージョン: 1 [いいえ] ナレッジベースで同時に実行できる取り込みジョブの最大数。
同時モデルインポートジョブ サポートされている各リージョン: 1 [いいえ] 同時に進行中のモデルインポートジョブの最大数。
フローあたりの条件ノード サポートされている各リージョン:5 不可 条件ノードの最大数。
条件ノードあたりの条件 サポートされている各リージョン:5 不可 条件ノードあたりの条件の最大数。
テキスト単位のコンテキストに基づくグラウンドクエリの長さ サポートされている各リージョン: 1 [いいえ] コンテキストに基づくグラウンドのクエリの最大長をテキスト単位で表します。
テキスト単位のコンテキストに基づくグラウンドレスポンスの長さ サポートされている各リージョン:5 不可 コンテキストに基づくグラウンドのレスポンスの最大長をテキスト単位で表します。
テキスト単位のコンテキストに基づくグラウンドソースの長さ

us-east-1: 100

us-west-2: 100

他のサポートされている各リージョン: 50

なし コンテキストに基づくグラウンドのグラウンドソースの最大長をテキスト単位で表します。
1 秒あたりのCreateAgent リクエスト数 サポートされている各リージョン: 6 なし 1 秒あたりの CreateAgent API Wordリクエストの最大数。
1 秒あたりのCreateAgentActionGroup リクエスト数 サポートされている各リージョン: 12 なし 1 秒あたりの CreateAgentActionGroup API Wordリクエストの最大数。
1 秒あたりのCreateAgentAlias リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreateAgentAlias API Wordリクエストの最大数。
1 秒あたりのCreateDataSource リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreateDataSource API Wordリクエストの最大数。
1 秒あたりのCreateFlow リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreateFlow リクエストの最大数。
1 秒あたりのCreateFlowAlias リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreateFlowAlias リクエストの最大数。
1 秒あたりのCreateFlowVersion リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreateFlowVersion リクエストの最大数。
1 秒あたりのCreateKnowledgeBase リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreateKnowledgeBase API Wordリクエストの最大数。
1 秒あたりのCreatePrompt リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreatePrompt リクエストの最大数。
1 秒あたりのCreatePromptVersion リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの CreatePromptVersion リクエストの最大数。
Anthropic Claude 3.5 Haiku の Cross-Region InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Haiku の Cross-Region InvokeModel トークン/分 サポートされている各リージョン: 4,000,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
アカウントあたりのカスタムモデル サポートされている各リージョン: 100 可能 アカウント内のカスタムモデルの最大数。
ナレッジベースあたりのデータソース サポートされている各リージョン:5 不可 ナレッジベースあたりのデータソースの最大数。
1 秒あたりのDeleteAgent リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteAgent API Wordリクエストの最大数。
1 秒あたりのDeleteAgentActionGroup リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteAgentActionGroup API Wordリクエストの最大数。
1 秒あたりのDeleteAgentAlias リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteAgentAlias API Wordリクエストの最大数。
1 秒あたりのDeleteAgentVersion リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteAgentVersion API Wordリクエストの最大数。
1 秒あたりのDeleteDataSource リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteDataSource API Wordリクエストの最大数。
1 秒あたりのDeleteFlow リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteFlow リクエストの最大数。
1 秒あたりのDeleteFlowAlias リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteFlowAlias リクエストの最大数。
1 秒あたりのDeleteFlowVersion リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteFlowVersion リクエストの最大数。
1 秒あたりのDeleteKnowledgeBase リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeleteKnowledgeBase API Wordリクエストの最大数。
1 秒あたりのDeletePrompt リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの DeletePrompt リクエストの最大数。
1 秒あたりのDisassociateAgentKnowledgeBase リクエスト数 サポートされている各リージョン: 4 なし 1 秒あたりの DisassociateAgentKnowledgeBase API Wordリクエストの最大数。
エージェントごとに有効になっているアクショングループ サポートされている各リージョン: 11 可能 エージェントで有効にできるアクショングループの最大数。
推論プロファイルあたりのエンドポイント サポートされている各リージョン:5 不可 推論プロファイル内のエンドポイントの最大数。エンドポイントは、モデルと、モデルへの呼び出しリクエストの送信先のリージョンによって定義されます。
トピックあたりのフレーズの例 サポートされている各リージョン:5 不可 トピックごとに含めることができるトピック例の最大数
取り込みジョブごとに追加または更新するファイル サポートされている各リージョン: 5,000,000 なし 取り込みジョブごとに取り込むことができる新規および更新されたファイルの最大数。
取り込みジョブごとに削除するファイル サポートされている各リージョン: 5,000,000 なし 取り込みジョブごとに削除できるファイルの最大数。
フローあたりのフローエイリアス サポートされている各リージョン: 10 なし フローエイリアスの最大数。
フローあたりのフローバージョン サポートされている各リージョン: 10 なし フローバージョンの最大数。
アカウントあたりのフロー サポートされている各リージョン: 100 可能 アカウントあたりのフローの最大数。
1 秒あたりのGetAgent リクエスト数 サポートされている各リージョン: 15 なし 1 秒あたりの GetAgent API Wordリクエストの最大数。
1 秒あたりのGetAgentActionGroup リクエスト数 サポートされている各リージョン: 20 なし 1 秒あたりの GetAgentActionGroup API Wordリクエストの最大数。
1 秒あたりのGetAgentAlias リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetAgentAlias API Wordリクエストの最大数。
1 秒あたりのGetAgentKnowledgeBase リクエスト数 サポートされている各リージョン: 15 なし 1 秒あたりの GetAgentKnowledgeBase API Wordリクエストの最大数。
1 秒あたりのGetAgentVersion リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetAgentVersion API Wordリクエストの最大数。
1 秒あたりのGetDataSource リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetDataSource API Wordリクエストの最大数。
1 秒あたりのGetFlow リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetFlow リクエストの最大数。
1 秒あたりのGetFlowAlias リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetFlowAlias リクエストの最大数。
1 秒あたりのGetFlowVersion リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetFlowVersion リクエストの最大数。
1 秒あたりのGetIngestionJob リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetIngestionJob API Wordリクエストの最大数。
1 秒あたりのGetKnowledgeBase リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetKnowledgeBase API Wordリクエストの最大数。
1 秒あたりのGetPrompt リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの GetPrompt リクエストの最大数。
アカウントあたりのガードレール サポートされている各リージョン: 100 なし アカウント内のガードレールの最大数
アカウントあたりのインポートされたモデル サポートされている各リージョン: 3 可能 アカウントでインポートされたモデルの最大数。
アカウントあたりの推論プロファイル サポートされている各リージョン: 1,000 可能 アカウント内の推論プロファイルの最大数。
取り込みジョブのファイルサイズ サポートされている各リージョン: 50 なし 取り込みジョブ内のファイルの最大サイズ (MB)。
取り込みジョブのサイズ サポートされている各リージョン: 100 なし 取り込みジョブの最大サイズ (GB 単位)。
フローあたりの入力ノード サポートされている各リージョン: 1 [いいえ] フロー入力ノードの最大数。
フローあたりのイテレーターノード サポートされている各リージョン: 1 [いいえ] イテレーターノードの最大数。
フローあたりのナレッジベースノード サポートされている各リージョン: 10 なし ナレッジベースノードの最大数。
アカウントあたりのナレッジベース サポートされている各リージョン: 100 なし アカウントあたりのナレッジベースの最大数。
フローあたりの Lambda 関数ノード サポートされている各リージョン: 10 なし Lambda 関数ノードの最大数。
フローあたりの Lex ノード サポートされている各リージョン:5 不可 Lex ノードの最大数。
1 秒あたりのListAgentActionGroups リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListAgentActionGroups API Wordリクエストの最大数。
1 秒あたりのListAgentAliases リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListAgentAliases API Wordリクエストの最大数。
1 秒あたりのListAgentKnowledgeBases リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListAgentKnowledgeBases API Wordリクエストの最大数。
1 秒あたりのListAgentVersions リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListAgentVersions API Wordリクエストの最大数。
1 秒あたりのListAgents リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListAgents API Wordリクエストの最大数。
1 秒あたりのListDataSources リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListDataSources API Wordリクエストの最大数。
1 秒あたりのListFlowAliases リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListFlowAliases リクエストの最大数。
1 秒あたりのListFlowVersions リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListFlowVersions リクエストの最大数。
1 秒あたりのListFlows リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListFlows リクエストの最大数。
1 秒あたりのListIngestionJobs リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListIngestionJobs API Wordリクエストの最大数。
1 秒あたりのListKnowledgeBases リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListKnowledgeBases API Wordリクエストの最大数。
1 秒あたりのListPrompts リクエスト数 サポートされている各リージョン: 10 なし 1 秒あたりの ListPrompts リクエストの最大数。
ベースモデル全体のモデル単位のコミットなしプロビジョンドスループット サポートされている各リージョン: 2 可能 ベースモデルのコミットなしプロビジョンドスループットに分散できるモデルユニットの最大数
カスタムモデル全体のモデル単位のコミットなしプロビジョンドスループット サポートされている各リージョン: 2 可能 カスタムモデルのコミットなしプロビジョンドスループットに分散できるモデルユニットの最大数
AI21 Labs Jurassic-2 Mid のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 AI21 Labs Jurassic-2 Mid のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
AI21 Labs Jurassic-2 Ultra のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 AI21 Labs Jurassic-2 Ultra のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Embeddings G1 のプロビジョニング済みモデルあたりのモデル単位 - テキスト サポートされている各リージョン: 0 可能 Amazon Titan Embeddings G1 - Text のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Image Generator G1 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Image Generator G1 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Image Generator G2 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Image Generator G2 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Lite V1 4K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Lite V1 4K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan マルチモーダル埋め込み G1 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan マルチモーダル埋め込み G1 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text Embeddings V2 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Embeddings V2 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text G1 - Express 8K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text G1 - Express 8K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text Premium V1 32K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Premier V1 32K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Haiku 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3 Haiku 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Haiku 48K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3 Haiku 48K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Sonnet 200K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3 Sonnet 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Sonnet 28K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3 Sonnet 28K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 18K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 51K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 51K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude Instant V1 100K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude Instant V1 100K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2 100K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2 100K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2 18K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2.1 18K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2.1 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2.1 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2.1 200k のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンドのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere コマンドのプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンドライトのプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Cohere Command Light のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンド R のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Cohere Command R 128k のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Command R Plus のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Cohere Command R Plus 128k のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Embed English のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Embed English のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Embed Multilingual のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Embed Multilingual のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 13B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 13B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 70B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 70B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 Chat 13B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 Chat 13B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 Chat 70B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 Chat 70B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3 70B 命令のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3 70B 命令のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3 8B 命令のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 3 8B 命令のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.1 70B インストラクションのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 3.1 70B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.1 8B 指示のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3.1 8B 指示のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.2 1B 命令のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3.2 1B 指示のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.2 3B 命令のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3.2 3B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Mistral Large 2407 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Mistral Large 2407 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Mistral Small のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Mistral Small のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Stability.ai Stable Diffusion XL 0.8 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Stability.ai Stable Diffusion XL 0.8 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Stability.ai Stable Diffusion XL 1.0 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Stability.ai Stable Diffusion XL 1.0 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
同時自動モデル評価ジョブの数 サポートされている各リージョン: 20 なし 現在のリージョンで、このアカウントで一度に指定できる自動モデル評価ジョブの最大数。
ヒューマンワーカーを使用する同時モデル評価ジョブの数 サポートされている各リージョン: 10 なし 現在のリージョンで、このアカウントで一度に指定できるヒューマンワーカーを使用するモデル評価ジョブの最大数。
カスタムメトリクスの数 サポートされている各リージョン: 10 なし ヒューマンワーカーを使用するモデル評価ジョブで指定できるカスタムメトリクスの最大数。
ヒューマンベースのモデル評価ジョブのカスタムプロンプトデータセットの数 サポートされている各リージョン: 1 [いいえ] 現在のリージョンで、このアカウントのヒューマンベースのモデル評価ジョブで指定できるカスタムプロンプトデータセットの最大数。
ジョブあたりのデータセットの数 サポートされている各リージョン:5 不可 自動モデル評価ジョブで指定できるデータセットの最大数。これには、カスタムプロンプトデータセットと組み込みプロンプトデータセットの両方が含まれます。
評価ジョブの数 サポートされている各リージョン: 5,000 なし このアカウントで現在のリージョンに作成できるモデル評価ジョブの最大数。
データセットあたりのメトリクスの数 サポートされている各リージョン: 3 なし 自動モデル評価ジョブでデータセットごとに指定できるメトリクスの最大数。これには、カスタムメトリクスと組み込みメトリクスの両方が含まれます。
ヒューマンワーカーを使用するモデル評価ジョブ内のモデルの数 サポートされている各リージョン: 2 なし ヒューマンワーカーを使用するモデル評価ジョブで指定できるモデルの最大数。
自動モデル評価ジョブのモデル数 サポートされている各リージョン: 1 [いいえ] 自動モデル評価ジョブで指定できるモデルの最大数。
カスタムプロンプトデータセット内のプロンプトの数 サポートされている各リージョン: 1,000 なし カスタムプロンプトデータセットに含めることができるプロンプトの最大数。
オンデマンド ApplyGuardrail コンテンツフィルターポリシーのテキスト単位/秒 サポートされている各リージョン: 25 なし コンテンツフィルターポリシーで処理できる 1 秒あたりのテキストユニットの最大数
オンデマンド ApplyGuardrail 拒否トピックポリシーのテキスト単位/秒 サポートされている各リージョン: 25 なし 1 秒あたりに拒否されたトピックポリシーに対して処理できるテキストユニットの最大数
オンデマンド ApplyGuardrail 機密情報フィルターポリシーのテキスト単位/秒 サポートされている各リージョン: 25 なし 機密情報フィルターポリシーで処理できる 1 秒あたりのテキストユニットの最大数
オンデマンド ApplyGuardrail フィルターポリシーのテキスト単位/秒 サポートされている各リージョン: 25 なし Word フィルターポリシーで 1 秒あたりに処理できるテキストユニットの最大数。
オンデマンド ApplyGuardrail コンテキストに基づくグラウンドポリシーのテキスト単位/秒

us-east-1: 106

us-west-2: 106

サポートされている他の各リージョン: 53

なし コンテキストに基づくグラウンドポリシーで処理できる 1 秒あたりのテキストユニットの最大数
オンデマンド 1 秒あたりの ApplyGuardrail リクエスト サポートされている各リージョン: 25 なし 1 秒あたりに実行できる ApplyGuardrail API 呼び出しの最大数
InvokeModel Labs Jamba 1.5 Large のオンデマンド AI21 リクエスト/分 サポートされている各リージョン: 100 なし AI21 Labs Jamba 1.5 Large で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と InvokeModel のリクエストの合計を考慮します。
InvokeModel Labs Jamba 1.5 Mini のオンデマンド AI21 リクエスト/分 サポートされている各リージョン: 100 なし AI21 Labs Jamba 1.5 Mini で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と InvokeModel のリクエストの合計を考慮します。
InvokeModel Labs Jamba Instruct のオンデマンド AI21 リクエスト/分 サポートされている各リージョン: 100 なし AI21 Labs Jamba Instruct で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と InvokeModel のリクエストの合計を考慮します。
InvokeModel Labs Jurassic-2 Mid のオンデマンド AI21 リクエスト/分 サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、 InvokeModel Labs Jurassic-2 Mid の InvokeModelWithResponseStream リクエストと AI21 リクエストの合計を考慮します。
InvokeModel Labs Jurassic-2 Ultra のオンデマンド AI21 リクエスト/分 サポートされている各リージョン: 100 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、 InvokeModel Labs Jurassic-2 Ultra の InvokeModelWithResponseStream リクエストと AI21 リクエストの合計を考慮します。
Amazon Titan Image Generator G1 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 なし Amazon Titan Image Generator G1 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Amazon Titan Image Generator G1 V2 の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 60 なし Amazon Titan Image Generator G V2 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Amazon Titan マルチモーダル埋め込み G1 の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 2,000 なし Amazon Titan マルチモーダル埋め込み G1 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Amazon Titan Text Embeddings のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 なし Amazon Titan Text Embeddings で 1 分間に InvokeModel を呼び出すことができる最大回数
Amazon Titan Text Embeddings V2 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 なし Amazon Titan Text Embeddings V2 で 1 分間に InvokeModel を呼び出すことができる最大回数
Amazon Titan Text Express のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Amazon Titan Text Express の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Amazon Titan Text Lite のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Amazon Titan Text Lite の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Amazon Titan Text Premium のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Amazon Titan Text Premium の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3 Haiku のオンデマンド InvokeModel リクエスト/分

us-east-1: 1,000

us-west-2: 1,000

ap-northeast-1: 200

ap-southeast-1: 200

サポートされている他の各リージョン: 400

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Opus のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 50 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Opus に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3 Sonnet のオンデマンド InvokeModel リクエスト/分

us-east-1: 500

us-west-2: 500

他のサポートされている各リージョン: 100

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Sonnet に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3.5 Haiku のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 1,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Sonnet のオンデマンド InvokeModel リクエスト/分

us-east-1: 50

us-east-2: 50

us-west-2: 250

ap-northeast-2: 50

ap-south-1: 50

ap-southeast-2: 50

他のサポートされている各リージョン: 20

なし Anthropic Claude 3.5 Sonnet で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、コンバース、 ConverseStream、 InvokeModel 、 InvokeModelWithResponseStreamの合計を考慮します。
Anthropic Claude 3.5 Sonnet V2 のオンデマンド InvokeModel リクエスト/分

us-west-2: 250

他のサポートされている各リージョン: 50

なし Anthropic Claude 3.5 Sonnet V2 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、コンバース、 ConverseStream、 InvokeModel 、 InvokeModelWithResponseStreamの合計を考慮します。
Anthropic Claude Instant のオンデマンド InvokeModel リクエスト/分

us-east-1: 1,000

us-west-2: 1,000

他のサポートされている各リージョン: 400

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Anthropic Claude Instant の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude V2 のオンデマンド InvokeModel リクエスト/分

us-east-1: 500

us-west-2: 500

他のサポートされている各リージョン: 100

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Anthropic Claude V2 の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンドの 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Cohere コマンドの InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere Command Light のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Cohere Command Light に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンド R の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Cohere コマンド R 128k に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere Command R Plus の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Cohere Command R Plus 128k に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere Embed English のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 なし Cohere Embed English で 1 分間に InvokeModel を呼び出すことができる最大回数。
Cohere Embed Multilingual のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 なし Cohere Embed Multilingual で 1 分間に InvokeModel を呼び出すことができる最大回数。
Meta Llama 2 13B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Meta Llama 2 13B に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 70B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Meta Llama 2 70B に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 Chat 13B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Meta Llama 2 Chat 13B に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 Chat 70B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Meta Llama 2 Chat 70B に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 3 70B インストラクションのオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Meta Llama 3 70B 命令に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 3 8B Instruct のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数。クォータは、Meta Llama 3 8B 命令に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
霧状 7B 指示のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 なし Mistral mistral-7 InvokeModel 0 で 1 分間に b-instruct-v を呼び出すことができる最大回数
Mistral AI Mistral Small のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 なし Mistral AI Mistral Small で 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数
Mistral Large のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 なし Mistral mistral-large-2402-v1 で 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数
Mistral Mixtral 8x7b Instruct のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 なし Mistral mixtral-8x7b-v0 で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai Stable Diffusion 3 Large のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 15 なし Stability.ai Stable Diffusion 3 Large で 1 分間に InvokeModel を呼び出すことができる最大回数。
Stability.ai Stable Diffusion 3 Medium のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 なし Stability.ai Stable Diffusion 3 Medium で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai Stable Diffusion XL 0.8 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 なし Stability.ai Stable Diffusion XL 0.8 で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai Stable Diffusion XL 1.0 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 なし Stability.ai Stable Diffusion XL 1.0 で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai Stable Image Core のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 90 なし Stability.ai Stable Image Core で 1 分間に InvokeModel を呼び出すことができる最大回数。
Stability.ai Stable Image Ultra のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 10 なし Stability.ai Stable Image Ultra で 1 分間に InvokeModel を呼び出すことができる最大回数。
InvokeModel Labs Jamba 1.5 Large のオンデマンド AI21 トークン/分 サポートされている各リージョン: 300,000 なし AI21 Labs Jamba 1.5 Large のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse と InvokeModel のトークンの合計を考慮します。
InvokeModel Labs Jamba 1.5 Mini のオンデマンド AI21 トークン/分 サポートされている各リージョン: 300,000 なし AI21 Labs Jamba 1.5 Mini でモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、Converse と InvokeModel のトークンの合計を考慮します。
InvokeModel Labs Jamba Instruct のオンデマンド AI21 トークン/分 サポートされている各リージョン: 300,000 なし AI21 Labs Jamba Instruct のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse と InvokeModel のトークンの合計を考慮します。
InvokeModel Labs Jurassic-2 Mid のオンデマンド AI21 トークン/分 サポートされている各リージョン: 300,000 なし InvokeModel Labs Jurassic-2 Mid で 1 分間に throughAI21 に提供できるトークンの最大数。
InvokeModel Labs Jurassic-2 Ultra のオンデマンド AI21 トークン/分 サポートされている各リージョン: 300,000 なし AI21 Labs Jurassic-2 Ultra で 1 分間に through InvokeModel に提供できるトークンの最大数。
Amazon Titan Image Generator G1 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000 なし Amazon Titan Image Generator G1 に対して 1 分間に through InvokeModel で提供できるトークンの最大数。
Amazon Titan Image Generator G1 V2 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000 なし Amazon Titan Image Generator G1 V2 に対して 1 分間に through InvokeModel で提供できるトークンの最大数。
Amazon Titan マルチモーダル埋め込み G1 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし Amazon Titan マルチモーダル埋め込み G1 で 1 分間に through InvokeModel で提供できるトークンの最大数。
Amazon Titan Text Embeddings のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし Amazon Titan Text Embeddings で 1 分間に through InvokeModel から提供できるトークンの最大数。
Amazon Titan Text Embeddings V2 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし Amazon Titan Text Embeddings V2 で 1 分間に through InvokeModel に提供できるトークンの最大数。
Amazon Titan Text Express のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Amazon Titan Text Express の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Amazon Titan Text Lite のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Amazon Titan Text Lite の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Amazon Titan Text Premium のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Amazon Titan Text Premium の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Haiku のオンデマンド InvokeModel トークン/分

us-east-1: 2,000,000

us-west-2: 2,000,000

ap-northeast-1: 200,000

ap-southeast-1: 200,000

他のサポートされている各リージョン: 300,000

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Anthropic Claude 3 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Opus のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 400,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Anthropic Claude 3 Opus の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Sonnet のオンデマンド InvokeModel トークン/分

us-east-1: 1,000,000

us-west-2: 1,000,000

他のサポートされている各リージョン: 200,000

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Anthropic Claude 3 Sonnet の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Haiku のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Sonnet のオンデマンド InvokeModel トークン/分

us-east-1: 400,000

us-east-2: 400,000

us-west-2: 2,000,000

ap-northeast-2: 400,000

ap-south-1: 400,000

ap-southeast-2: 400,000

他のサポートされている各リージョン: 200,000

なし Anthropic Claude 3.5 Sonnet でモデル推論に 1 分間に送信できるトークンの最大数。クォータは、コンバース、 ConverseStream、 InvokeModel 、 InvokeModelWithResponseStreamの合計を考慮します。
Anthropic Claude 3.5 Sonnet V2 のオンデマンド InvokeModel トークン/分

us-west-2: 2,000,000

他のサポートされている各リージョン: 400,000

なし Anthropic Claude 3.5 Sonnet V2 のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、コンバース、 ConverseStream、 InvokeModel 、 InvokeModelWithResponseStreamの合計を考慮します。
Anthropic Claude Instant のオンデマンド InvokeModel トークン/分

us-east-1: 1,000,000

us-west-2: 1,000,000

他のサポートされている各リージョン: 300,000

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Anthropic Claude Instant の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude V2 のオンデマンド InvokeModel トークン/分

us-east-1: 500,000

us-west-2: 500,000

他のサポートされている各リージョン: 200,000

なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Anthropic Claude V2 の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere コマンドのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Cohere コマンドの InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere Command Light のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし Cohere Command Light に 1 分間に through InvokeModel で提供できるトークンの最大数。
Cohere コマンド R のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Cohere コマンド R 128k の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere Command R Plus のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Cohere Command R Plus 128k の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere Embed English のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし Cohere Embed English に 1 分間に through InvokeModel で提供できるトークンの最大数。
Cohere Embed Multilingual のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし Cohere Embed Multilingual で 1 分間に InvokeModel を通じて提供できるトークンの最大数。
Meta Llama 2 13B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Meta Llama 2 13B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 70B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Meta Llama 2 70B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 Chat 13B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Meta Llama 2 Chat 13B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 Chat 70B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Meta Llama 2 Chat 70B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3 70B インストラクションのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Meta Llama 3 70B 命令の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3 8B 指示のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Meta Llama 3 8B 命令の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
霧状 AI 霧状 7B 指示のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Mistral AI Mistral 7B Instruct の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral Large のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Mistral AI Mistral Large の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral Small のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Mistral AI Mistral Small の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mixtral 8X7BB Instruct のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 なし 1 分間に InvokeModel と InvokeModelWithResponseStream を通じて提供できるトークンの最大数。クォータは、Mistral mixtral-8x7 InvokeModelWithResponseStream 0 の InvokeModel トークンと b-instruct-v トークンの合計を考慮します。
Meta Llama 3.1 405B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 200 なし Meta Llama 3.1 405B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.1 70B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 なし Meta Llama 3.1 70B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.1 8B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 なし Meta Llama 3.1 8B 命令で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.2 11B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 なし Meta Llama 3.2 11B 命令で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.2 1B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 なし Meta Llama 3.2 1B 命令で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.2 3B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 なし Meta Llama 3.2 3B 命令で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.2 90B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 なし Meta Llama 3.2 90B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Mistral Large 2407 の 1 分あたりのオンデマンドモデル推論リクエスト サポートされている各リージョン: 400 なし Mistral Large 2407 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.1 8B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 なし Meta Llama 3.1 8B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 11B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 なし Meta Llama 3.2 11B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 1B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 なし Meta Llama 3.2 1B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 3B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 なし Meta Llama 3.2 3B 指示に対して 1 分間でモデル推論に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 90B Instruct のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 なし Meta Llama 3.2 90B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
Mistral Large 2407 のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 なし Mistral Large 2407 のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
for Meta Llama 3.1 405B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 400,000 なし Meta Llama 3.1 405B 指示で 1 分間にモデル推論に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
for Meta Llama 3.1 70B Instruct のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 なし Meta Llama 3.1 70B Instruct でモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、 ConverseStream のトークンの合計を考慮します。
フローあたりの出力ノード サポートされている各リージョン: 10 なし フロー出力ノードの最大数。
関数あたりのパラメータ サポートされている各リージョン: 5 可能 アクショングループ関数に含めることができるパラメータの最大数。
1 秒あたりのPrepareAgent リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの PrepareAgent API Wordリクエストの最大数。
1 秒あたりのPrepareFlow リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの PrepareFlow リクエストの最大数。
フローあたりのプロンプトノード サポートされている各リージョン: 10 可能 プロンプトノードの最大数。
アカウントあたりのプロンプト サポートされている各リージョン: 50 可能 プロンプトの最大数。
バッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 バッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
バッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 バッチ推論ジョブの入力ファイル内のレコードの最大数。
機密情報フィルターの正規表現エンティティ サポートされている各リージョン: 10 なし 単語ポリシーに含めることができるガードレールフィルターの正規表現の最大数
正規表現の文字数 サポートされている各リージョン: 500 なし ガードレールフィルター正規表現の最大文字数
1 秒あたりのリクエストの取得 サポートされている各リージョン:5 不可 1 秒あたりの API 取得リクエストの最大数。
1 秒あたりのRetrieveAndGenerate リクエスト数 サポートされている各リージョン:5 不可 1 秒あたりの RetrieveAndGenerate API Wordリクエストの最大数。
フローあたりの S3 取り出しノード サポートされている各リージョン: 10 なし S3 取り出しノードの最大数。
フローあたりの S3 ストレージノード サポートされている各リージョン: 10 なし S3 ストレージノードの最大数。
スケジュールされたカスタマイズジョブ サポートされている各リージョン: 2 なし スケジュールされたカスタマイズジョブの最大数。
プロンプトのサイズ サポートされている各リージョン: 4 なし 個々のプロンプトの最大サイズ (KB 単位) は、カスタムプロンプトデータセットです。
1 秒あたりのStartIngestionJob リクエスト数 サポートされている各リージョン: 0.1 なし 1 秒あたりの StartIngestionJob API Wordリクエストの最大数。
ベースモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計

eu-south-1: 10

他のサポートされている各リージョン: 20

可能 ベースモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
カスタムモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 3 可能 カスタムモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数
Claude 3 Haiku v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Claude 3 Haiku 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 2 13B v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 2 13B 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 2 70B v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 2 70B 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.1 70B Instruct v1 Fine-tuning ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.1 70B 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.1 8B Instruct v1 Fine-tuning ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.1 8B 指示微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.2 1B Instruct v1 Fine-tuning ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.2 1B 指示微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.2 3B Instruct v1 Fine-tuning ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.2 3B 指示微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Image Generator G1 V1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Image Generator の微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Image Generator G1 V2 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Image Generator V2 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan マルチモーダル埋め込み G1 v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン:50,000 可能 Titan マルチモーダル埋め込みの微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Express v1 の継続的な事前トレーニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 100,000 可能 Titan Text Express の継続的な事前トレーニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Express v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Text Express 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Lite v1 の継続的な事前トレーニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 100,000 可能 Titan Text Lite の継続的な事前トレーニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Lite v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Text Lite 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - プレミアム v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 20,000 可能 Titan Text Premium 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
ワーカーのタスク時間 サポートされている各リージョン: 30 なし ワーカーがタスクを完了するために必要な最大時間 (日数)。
ガードレールあたりのトピック サポートされている各リージョン: 30 なし ガードレールトピックポリシー全体で定義できるトピックの最大数
フローあたりの合計ノード数 サポートされている各リージョン: 40 なし フロー内のノードの最大数。
1 秒あたりのUpdateAgent リクエスト数 サポートされている各リージョン: 4 なし 1 秒あたりの UpdateAgent API Wordリクエストの最大数。
1 秒あたりのUpdateAgentActionGroup リクエスト数 サポートされている各リージョン: 6 なし 1 秒あたりの UpdateAgentActionGroup API Wordリクエストの最大数
1 秒あたりのUpdateAgentAlias リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの UpdateAgentAlias API Wordリクエストの最大数。
1 秒あたりのUpdateAgentKnowledgeBase リクエスト数 サポートされている各リージョン: 4 なし 1 秒あたりの UpdateAgentKnowledgeBase API Wordリクエストの最大数。
1 秒あたりのUpdateDataSource リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの UpdateDataSource API Wordリクエストの最大数。
1 秒あたりのUpdateFlow リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの UpdateFlow リクエストの最大数。
1 秒あたりのUpdateFlowAlias リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの UpdateFlowAlias リクエストの最大数。
1 秒あたりのUpdateKnowledgeBase リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの UpdateKnowledgeBase API Wordリクエストの最大数。
1 秒あたりのUpdatePrompt リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの UpdatePrompt リクエストの最大数。
ユーザークエリのサイズ サポートされている各リージョン: 1,000 なし ユーザークエリの最大サイズ (文字単位)。
1 秒あたりのValidateFlowDefinition リクエスト数 サポートされている各リージョン: 2 なし 1 秒あたりの ValidateFlowDefinition リクエストの最大数。
ガードレールあたりのバージョン サポートされている各リージョン: 20 なし ガードレールが保持できるバージョンの最大数
プロンプトあたりのバージョン サポートされている各リージョン: 10 なし プロンプトあたりのバージョンの最大数。
文字単位の単語長 サポートされている各リージョン: 100 なし ブロックされた単語リスト内の単語の最大長。文字単位。
単語あたりの単語ポリシー サポートされている各リージョン: 10,000 なし ブロックされた単語リストに含めることができる単語の最大数