Amazon Bedrock エンドポイントとクォータ - AWS 一般的なリファレンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon Bedrock エンドポイントとクォータ

このサービスのサービスエンドポイントおよび Service Quotas を以下に示します。 AWS サービスにプログラムで接続するには、エンドポイントを使用します。標準 AWS エンドポイントに加えて、一部の AWS サービスでは、選択したリージョンでFIPSエンドポイントを提供しています。詳細については、「AWS サービスエンドポイント」を参照してください。制限とも呼ばれるサービスクォータは、 AWS アカウントのサービスリソースまたはオペレーションの最大数です。詳細については、「AWS サービスクォータ」を参照してください。

注記

AWS では、アプリケーション内でリージョンSTSエンドポイントを使用することをお勧めします。グローバル (レガシー) STSエンドポイントは使用しないでください。リージョン別STSエンドポイントは、レイテンシーを短縮し、冗長性を構築し、セッショントークンの有効性を高めます。リージョンSTSエンドポイントを使用するようにアプリケーションを設定する方法の詳細については、AWS SDKs「」およびツールリファレンスガイドAWS STS 「リージョン化されたエンドポイント」を参照してください。このエンドポイントの使用をモニタリングする方法など、グローバル (レガシー) AWS STS エンドポイントの詳細については、AWS セキュリティブログの「リージョン AWS STS エンドポイントの使用方法」を参照してください。

サービスエンドポイント

Amazon Bedrock コントロールプレーン APIs

次の表は、Amazon Bedrock がモデルの管理、トレーニング、デプロイでサポートするリージョン固有のエンドポイントのリストです。Amazon Bedrock APIオペレーション には、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (オハイオ) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

米国東部 (バージニア北部) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

米国西部 (オレゴン) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

アジアパシフィック (ムンバイ) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
アジアパシフィック (ソウル) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

欧州 (フランクフルト) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (米国西部) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock ランタイム APIs

次の表は、Amazon Bedrock でホストされているモデルの推論リクエストを行うために Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストを示しています。Amazon Bedrock Runtime APIオペレーション には、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (オハイオ) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

米国東部 (バージニア北部) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

米国西部 (オレゴン) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

アジアパシフィック (ムンバイ) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
アジアパシフィック (ソウル) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

欧州 (フランクフルト) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (米国西部) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Agents for Amazon Bedrock のビルドタイム APIs

次の表は、エージェントとナレッジベースの作成と管理のために Agents for Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。Agents for Amazon Bedrock APIオペレーション には、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (バージニア北部) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
米国西部(オレゴン) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
欧州 (フランクフルト) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
南米(サンパウロ) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Agents for Amazon Bedrock ランタイム APIs

次の表は、エージェントの呼び出しとナレッジベースのクエリのために Agents for Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。Agents for Amazon Bedrock Runtime APIオペレーション には、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (バージニア北部) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
米国西部(オレゴン) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
欧州 (フランクフルト) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
南米(サンパウロ) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Service Quotas

調整可能な値がはいとマークされているクォータといいえとマークされているクォータの両方について、クォータ引き上げをリクエストする方法については、「Amazon Bedrock クォータの引き上げをリクエストする」を参照してください。次の表は、Amazon Bedrock のクォータのリストを示しています。

名前 デフォルト 引き上げ可能 説明
APIs エージェントあたり サポートされている各リージョン: 11 可能 エージェントに追加APIsできる の最大数。
エージェントあたりのアクショングループ サポートされている各リージョン: 20 可能 エージェントに追加できるアクショングループの最大数。
フローあたりのエージェントノード数 サポートされている各リージョン: 10 不可 エージェントノードの最大数。
アカウントあたりのエージェント サポートされている各リージョン: 50 可能 1 つのアカウント内のエージェントの最大数。
AssociateAgentKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 6 不可 1 秒あたりのリクエストの最大数 AssociateAgentKnowledgeBase API。
エージェントあたりの関連付けられたエイリアス サポートされている各リージョン: 10 不可 エージェントに関連付けることができるエイリアスの最大数。
エージェントあたりの関連付けられたナレッジベース サポートされている各リージョン: 2 可能 エージェントに関連付けることができるナレッジベースの最大数。
バッチ推論入力ファイルサイズ サポートされている各リージョン: 1,073,741,824 可能 バッチ推論用に送信された 1 つのファイルの最大サイズ (バイト単位)。
バッチ推論ジョブサイズ サポートされている各リージョン: 5,368,709,120 可能 バッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (バイト単位)。
エージェント指示の文字 サポートされている各リージョン: 4,000 可能 エージェントの指示の最大文字数。
フローあたりのコレクタノード数 サポートされている各リージョン: 1 [いいえ] コレクターノードの最大数。
アカウントあたりの同時取り込みジョブ サポートされている各リージョン:5 不可 アカウントで同時に実行できる取り込みジョブの最大数。
データソースあたりの同時取り込みジョブ サポートされている各リージョン: 1 [いいえ] データソースに対して同時に実行できる取り込みジョブの最大数。
ナレッジベースあたりの同時取り込みジョブ サポートされている各リージョン: 1 [いいえ] ナレッジベースに対して同時に実行できる取り込みジョブの最大数。
同時モデルインポートジョブ サポートされている各リージョン: 1 [いいえ] 同時に進行中のモデルインポートジョブの最大数。
フローあたりの条件ノード サポートされている各リージョン:5 不可 条件ノードの最大数。
条件ノードあたりの条件 サポートされている各リージョン:5 不可 条件ノードあたりの条件の最大数。
テキスト単位のコンテキスト接地クエリの長さ サポートされている各リージョン: 1 [いいえ] コンテキスト接地のクエリの最大長をテキスト単位で指定します。
テキスト単位のコンテキスト接地レスポンスの長さ サポートされている各リージョン:5 不可 コンテキスト接地のレスポンスの最大長、テキスト単位
テキスト単位のコンテキスト接地ソース長

us-east-1: 100

us-west-2: 100

他のサポートされている各リージョン: 50

不可 コンテキスト接地の接地ソースの最大長をテキスト単位で表します。
CreateAgent 1 秒あたりのリクエスト数 サポートされている各リージョン: 6 不可 1 秒あたりのリクエストの最大数 CreateAgent API。
CreateAgentActionGroup 1 秒あたりのリクエスト数 サポートされている各リージョン: 12 不可 1 秒あたりのリクエストの最大数 CreateAgentActionGroup API。
CreateAgentAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 CreateAgentAlias API。
CreateDataSource 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 CreateDataSource API。
CreateFlow 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの CreateFlow リクエストの最大数。
CreateFlowAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの CreateFlowAlias リクエストの最大数。
CreateFlowVersion 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの CreateFlowVersion リクエストの最大数。
CreateKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 CreateKnowledgeBase API。
CreatePrompt 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの CreatePrompt リクエストの最大数。
CreatePromptVersion 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの CreatePromptVersion リクエストの最大数。
アカウントあたりのカスタムモデル サポートされている各リージョン: 100 可能 アカウント内のカスタムモデルの最大数。
ナレッジベースあたりのデータソース サポートされている各リージョン:5 不可 ナレッジベースあたりのデータソースの最大数。
DeleteAgent 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 DeleteAgent API。
DeleteAgentActionGroup 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 DeleteAgentActionGroup API。
DeleteAgentAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 DeleteAgentAlias API。
DeleteAgentVersion 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 DeleteAgentVersion API。
DeleteDataSource 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 DeleteDataSource API。
DeleteFlow 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの DeleteFlow リクエストの最大数。
DeleteFlowAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの DeleteFlowAlias リクエストの最大数。
DeleteFlowVersion 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの DeleteFlowVersion リクエストの最大数。
DeleteKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 DeleteKnowledgeBase API。
DeletePrompt 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの DeletePrompt リクエストの最大数。
DisassociateAgentKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 4 不可 1 秒あたりのリクエストの最大数 DisassociateAgentKnowledgeBase API。
エージェントごとに有効なアクショングループ サポートされている各リージョン: 11 可能 エージェントで有効にできるアクショングループの最大数。
推論プロファイルあたりのエンドポイント サポートされている各リージョン:5 不可 推論プロファイル内のエンドポイントの最大数。エンドポイントは、モデルと、モデルへの呼び出しリクエストが送信されるリージョンによって定義されます。
トピックあたりのフレーズの例 サポートされている各リージョン:5 不可 トピックごとに含めることができるトピック例の最大数
取り込みジョブごとに追加または更新するファイル サポートされている各リージョン: 5,000,000 不可 取り込みジョブごとに取り込むことができる新規および更新されたファイルの最大数。
取り込みジョブごとに削除するファイル サポートされている各リージョン: 5,000,000 不可 取り込みジョブごとに削除できるファイルの最大数。
フローあたりのフローエイリアス サポートされている各リージョン: 10 不可 フローエイリアスの最大数。
フローあたりのフローバージョン サポートされている各リージョン: 10 不可 フローバージョンの最大数。
アカウントあたりのフロー サポートされている各リージョン: 100 可能 アカウントあたりのフローの最大数。
GetAgent 1 秒あたりのリクエスト数 サポートされている各リージョン: 15 不可 1 秒あたりのリクエストの最大数 GetAgent API。
GetAgentActionGroup 1 秒あたりのリクエスト数 サポートされている各リージョン: 20 不可 1 秒あたりのリクエストの最大数 GetAgentActionGroup API。
GetAgentAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 GetAgentAlias API。
GetAgentKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 15 不可 1 秒あたりのリクエストの最大数 GetAgentKnowledgeBase API。
GetAgentVersion 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 GetAgentVersion API。
GetDataSource 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 GetDataSource API。
GetFlow 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの GetFlow リクエストの最大数。
GetFlowAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの GetFlowAlias リクエストの最大数。
GetFlowVersion 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの GetFlowVersion リクエストの最大数。
GetIngestionJob 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 GetIngestionJob API。
GetKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 GetKnowledgeBase API。
GetPrompt 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの GetPrompt リクエストの最大数。
アカウントあたりのガードレール サポートされている各リージョン: 100 不可 アカウント内のガードレールの最大数
アカウントあたりのインポートされたモデル サポートされている各リージョン: 3 可能 アカウントでインポートされたモデルの最大数。
アカウントあたりの推論プロファイル サポートされている各リージョン: 50 可能 アカウント内の推論プロファイルの最大数。
取り込みジョブのファイルサイズ サポートされている各リージョン: 50 不可 取り込みジョブ内のファイルの最大サイズ (MB)。
取り込みジョブサイズ サポートされている各リージョン: 100 不可 取り込みジョブの最大サイズ (GB)。
フローあたりの入力ノード数 サポートされている各リージョン: 1 [いいえ] フロー入力ノードの最大数。
フローあたりのイテレータノード数 サポートされている各リージョン: 1 [いいえ] イテレータノードの最大数。
フローあたりのナレッジベースノード数 サポートされている各リージョン: 10 不可 ナレッジベースノードの最大数。
アカウントあたりのナレッジベース サポートされている各リージョン: 100 不可 アカウントあたりのナレッジベースの最大数。
フローあたりの Lambda 関数ノード サポートされている各リージョン: 10 不可 Lambda 関数ノードの最大数。
フローあたりの Lex ノード数 サポートされている各リージョン:5 不可 Lex ノードの最大数。
ListAgentActionGroups 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListAgentActionGroups API。
ListAgentAliases 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListAgentAliases API。
ListAgentKnowledgeBases 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListAgentKnowledgeBases API。
ListAgentVersions 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListAgentVersions API。
ListAgents 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListAgents API。
ListDataSources 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListDataSources API。
ListFlowAliases 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの ListFlowAliases リクエストの最大数。
ListFlowVersions 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの ListFlowVersions リクエストの最大数。
ListFlows 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの ListFlows リクエストの最大数。
ListIngestionJobs 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListIngestionJobs API。
ListKnowledgeBases 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりのリクエストの最大数 ListKnowledgeBases API。
ListPrompts 1 秒あたりのリクエスト数 サポートされている各リージョン: 10 不可 1 秒あたりの ListPrompts リクエストの最大数。
ベースモデル全体のモデルユニット非コミットプロビジョンドスループット サポートされている各リージョン: 2 可能 ベースモデルのコミットなしプロビジョンドスループットに分散できるモデルユニットの最大数
カスタムモデル全体のモデルユニット非コミットプロビジョンドスループット サポートされている各リージョン: 2 可能 カスタムモデルのコミットなしプロビジョンドスループットに分散できるモデルユニットの最大数
AI21 Labs Jurassic-2 Mid のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 AI21 Labs Jurassic-2 Mid のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
AI21 Labs Jurassic-2 Ultra のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 AI21 Labs Jurassic-2 Ultra のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Embeddings G1 のプロビジョニング済みモデルあたりのモデル単位 - テキスト サポートされている各リージョン: 0 可能 Amazon Titan Embeddings G1 - Text のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Image Generator G1 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Image Generator G1 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Image Generator G2 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Image Generator G2 のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Lite V1 4K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Lite V1 4K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan マルチモーダル埋め込み G1 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan マルチモーダル埋め込み G1 のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text Embeddings V2 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Embeddings V2 のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text G1 - Express 8K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text G1 - Express 8K のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text Premier V1 32K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Premier V1 32K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Haiku 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3 Haiku 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Haiku 48K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3 Haiku 48K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Sonnet 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3 Sonnet 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Sonnet 28K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3 Sonnet 28K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 18K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 51K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 51K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude Instant V1 100K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude Instant V1 100K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2 100K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2 100K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2 18K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2.1 18K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2.1 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2.1 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2.1 200k のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンドのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere コマンドのプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンドライトのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Command Light のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンド R のプロビジョニングされたモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere コマンド R 128k のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Cohere Command R Plus のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Command R Plus 128k のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Cohere Embed English のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Embed English のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Embed マルチリンガルのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Embed マルチリンガルのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 13B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 13B のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 70B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 70B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 Chat 13B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 Chat 13B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 Chat 70B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 Chat 70B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3 70B 指示のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 3 70B 指示のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3 8B 指示のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 3 8B 指示のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.1 70B インストラクションのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 3.1 70B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.1 8B インストラクションのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 3.1 8B 指示のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Mistral Large 2407 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Mistral Large 2407 のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Mistral Small のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Mistral Small のプロビジョニングされたモデルに割り当てることができるモデルユニットの最大数。
Stability.ai Stable Diffusion XL 0.8 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Stability.ai Stable Diffusion XL 0.8 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Stability.ai Stable Diffusion XL 1.0 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Stability.ai Stable Diffusion XL 1.0 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
同時自動モデル評価ジョブの数 サポートされている各リージョン: 20 不可 このアカウントで現在のリージョンで一度に指定できる自動モデル評価ジョブの最大数。
ヒューマンワーカーを使用する同時モデル評価ジョブの数 サポートされている各リージョン: 10 不可 現在のリージョンで、このアカウントで一度に指定できるヒューマンワーカーを使用するモデル評価ジョブの最大数。
カスタムメトリクスの数 サポートされている各リージョン: 10 不可 ヒューマンワーカーを使用するモデル評価ジョブで指定できるカスタムメトリクスの最大数。
人間ベースのモデル評価ジョブのカスタムプロンプトデータセットの数 サポートされている各リージョン: 1 [いいえ] 現在のリージョンのこのアカウントの人間ベースのモデル評価ジョブで指定できるカスタムプロンプトデータセットの最大数。
ジョブあたりのデータセットの数 サポートされている各リージョン:5 不可 自動モデル評価ジョブで指定できるデータセットの最大数。これには、カスタムプロンプトデータセットと組み込みプロンプトデータセットの両方が含まれます。
評価ジョブの数 サポートされている各リージョン: 5,000 不可 現在のリージョンでこのアカウントで作成できるモデル評価ジョブの最大数。
データセットあたりのメトリクスの数 サポートされている各リージョン: 3 不可 自動モデル評価ジョブでデータセットごとに指定できるメトリクスの最大数。これには、カスタムメトリクスと組み込みメトリクスの両方が含まれます。
ヒューマンワーカーを使用するモデル評価ジョブ内のモデルの数 サポートされている各リージョン: 2 不可 ヒューマンワーカーを使用するモデル評価ジョブで指定できるモデルの最大数。
自動モデル評価ジョブのモデル数 サポートされている各リージョン: 1 [いいえ] 自動モデル評価ジョブで指定できるモデルの最大数。
カスタムプロンプトデータセット内のプロンプトの数 サポートされている各リージョン: 1,000 不可 カスタムプロンプトデータセットに含めることができるプロンプトの最大数。
オンデマンド ApplyGuardrail コンテンツフィルターポリシーのテキスト単位/秒 サポートされている各リージョン: 25 不可 1 秒あたりのコンテンツフィルターポリシーで処理できるテキストユニットの最大数
オンデマンド ApplyGuardrail で拒否されたトピックポリシーのテキスト単位/秒 サポートされている各リージョン: 25 不可 拒否されたトピックポリシーで処理できる 1 秒あたりのテキストユニットの最大数
オンデマンド ApplyGuardrail の機密情報フィルターポリシーのテキスト単位/秒 サポートされている各リージョン: 25 不可 機密情報フィルターポリシーで処理できる 1 秒あたりのテキストユニットの最大数
オンデマンドの ApplyGuardrail Word フィルターポリシーテキスト単位/秒 サポートされている各リージョン: 25 不可 1 秒あたりに Word フィルターポリシーで処理できるテキストユニットの最大数。
オンデマンド ApplyGuardrail コンテキスト接地ポリシーのテキスト単位/秒

us-east-1: 106

us-west-2: 106

サポートされている他の各リージョン: 53

不可 コンテキストに基づく接地ポリシーで処理できる 1 秒あたりのテキストユニットの最大数
1 秒あたりのオンデマンド ApplyGuardrail リクエスト数 サポートされている各リージョン: 25 不可 1 秒あたりに実行できる呼び出しの最大数 ApplyGuardrail API
AI21 Labs Jamba 1.5 の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 100 不可 AI21 Labs Jamba 1.5 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と のリクエストの合計を考慮します。 InvokeModel
AI21 Labs Jamba Instruct の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 100 不可 AI21 Labs Jamba Instruct で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と のリクエストの合計を考慮します。 InvokeModel
AI21 Labs Jamba Large 1.5 の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 100 不可 AI21 Labs Jamba Large 1.5 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と のリクエストの合計を考慮します。 InvokeModel
AI21 Labs Jurassic-2 Mid の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、 AI21 Labs Jurassic-2 Mid の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
AI21 Labs Jurassic-2 Ultra の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 100 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、 AI21 Labs Jurassic-2 Ultra の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します
Amazon Titan Image Generator G1 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 不可 Amazon Titan Image Generator G1 で 1 分間 InvokeModel に呼び出すことができる最大回数。
Amazon Titan Image Generator G1 V2 の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 60 不可 Amazon Titan Image Generator G V2 で 1 分間 InvokeModel に呼び出すことができる最大回数。
Amazon Titan マルチモーダル埋め込み G1 の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 2,000 不可 Amazon Titan マルチモーダル埋め込み G1 で 1 分間 InvokeModel に呼び出すことができる最大回数。
Amazon Titan Text Embeddings のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 不可 Amazon Titan Text Embeddings で 1 分間 InvokeModel に呼び出すことができる最大回数
Amazon Titan Text Embeddings V2 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 不可 Amazon Titan Text Embeddings V2 で 1 分間 InvokeModel に呼び出すことができる最大回数
Amazon Titan Text Express のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Amazon Titan Text Express の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Amazon Titan Text Lite の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 800 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Amazon Titan Text Lite の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Amazon Titan Text Premier のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Amazon Titan Text Premier の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3 Haiku のオンデマンド InvokeModel リクエスト/分

us-east-1: 1,000

us-west-2: 1,000

ap-northeast-1: 200

ap-southeast-1: 200

サポートされている他の各リージョン: 400

不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Haiku の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Opus の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 50 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Opus の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3 Sonnet の 1 分あたりのオンデマンド InvokeModel リクエスト

us-east-1: 500

us-west-2: 500

他のサポートされている各リージョン: 100

不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Sonnet の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3.5 Sonnet のオンデマンド InvokeModel リクエスト/分

us-east-1: 50

us-east-2: 50

us-west-2: 250

ap-northeast-2: 50

ap-southeast-2: 50

他のサポートされている各リージョン: 20

不可 Anthropic Claude 3.5 Sonnet で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse、 ConverseStream、 InvokeModel および の合計を考慮します InvokeModelWithResponseStream。
Anthropic Claude 3.5 Sonnet V2 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 250 不可 Anthropic Claude 3.5 Sonnet V2 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse、 ConverseStream、 InvokeModel および の合計を考慮します InvokeModelWithResponseStream。
Anthropic Claude Instant のオンデマンド InvokeModel リクエスト/分

us-east-1: 1,000

us-west-2: 1,000

サポートされている他の各リージョン: 400

不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Anthropic Claude Instant の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude V2 の 1 分あたりのオンデマンド InvokeModel リクエスト

us-east-1: 500

us-west-2: 500

他のサポートされている各リージョン: 100

不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Anthropic Claude V2 の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンドの 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Cohere コマンドの InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンドライトの 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 800 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Cohere Command Light の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンド R の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Cohere コマンド R 128k の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere Command R Plus の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Cohere Command R Plus 128k の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere Embed English のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 不可 Cohere Embed English で 1 分間 InvokeModel に呼び出すことができる最大回数。
Cohere Embed マルチリンガルの 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 2,000 不可 Cohere Embed Multilingual で 1 分間 InvokeModel に呼び出すことができる最大回数。
Meta Llama 2 13B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Meta Llama 2 13B の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 70B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Meta Llama 2 70B の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 Chat 13B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Meta Llama 2 Chat 13B の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 Chat 70B のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Meta Llama 2 Chat 70B の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 3 70B 指示の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Meta Llama 3 70B 命令の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 3 8B 指示の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 800 不可 1 分間 InvokeModelWithResponseStream に InvokeModel および を呼び出すことができる最大回数。クォータは、Meta Llama 3 8B 命令の InvokeModel と InvokeModelWithResponseStream リクエストの合計を考慮します。
Mistral 7B インストラクションの 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 800 不可 Mistral mistral-7b-instruct-v0 で 1 分間 InvokeModel に呼び出すことができる最大回数
Mistral AI Mistral Small のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 不可 Mistral AI Mistral Small で InvokeModel および を 1 分間 InvokeModelWithResponseStream に呼び出すことができる最大回数
Mistral Large のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 不可 Mistral mistral-large-2402-v1 の InvokeModel および を 1 分間 InvokeModelWithResponseStream に呼び出すことができる最大回数
Mistral Mixtral 8x7b 指示の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 400 不可 Mistral mixtral-8x7b-v0 で 1 分間 InvokeModel に呼び出すことができる最大回数
Stability.ai Stable Diffusion 3 Large の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 15 不可 Stability.ai Stable Diffusion 3 Large で 1 分間 InvokeModel に呼び出すことができる最大回数。
Stability.ai Stable Diffusion 3 Medium のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 不可 Stability.ai Stable Diffusion 3 Medium で 1 分間 InvokeModel に呼び出すことができる最大回数
Stability.ai Stable Diffusion XL 0.8 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 不可 Stability.ai Stable Diffusion XL 0.8 で 1 分間 InvokeModel に呼び出すことができる最大回数
Stability.ai Stable Diffusion XL 1.0 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 不可 Stability.ai Stable Diffusion XL 1.0 で 1 分間 InvokeModel に呼び出すことができる最大回数
Stability.ai Stable Image Core のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 90 不可 Stability.ai Stable Image Core で 1 分間 InvokeModel に呼び出すことができる最大回数。
Stability.ai Stable Image Ultra の 1 分あたりのオンデマンド InvokeModel リクエスト サポートされている各リージョン: 10 不可 Stability.ai Stable Image Ultra で 1 分間 InvokeModel に呼び出すことができる最大回数。
AI21 Labs Jamba 1.5 のオンデマンド InvokeModel トークン/分。 サポートされている各リージョン: 300,000 不可 AI21 Labs Jamba 1.5 のモデル推論に 1 分で送信できるトークンの最大数。クォータは、Converse と のトークンの合計を考慮します InvokeModel。
AI21 Labs Jamba Instruct のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 AI21 Labs Jamba Instruct のモデル推論に 1 分で送信できるトークンの最大数。クォータは、Converse と のトークンの合計を考慮します。 InvokeModel
AI21 Labs Jamba Large 1.5 のオンデマンド InvokeModel トークン/分。 サポートされている各リージョン: 300,000 不可 AI21 Labs Jamba Large 1.5 のモデル推論に 1 分で送信できるトークンの最大数。クォータは、Converse と のトークンの合計を考慮します InvokeModel。
AI21 Labs Jurassic-2 Mid のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 AI21 Labs Jurassic-2 Mid で 1 分間 InvokeModel に指定できるトークンの最大数。
AI21 Labs Jurassic-2 Ultra のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 AI21 Labs Jurassic-2 Ultra で 1 分間 InvokeModel に指定できるトークンの最大数。
Amazon Titan Image Generator G1 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000 不可 Amazon Titan Image Generator G1 で 1 分間 InvokeModel に指定できるトークンの最大数。
Amazon Titan Image Generator G1 V2 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000 不可 Amazon Titan Image Generator G1 V2 で 1 分間 InvokeModel に指定できるトークンの最大数。
Amazon Titan マルチモーダル埋め込み G1 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 Amazon Titan マルチモーダル埋め込み G1 で 1 分間 InvokeModel に指定できるトークンの最大数。
Amazon Titan Text Embeddings のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 Amazon Titan Text Embeddings で 1 分間 InvokeModel に指定できるトークンの最大数。
Amazon Titan Text Embeddings V2 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 Amazon Titan Text Embeddings V2 で 1 分間 InvokeModel に指定できるトークンの最大数。
Amazon Titan Text Express のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Amazon Titan Text Express の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Amazon Titan Text Lite のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Amazon Titan Text Lite の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Amazon Titan Text Premier のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Amazon Titan Text Premier の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Haiku のオンデマンド InvokeModel トークン/分

us-east-1: 2,000,000

us-west-2: 2,000,000

ap-northeast-1: 200,000

ap-southeast-1: 200,000

サポートされている他の各リージョン: 300,000

不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Anthropic Claude 3 Haiku の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Opus のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 400,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Anthropic Claude 3 Opus の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Sonnet のオンデマンド InvokeModel トークン/分

us-east-1: 1,000,000

us-west-2: 1,000,000

サポートされている他の各リージョン: 200,000

不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Anthropic Claude 3 Sonnet の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Sonnet のオンデマンド InvokeModel トークン/分

us-east-1: 400,000

us-east-2: 400,000

us-west-2: 2,000,000

ap-northeast-2: 400,000

ap-southeast-2: 400,000

サポートされている他の各リージョン: 200,000

不可 Anthropic Claude 3.5 Sonnet のモデル推論に 1 分で送信できるトークンの最大数。クォータは、Converse、 ConverseStream、 InvokeModel および の合計を考慮します InvokeModelWithResponseStream。
Anthropic Claude 3.5 Sonnet V2 のオンデマンド InvokeModel トークン/分

us-west-2: 2,000,000

サポートされている他の各リージョン: 400,000

不可 Anthropic Claude 3.5 Sonnet V2 でモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、 ConverseStream、 InvokeModel および の合計を考慮します InvokeModelWithResponseStream。
Anthropic Claude Instant のオンデマンド InvokeModel トークン/分

us-east-1: 1,000,000

us-west-2: 1,000,000

サポートされている他の各リージョン: 300,000

不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Anthropic Claude Instant の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude V2 のオンデマンド InvokeModel トークン/分

us-east-1: 500,000

us-west-2: 500,000

サポートされている他の各リージョン: 200,000

不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Anthropic Claude V2 の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere コマンドのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Cohere コマンドの InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere コマンドライトのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 Cohere Command Light で 1 分間 InvokeModel に指定できるトークンの最大数。
Cohere コマンド R のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Cohere コマンド R 128k の InvokeModel とトークンの合計を考慮 InvokeModelWithResponseStream します。
Cohere Command R Plus のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Cohere Command R Plus 128k の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere Embed English のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 Cohere Embed English で 1 分間 InvokeModel に指定できるトークンの最大数。
Cohere Embed マルチリンガルのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 Cohere Embed Multilingual で 1 分間 InvokeModel に指定できるトークンの最大数。
Meta Llama 2 13B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Meta Llama 2 13B の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 70B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Meta Llama 2 70B の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 Chat 13B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Meta Llama 2 Chat 13B の InvokeModel とトークンの合計を考慮 InvokeModelWithResponseStream します。
Meta Llama 2 Chat 70B のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Meta Llama 2 Chat 70B の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3 70B インストラクションのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Meta Llama 3 70B 命令の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3 8B 指示のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Meta Llama 3 8B 命令の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral 7B インストラクションのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Mistral AI Mistral 7B インストラクションの InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral Large のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Mistral AI Mistral Large の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral Small のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Mistral AI Mistral Small の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mixtral 8X7BB インストラクションのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 不可 InvokeModel および 1 分間 InvokeModelWithResponseStream に指定できるトークンの最大数。クォータは、Mistral mixtral-8x7b-instruct-v0 の InvokeModel と InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3.1 405B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 200 不可 Meta Llama 3.1 405B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のリクエストの合計を考慮します ConverseStream。
Meta Llama 3.1 70B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 不可 Meta Llama 3.1 70B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のリクエストの合計を考慮します ConverseStream。
Meta Llama 3.1 8B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 不可 Meta Llama 3.1 8B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のリクエストの合計を考慮します ConverseStream。
Meta Llama 3.2 11B 指示のオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 不可 Meta Llama 3.2 11B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のリクエストの合計を考慮します ConverseStream。
Meta Llama 3.2 1B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 不可 Meta Llama 3.2 1B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のリクエストの合計を考慮します ConverseStream。
Meta Llama 3.2 3B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 不可 Meta Llama 3.2 3B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のリクエストの合計を考慮します ConverseStream。
Meta Llama 3.2 90B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 不可 Meta Llama 3.2 90B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のリクエストの合計を考慮します ConverseStream。
Mistral Large 2407 のオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 不可 Mistral Large 2407 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、 InvokeModel、、 InvokeModelWithResponseStreamConverse、および のリクエストの合計を考慮します。 ConverseStream
Meta Llama 3.1 8B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 不可 Meta Llama 3.1 8B インストラクションでモデル推論に 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のトークンの合計を考慮します ConverseStream。
Meta Llama 3.2 11B 指示のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 不可 Meta Llama 3.2 11B インストラクションのモデル推論に 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のトークンの合計を考慮します ConverseStream。
Meta Llama 3.2 1B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 不可 Meta Llama 3.2 1B インストラクションのモデル推論に 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のトークンの合計を考慮します ConverseStream。
Meta Llama 3.2 3B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 不可 Meta Llama 3.2 3B インストラクションのモデル推論に 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のトークンの合計を考慮します ConverseStream。
Meta Llama 3.2 90B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 不可 Meta Llama 3.2 90B インストラクションのモデル推論に 1 分で送信できるトークンの最大数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のトークンの合計を考慮します ConverseStream。
Mistral Large 2407 のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 不可 Mistral Large 2407 のモデル推論に 1 分で送信できるトークンの最大数。クォータは、 InvokeModel、 InvokeModelWithResponseStream、Converse、および のトークンの合計を考慮します。 ConverseStream
Meta Llama 3.1 405B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 400,000 不可 Meta Llama 3.1 405B インストラクションのモデル推論に 1 分で送信できるトークンの最大数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のトークンの合計を考慮します ConverseStream。
Meta Llama 3.1 70B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 不可 Meta Llama 3.1 70B インストラクションのモデル推論に 1 分間に送信できるトークンの最大数。クォータは、 InvokeModel、、Converse InvokeModelWithResponseStream、および のトークンの合計を考慮します ConverseStream。
フローあたりの出力ノード数 サポートされている各リージョン: 10 不可 フロー出力ノードの最大数。
関数あたりのパラメータ サポートされている各リージョン: 5 可能 アクショングループ関数に含めることができるパラメータの最大数。
PrepareAgent 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 PrepareAgent API。
PrepareFlow 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの PrepareFlow リクエストの最大数。
フローあたりのプロンプトノード サポートされている各リージョン: 10 可能 プロンプトノードの最大数。
アカウントあたりのプロンプト サポートされている各リージョン: 50 可能 プロンプトの最大数。
バッチ推論ジョブあたりのレコード数 サポートされている各リージョン:50,000 可能 バッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
バッチ推論ジョブあたりの入力ファイルあたりのレコード数 サポートされている各リージョン:50,000 可能 バッチ推論ジョブの入力ファイル内のレコードの最大数。
機密情報フィルターの正規表現エンティティ サポートされている各リージョン: 10 不可 単語ポリシーに含めることができるガードレールフィルター正規表現の最大数
正規表現の長さの文字数 サポートされている各リージョン: 500 不可 ガードレールフィルター正規表現の最大長、文字単位
1 秒あたりのリクエストの取得 サポートされている各リージョン:5 不可 1 秒あたりの取得APIリクエストの最大数。
RetrieveAndGenerate 1 秒あたりのリクエスト数 サポートされている各リージョン:5 不可 1 秒あたりのリクエストの最大数 RetrieveAndGenerate API。
フローあたりの S3 取得ノード サポートされている各リージョン: 10 不可 S3 取得ノードの最大数。
フローあたりの S3 ストレージノード サポートされている各リージョン: 10 不可 S3 ストレージノードの最大数。
スケジュールされたカスタマイズジョブ サポートされている各リージョン: 2 不可 スケジュールされたカスタマイズジョブの最大数。
プロンプトのサイズ サポートされている各リージョン: 4 不可 個々のプロンプトの最大サイズ (KB 単位) は、カスタムプロンプトデータセットです。
StartIngestionJob 1 秒あたりのリクエスト数 サポートされている各リージョン: 0.1 不可 1 秒あたりのリクエストの最大数 StartIngestionJob API。
ベースモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 10 可能 ベースモデルを使用した進行中のバッチ推論ジョブと送信済みのバッチ推論ジョブの最大数。
カスタムモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 3 可能 カスタムモデルを使用した進行中のバッチ推論ジョブと送信済みのバッチ推論ジョブの最大数
Claude 3 Haiku v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Claude 3 Haiku 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 2 13B v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 2 13B 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 2 70B v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 2 70B 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.1 70B 指示 v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.1 70B 指示微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.1 8B 指示 v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.1 8B 指示微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Image Generator G1 V1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Image Generator の微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Image Generator G1 V2 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Image Generator V2 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan マルチモーダル埋め込み G1 v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン:50,000 可能 Titan マルチモーダル埋め込みの微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Express v1 継続トレーニング前ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 100,000 可能 Titan Text Express の継続的なトレーニング前ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Express v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Text Express 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Lite v1 継続トレーニング前ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 100,000 可能 Titan Text Lite 継続事前トレーニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Lite v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Text Lite 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Premier v1 微調整ジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 20,000 可能 Titan Text Premier 微調整ジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
ワーカーのタスク時間 サポートされている各リージョン: 30 不可 ワーカーがタスクを完了するために必要な最大時間 (日数)。
ガードレールあたりのトピック サポートされている各リージョン: 30 不可 ガードレールトピックポリシー間で定義できるトピックの最大数
フローあたりの合計ノード数 サポートされている各リージョン: 40 不可 フロー内のノードの最大数。
UpdateAgent 1 秒あたりのリクエスト数 サポートされている各リージョン: 4 不可 1 秒あたりのリクエストの最大数 UpdateAgent API。
UpdateAgentActionGroup 1 秒あたりのリクエスト数 サポートされている各リージョン: 6 不可 1 秒あたりのリクエストの最大数 UpdateAgentActionGroup API
UpdateAgentAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 UpdateAgentAlias API。
UpdateAgentKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 4 不可 1 秒あたりのリクエストの最大数 UpdateAgentKnowledgeBase API。
UpdateDataSource 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 UpdateDataSource API。
UpdateFlow 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの UpdateFlow リクエストの最大数。
UpdateFlowAlias 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの UpdateFlowAlias リクエストの最大数。
UpdateKnowledgeBase 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりのリクエストの最大数 UpdateKnowledgeBase API。
UpdatePrompt 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの UpdatePrompt リクエストの最大数。
ユーザークエリサイズ サポートされている各リージョン: 1,000 不可 ユーザークエリの最大サイズ (文字単位)。
ValidateFlowDefinition 1 秒あたりのリクエスト数 サポートされている各リージョン: 2 不可 1 秒あたりの ValidateFlowDefinition リクエストの最大数。
ガードレールあたりのバージョン サポートされている各リージョン: 20 不可 ガードレールが持つことができるバージョンの最大数
プロンプトあたりのバージョン サポートされている各リージョン: 10 不可 プロンプトあたりのバージョンの最大数。
文字単位の単語の長さ サポートされている各リージョン: 100 不可 ブロックされた単語リスト内の単語の最大長。文字単位。
単語あたりの単語ポリシー サポートされている各リージョン: 10,000 不可 ブロックされた単語リストに含めることができる単語の最大数