Cookie の設定を選択する

当社は、当社のサイトおよびサービスを提供するために必要な必須 Cookie および類似のツールを使用しています。当社は、パフォーマンス Cookie を使用して匿名の統計情報を収集することで、お客様が当社のサイトをどのように利用しているかを把握し、改善に役立てています。必須 Cookie は無効化できませんが、[カスタマイズ] または [拒否] をクリックしてパフォーマンス Cookie を拒否することはできます。

お客様が同意した場合、AWS および承認された第三者は、Cookie を使用して便利なサイト機能を提供したり、お客様の選択を記憶したり、関連する広告を含む関連コンテンツを表示したりします。すべての必須ではない Cookie を受け入れるか拒否するには、[受け入れる] または [拒否] をクリックしてください。より詳細な選択を行うには、[カスタマイズ] をクリックしてください。

Amazon Bedrock エンドポイントとクォータ

フォーカスモード
Amazon Bedrock エンドポイントとクォータ - AWS 一般的なリファレンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

AWS サービスにプログラムで接続するには、endpoint. AWS services を使用します。サービスは、サービスがサポートする一部またはすべての AWS リージョンで、IPv4 エンドポイント、デュアルスタックエンドポイント、および FIPS エンドポイントのエンドポイントタイプを提供します。一部の サービスは、グローバルエンドポイントを提供します。詳細については、「AWS サービスエンドポイント」を参照してください。

制限とも呼ばれるサービスクォータは、 AWS アカウントのサービスリソースまたはオペレーションの最大数です。詳細については、「AWS サービスクォータ」を参照してください。

このサービスのサービスエンドポイントおよび Service Quotas を以下に示します。

Amazon Bedrock サービスエンドポイント

Amazon Bedrock コントロールプレーン APIs

次の表は、Amazon Bedrock がモデルの管理、トレーニング、デプロイでサポートするリージョン固有のエンドポイントのリストです。Amazon Bedrock API オペレーションには、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (オハイオ) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

米国東部 (バージニア北部) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

米国西部 (オレゴン) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

アジアパシフィック (ハイデラバード) ap-south-2 bedrock.ap-south-2.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
アジアパシフィック (大阪) ap-northeast-3 bedrock.ap-northeast-3.amazonaws.com HTTPS
アジアパシフィック (ソウル) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

欧州 (フランクフルト) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
ヨーロッパ (ミラノ) eu-south-1 bedrock.eu-south-1.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
欧州 (スペイン) eu-south-2 bedrock.eu-south-2.amazonaws.com HTTPS
欧州 (ストックホルム) eu-north-1 bedrock.eu-north-1.amazonaws.com HTTPS
欧州 (チューリッヒ) eu-central-2 bedrock.eu-central-2.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (米国東部) us-gov-east-1

bedrock.us-gov-east-1.amazonaws.com

bedrock-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (米国西部) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock ランタイム APIs

次の表は、Amazon Bedrock でホストされているモデルの推論リクエストを行うために Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。Amazon Bedrock ランタイム API オペレーションには、これらのエンドポイントを使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (オハイオ) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

米国東部 (バージニア北部) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

米国西部 (オレゴン) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

アジアパシフィック (ハイデラバード) ap-south-2 bedrock-runtime.ap-south-2.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
アジアパシフィック (大阪) ap-northeast-3 bedrock-runtime.ap-northeast-3.amazonaws.com HTTPS
アジアパシフィック (ソウル) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

欧州 (フランクフルト) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
ヨーロッパ (ミラノ) eu-south-1 bedrock-runtime.eu-south-1.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
欧州 (スペイン) eu-south-2 bedrock-runtime.eu-south-2.amazonaws.com HTTPS
欧州 (ストックホルム) eu-north-1 bedrock-runtime.eu-north-1.amazonaws.com HTTPS
欧州 (チューリッヒ) eu-central-2 bedrock-runtime.eu-central-2.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (米国東部) us-gov-east-1

bedrock-runtime.us-gov-east-1.amazonaws.com

bedrock-runtime-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (米国西部) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Agents for Amazon Bedrock ビルドタイム API

次の表は、エージェントとナレッジベースの作成と管理のために Agents for Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。これらのエンドポイントは、Amazon Bedrock エージェントの API オペレーションに使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (バージニア北部) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
米国西部 (オレゴン) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
欧州 (フランクフルト) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Agents for Amazon Bedrock ランタイム API

次の表は、エージェントの呼び出しとナレッジベースのクエリのために Agents for Amazon Bedrock がサポートするリージョン固有のエンドポイントのリストです。これらのエンドポイントは、Amazon Bedrock ランタイム API オペレーション用の エージェントに使用します。

リージョン名 リージョン エンドポイント プロトコル
米国東部 (バージニア北部) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
米国西部 (オレゴン) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
アジアパシフィック (シンガポール) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
アジアパシフィック (シドニー) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
アジアパシフィック (東京) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
カナダ (中部) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
欧州 (フランクフルト) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
欧州 (パリ) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
欧州 (アイルランド) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
欧州 (ロンドン) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
アジアパシフィック (ムンバイ) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
南米 (サンパウロ) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Amazon Bedrock サービスクォータ

このセクションでは、Amazon Bedrock のサービスレベルのクォータについて説明します。

注記

アカウントのクォータ引き上げをリクエストするには、以下のステップを実行します。

  • 調整可能な列でクォータが「はい」とマークされている場合は、「Service Quotas ユーザーガイド」の「クォータの引き上げをリクエストする」の手順に従ってクォータを調整できます。 Service Quotas

  • 調整可能な列でクォータが「いいえ」とマークされている場合は、制限引き上げフォームを使用してリクエストを送信し、引き上げを検討できます。

  • オンデマンドモデル呼び出しクォータは、Service Quotas では調整できません。 AWS アカウント マネージャーに連絡して、引き上げを検討してください。圧倒的な需要により、既存のクォータ割り当てを消費するトラフィックを生成するお客様に優先権が与えられます。この条件を満たしていない場合、リクエストは拒否されることがあります。

コンソールインターフェイスで Amazon Bedrock のサービスクォータを表示するには、「サービスクォータの表示」の手順に従ってAmazon Bedrock をサービスとして選択します。次の表を参照することもできます。

名前 デフォルト 引き上げ可能 説明
(コンソール) 最大ドキュメントファイルサイズ (MB) サポートされている各リージョン: 200 いいえ 説明なし
(コンソール) ドキュメントファイルあたりの最大ページ数 サポートされている各リージョン: 20 いいえ 説明なし
エージェントあたりの APIs サポートされている各リージョン: 11 可能 エージェントに追加できる APIs の最大数。
エージェントあたりのアクショングループ サポートされている各リージョン: 20 可能 エージェントに追加できるアクショングループの最大数。
エージェントあたりのエージェントコラボレーター サポートされている各リージョン: 10 可能 エージェントに追加できる共同作業者エージェントの最大数。
フローあたりのエージェントノード数 サポートされている各リージョン: 10 いいえ エージェントノードの最大数。
アカウントあたりのエージェント サポートされている各リージョン: 200 可能 1 つのアカウント内のエージェントの最大数。
AssociateAgentKnowledgeBase リクエスト/秒 サポートされている各リージョン: 6 いいえ 1 秒あたりの AssociateAgentKnowledgeBase API リクエストの最大数。
エージェントあたりの関連付けられたエイリアス サポートされている各リージョン: 10 いいえ エージェントに関連付けることができるエイリアスの最大数。
エージェントあたりの関連付けられたナレッジベース サポートされている各リージョン: 2 可能 エージェントに関連付けることができるナレッジベースの最大数。
Claude 3 Haiku のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Claude 3 Haiku のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Claude 3 Opus のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Claude 3 Opus のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Claude 3 Sonnet のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Claude 3 Sonnet のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Claude 3.5 Haiku のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Claude 3.5 Haiku のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Claude 3.5 Sonnet のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Claude 3.5 Sonnet のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Claude 3.5 Sonnet v2 のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Claude 3.5 Sonnet v2 のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.1 405B 命令のバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Llama 3.1 405B インストラクションのバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.1 70B インストラクションのバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Llama 3.1 70B インストラクションのバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.1 8B インストラクションのバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Llama 3.1 8B インストラクションのバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.2 11B 命令のバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Llama 3.2 11B インストラクションのバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.2 1B 命令のバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] バッチ推論 Llama 3.2 1B 命令用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.2 3B インストラクションのバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Llama 3.2 3B インストラクションのバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.2 90B インストラクションのバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Llama 3.2 90B インストラクションのバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Llama 3.3 70B インストラクションのバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Llama 3.3 70B インストラクションのバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Mistral Large 2 (24.07) のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Mistral Large 2 (24.07) のバッチ推論のために送信された 1 つのファイルの最大サイズ (GB)。
Mistral Small のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Mistral Small のバッチ推論に送信された 1 つのファイルの最大サイズ (GB 単位)。
Nova Lite V1 のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Nova Lite V1 のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Nova Micro V1 のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Nova Micro V1 のバッチ推論のために送信された 1 つのファイルの最大サイズ (GB 単位)。
Nova Pro V1 のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Nova Pro V1 のバッチ推論用に送信された 1 つのファイルの最大サイズ (GB 単位)。
Titan マルチモーダル埋め込み G1 のバッチ推論入力ファイルサイズ (GB) サポートされている各リージョン: 1 [いいえ] Titan Multimodal Embeddings G1 のバッチ推論のために送信された 1 つのファイルの最大サイズ (GB 単位)。
Titan Text Embeddings V2 のバッチ推論入力ファイルサイズ (GB 単位) サポートされている各リージョン: 1 [いいえ] Titan Text Embeddings V2 のバッチ推論に送信された 1 つのファイルの最大サイズ (GB 単位)。
Claude 3 Haiku のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Claude 3 Haiku のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Claude 3 Opus のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Claude 3 Opus のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Claude 3 Sonnet のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Claude 3 Sonnet のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Claude 3.5 Haiku のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Claude 3.5 Haiku のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Claude 3.5 Sonnet のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Claude 3.5 Sonnet のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Claude 3.5 Sonnet v2 のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Claude 3.5 Sonnet v2 のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.1 405B 指示のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.1 405B 指示のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.1 70B 指示のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.1 70B インストラクションのバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.1 8B インストラクションのバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.1 8B インストラクションのバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.2 11B 命令のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.2 11B 指示のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.2 1B 命令のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.2 1B インストラクションのバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.2 3B 指示のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.2 3B インストラクションのバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.2 90B 指示のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.2 90B 指示のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Llama 3.3 70B 指示のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Llama 3.3 70B 指示のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Mistral Large 2 (24.07) のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Mistral Large 2 (24.07) のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB)。
Mistral Small のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Mistral Small のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Nova Lite V1 のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Nova Lite V1 のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Nova Micro V1 のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Nova Micro V1 のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Nova Pro V1 のバッチ推論ジョブサイズ (GB) サポートされている各リージョン: 100 いいえ Nova Pro V1 のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Titan マルチモーダル埋め込み G1 のバッチ推論ジョブサイズ (GB) サポートされている各リージョン:5 いいえ Titan Multimodal Embeddings G1 のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
Titan Text Embeddings V2 のバッチ推論ジョブサイズ (GB 単位) サポートされている各リージョン:5 いいえ Titan Text Embeddings V2 のバッチ推論ジョブに含まれるすべての入力ファイルの最大累積サイズ (GB 単位)。
エージェント指示の文字 サポートされている各リージョン: 20,000 いいえ エージェントの指示書の最大文字数。
フローあたりのコレクターノード サポートされている各リージョン: 1 [いいえ] コレクターノードの最大数。
アカウントあたりの同時取り込みジョブ サポートされている各リージョン:5 いいえ アカウントで同時に実行できる取り込みジョブの最大数。
データソースあたりの同時取り込みジョブ サポートされている各リージョン: 1 [いいえ] データソースに対して同時に実行できる取り込みジョブの最大数。
ナレッジベースあたりの同時取り込みジョブ サポートされている各リージョン: 1 [いいえ] ナレッジベースに対して同時に実行できる取り込みジョブの最大数。
同時モデルのインポートジョブ サポートされている各リージョン: 1 [いいえ] 同時に進行中のモデルインポートジョブの最大数。
フローあたりの条件ノード サポートされている各リージョン:5 いいえ 条件ノードの最大数。
条件ノードあたりの条件 サポートされている各リージョン:5 いいえ 条件ノードあたりの条件の最大数。
テキスト単位のコンテキストグラウンディングクエリの長さ サポートされている各リージョン: 1 [いいえ] コンテキストグラウンディングのクエリの最大長、テキスト単位
テキスト単位のコンテキストグラウンディングレスポンスの長さ サポートされている各リージョン:5 いいえ コンテキストグラウンディングのレスポンスの最大長、テキスト単位
テキスト単位のコンテキストグラウンディングソースの長さ

us-east-1: 100

us-west-2: 100

他のサポートされている各リージョン: 50

いいえ コンテキストグラウンディングのグラウンディングソースの最大長、テキスト単位
1 秒あたりの CreateAgent リクエスト数 サポートされている各リージョン: 6 いいえ 1 秒あたりの CreateAgent API リクエストの最大数。
1 秒あたりの CreateAgentActionGroup リクエスト数 サポートされている各リージョン: 12 いいえ 1 秒あたりの CreateAgentActionGroup API リクエストの最大数。
1 秒あたりの CreateAgentAlias リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreateAgentAlias API リクエストの最大数。
CreateBlueprint - アカウントあたりのブループリントの最大数 サポートされている各リージョン: 350 可能 説明なし
CreateBlueprint - 1 秒あたりのトランザクションのスロットリング制限 サポートされている各リージョン: 1 [いいえ] 説明なし
CreateBlueprintVersion - 設計図あたりの設計図バージョンの最大数 サポートされている各リージョン: 10 可能 説明なし
CreateBlueprintVersion - 1 秒あたりのトランザクション数の制限 サポートされている各リージョン: 1 [いいえ] 説明なし
1 秒あたりの CreateDataSource リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreateDataSource API リクエストの最大数。
1 秒あたりの CreateFlow リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreateFlow リクエストの最大数。
1 秒あたりの CreateFlowAlias リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreateFlowAlias リクエストの最大数。
1 秒あたりの CreateFlowVersion リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreateFlowVersion リクエストの最大数。
1 秒あたりの CreateKnowledgeBase リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreateKnowledgeBase API リクエストの最大数。
1 秒あたりの CreatePrompt リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreatePrompt リクエストの最大数。
1 秒あたりの CreatePromptVersion リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの CreatePromptVersion リクエストの最大数。
Amazon Nova Lite のクロスリージョン InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ Amazon Nova Lite でモデル推論のために 1 分間に送信できるリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Micro のクロスリージョン InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ Amazon Nova Micro でモデル推論のために 1 分間に送信できるリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Pro のクロスリージョン InvokeModel リクエスト/分 サポートされている各リージョン: 200 いいえ Amazon Nova Pro のモデル推論に 1 分間に送信できるリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude 3.5 Haiku のクロスリージョン InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Sonnet V2 のクロスリージョン InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ Anthropic Claude 3.5 Sonnet V2 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Lite のクロスリージョン InvokeModel トークン/分 サポートされている各リージョン: 4,000,000 いいえ Amazon Nova Lite のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Micro のクロスリージョン InvokeModel トークン/分 サポートされている各リージョン: 4,000,000 いいえ Amazon Nova Micro のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Pro のクロスリージョン InvokeModel トークン/分 サポートされている各リージョン: 800,000 いいえ Amazon Nova Pro のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude 3.5 Haiku のクロスリージョン InvokeModel トークン/分 サポートされている各リージョン: 4,000,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Sonnet V2 のクロスリージョン InvokeModel トークン/分 サポートされている各リージョン: 800,000 いいえ Anthropic Claude 3.5 Sonnet V2 のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude 3.7 Sonnet V1 のクロスリージョンモデル推論リクエスト/分 サポートされている各リージョン: 250 いいえ Anthropic Claude 3.7 Sonnet V1 でモデル推論のために 1 分間に送信できるクロスリージョンリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
DeepSeek R1 V1 のクロスリージョンモデル推論リクエスト/分 サポートされている各リージョン: 200 いいえ DeepSeek R1 V1 のモデル推論に 1 分間に送信できるクロスリージョンリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Meta Llama 3.3 70B インストラクションのクロスリージョンモデル推論リクエスト/分 サポートされている各リージョン: 800 いいえ Meta Llama 3.3 70B 指示に対して 1 分間にモデル推論に送信できるクロスリージョンリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude 3.7 Sonnet V1 のクロスリージョンモデル推論トークン/分 サポートされている各リージョン: 1,000,000 いいえ Anthropic Claude 3.7 Sonnet V1 でモデル推論のために 1 分間に送信できるクロスリージョントークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
DeepSeek R1 V1 のクロスリージョンモデル推論トークン/分 サポートされている各リージョン: 200,000 いいえ DeepSeek R1 V1 のモデル推論に 1 分間に送信できるクロスリージョントークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Meta Llama 3.3 70B インストラクションのクロスリージョンモデル推論トークン/分 サポートされている各リージョン: 600,000 いいえ Meta Llama 3.3 70B 指示でモデル推論のために 1 分間に送信できるクロスリージョントークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
アカウントあたりのカスタムモデル サポートされている各リージョン: 100 可能 アカウント内のカスタムモデルの最大数。
ナレッジベースあたりのデータソース サポートされている各リージョン:5 いいえ ナレッジベースあたりのデータソースの最大数。
DeleteAgent リクエスト/秒 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteAgent API リクエストの最大数。
1 秒あたりの DeleteAgentActionGroup リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteAgentActionGroup API リクエストの最大数。
1 秒あたりの DeleteAgentAlias リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteAgentAlias API リクエストの最大数。
1 秒あたりの DeleteAgentVersion リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteAgentVersion API リクエストの最大数。
DeleteBlueprint - 1 秒あたりのトランザクションのスロットリング制限 サポートされている各リージョン: 1 [いいえ] 説明なし
1 秒あたりの DeleteDataSource リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteDataSource API リクエストの最大数。
1 秒あたりの DeleteFlow リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteFlow リクエストの最大数。
1 秒あたりの DeleteFlowAlias リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteFlowAlias リクエストの最大数。
1 秒あたりの DeleteFlowVersion リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteFlowVersion リクエストの最大数。
1 秒あたりの DeleteKnowledgeBase リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeleteKnowledgeBase API リクエストの最大数。
1 秒あたりの DeletePrompt リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの DeletePrompt リクエストの最大数。
フィールドの説明の長さ (文字) サポートされている各リージョン: 300 いいえ 説明なし
DisassociateAgentKnowledgeBase リクエスト/秒 サポートされている各リージョン: 4 いいえ 1 秒あたりの DisassociateAgentKnowledgeBase API リクエストの最大数。
エージェントごとに有効になっているアクショングループ サポートされている各リージョン: 11 可能 エージェントで有効にできるアクショングループの最大数。
推論プロファイルあたりのエンドポイント サポートされている各リージョン:5 いいえ 推論プロファイル内のエンドポイントの最大数。エンドポイントは、モデルと、モデルへの呼び出しリクエストの送信先のリージョンによって定義されます。
トピックあたりのフレーズの例 サポートされている各リージョン:5 いいえ トピックごとに含めることができるトピック例の最大数
取り込みジョブごとに追加または更新するファイル サポートされている各リージョン: 5,000,000 いいえ 取り込みジョブごとに取り込むことができる新規および更新されたファイルの最大数。
取り込みジョブごとに削除するファイル サポートされている各リージョン: 5,000,000 いいえ 取り込みジョブごとに削除できるファイルの最大数。
フローあたりのフローエイリアス サポートされている各リージョン: 10 いいえ フローエイリアスの最大数。
フローあたりのフローバージョン サポートされている各リージョン: 10 いいえ フローバージョンの最大数。
アカウントあたりのフロー サポートされている各リージョン: 100 可能 アカウントあたりのフローの最大数。
1 秒あたりの GetAgent リクエスト数 サポートされている各リージョン: 15 いいえ 1 秒あたりの GetAgent API リクエストの最大数。
1 秒あたりの GetAgentActionGroup リクエスト数 サポートされている各リージョン: 20 いいえ 1 秒あたりの GetAgentActionGroup API リクエストの最大数。
1 秒あたりの GetAgentAlias リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetAgentAlias API リクエストの最大数。
1 秒あたりの GetAgentKnowledgeBase リクエスト数 サポートされている各リージョン: 15 いいえ 1 秒あたりの GetAgentKnowledgeBase API リクエストの最大数。
1 秒あたりの GetAgentVersion リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetAgentVersion API リクエストの最大数。
GetBlueprint - 1 秒あたりのトランザクション数の制限 サポートされている各リージョン:5 いいえ 説明なし
GetDataAutomationStatus - 1 秒あたりのトランザクション数の制限 サポートされている各リージョン:5 いいえ 説明なし
1 秒あたりの GetDataSource リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetDataSource API リクエストの最大数。
1 秒あたりの GetFlow リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetFlow リクエストの最大数。
1 秒あたりの GetFlowAlias リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetFlowAlias リクエストの最大数。
1 秒あたりの GetFlowVersion リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetFlowVersion リクエストの最大数。
1 秒あたりの GetIngestionJob リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetIngestionJob API リクエストの最大数。
GetKnowledgeBase リクエスト/秒 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetKnowledgeBase API リクエストの最大数。
1 秒あたりの GetPrompt リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの GetPrompt リクエストの最大数。
アカウントあたりのガードレール サポートされている各リージョン: 100 いいえ アカウント内のガードレールの最大数
アカウントあたりのインポートされたモデル サポートされている各リージョン: 3 可能 アカウントでインポートされたモデルの最大数。
アカウントあたりの推論プロファイル サポートされている各リージョン: 1,000 可能 アカウント内の推論プロファイルの最大数。
取り込みジョブのファイルサイズ サポートされている各リージョン: 50 いいえ 取り込みジョブ内のファイルの最大サイズ (MB)。
取り込みジョブのサイズ サポートされている各リージョン: 100 いいえ 取り込みジョブの最大サイズ (GB 単位)。
フローあたりの入力ノード数 サポートされている各リージョン: 1 [いいえ] フロー入力ノードの最大数。
InvokeDataAutomationAsync - オーディオ - 同時ジョブの最大数 サポートされている各リージョン: 20 可能 説明なし
InvokeDataAutomationAsync - ドキュメント - 同時ジョブの最大数 サポートされている各リージョン: 25 可能 説明なし
InvokeDataAutomationAsync - イメージ - 同時ジョブの最大数 サポートされている各リージョン: 20 可能 説明なし
InvokeDataAutomationAsync - 開いているジョブの最大数 サポートされている各リージョン: 1,800 いいえ 説明なし
InvokeDataAutomationAsync - 1 秒あたりのトランザクションのスロットリング制限 サポートされている各リージョン:5 いいえ 説明なし
InvokeDataAutomationAsync - ビデオ - 同時ジョブの最大数 サポートされている各リージョン: 20 可能 説明なし
フローあたりのイテレーターノード数 サポートされている各リージョン: 1 [いいえ] イテレーターノードの最大数。
フローあたりのナレッジベースノード サポートされている各リージョン: 10 いいえ ナレッジベースノードの最大数。
アカウントあたりのナレッジベース サポートされている各リージョン: 100 いいえ アカウントあたりのナレッジベースの最大数。
フローあたりの Lambda 関数ノード サポートされている各リージョン: 10 いいえ Lambda 関数ノードの最大数。
フローあたりの Lex ノード数 サポートされている各リージョン:5 いいえ Lex ノードの最大数。
1 秒あたりの ListAgentActionGroups リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListAgentActionGroups API リクエストの最大数。
ListAgentAliases リクエスト/秒 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListAgentAliases API リクエストの最大数。
ListAgentKnowledgeBases リクエスト/秒 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListAgentKnowledgeBases API リクエストの最大数。
1 秒あたりの ListAgentVersions リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListAgentVersions API リクエストの最大数。
1 秒あたりの ListAgents リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListAgents API リクエストの最大数。
ListBlueprint - 1 秒あたりのトランザクション数の制限 サポートされている各リージョン:5 いいえ 説明なし
1 秒あたりの ListDataSources リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListDataSources API リクエストの最大数。
ListFlowAliases リクエスト/秒 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListFlowAliases リクエストの最大数。
1 秒あたりの ListFlowVersions リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListFlowVersions リクエストの最大数。
1 秒あたりの ListFlows リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListFlows リクエストの最大数。
1 秒あたりの ListIngestionJobs リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListIngestionJobs API リクエストの最大数。
1 秒あたりの ListKnowledgeBases リクエスト数 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListKnowledgeBases API リクエストの最大数。
ListPrompts リクエスト/秒 サポートされている各リージョン: 10 いいえ 1 秒あたりの ListPrompts リクエストの最大数。
最大オーディオサンプルレート (Hz) サポートされている各リージョン: 48,000 いいえ 説明なし
プロジェクトあたりの最大設計図 (ドキュメント) サポートされている各リージョン: 40 いいえ 説明なし
プロジェクトあたりの最大設計図 (イメージ) サポートされている各リージョン: 1 [いいえ] 説明なし
JSON 設計図の最大サイズ (文字) サポートされている各リージョン: 100,000 いいえ 説明なし
フィールド階層の最大レベル サポートされている各リージョン: 1 [いいえ] 説明なし
ドキュメントあたりの最大ページ数

us-east-1: 1,500

他のサポートされている各リージョン: 1,000

いいえ 説明なし
最大解像度 サポートされている各リージョン: 8,000 いいえ 説明なし
最大オーディオファイルサイズ (MB) サポートされている各リージョン: 2,048 いいえ 説明なし
最大オーディオ長 (分) サポートされている各リージョン: 240 いいえ 説明なし
最大ドキュメントファイルサイズ (MB) サポートされている各リージョン: 500 いいえ 説明なし
最大イメージファイルサイズ (MB) サポートされている各リージョン:5 いいえ 説明なし
留出カスタマイズジョブの最大入力ファイルサイズ サポートされている各リージョン: 2 GB いいえ 留出カスタマイズジョブの最大入力ファイルサイズ。
留出カスタマイズジョブの最大行長 サポートされている各リージョン: 16 キロバイト いいえ 留出カスタマイズジョブの入力ファイルの最大行長。
推論開始リクエストあたりの設計図の最大数 (ドキュメント) サポートされている各リージョン: 1 [いいえ] 説明なし
推論開始リクエストあたりの設計図の最大数 (イメージ) サポートされている各リージョン: 1 [いいえ] 説明なし
設計図あたりのリストフィールドの最大数 サポートされている各リージョン: 15 いいえ 説明なし
留出カスタマイズジョブのプロンプトの最大数 サポートされている各リージョン: 15,000 いいえ 留出カスタマイズジョブに必要なプロンプトの最大数。
Amazon Nova Micro V1 留出カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長 サポートされている各リージョン: 32,000 いいえ Amazon Nova Micro V1 留出カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長。
Amazon Nova V1 留出カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長 サポートされている各リージョン: 32,000 いいえ Amazon Nova V1 留出カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長。
Anthropic Claude 3 haiku 20240307「」 V1 留出カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長」 サポートされている各リージョン: 32,000 いいえ Anthropic Claude 3 haiku 20240307「」 V1 留出カスタマイズジョブ」の学生モデルのファインチューニングコンテキストの最大長。
Llama 3.1 70B Instruct V1 distillation カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長 サポートされている各リージョン: 16,000 いいえ Llama 3.1 70B Instruct V1 distillation カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長。
Llama 3.1 8B Instruct V1 distillation カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長 サポートされている各リージョン: 32,000 いいえ Llama 3.1 8B 指示 V1 抽出カスタマイズジョブの学生モデルのファインチューニングコンテキストの最大長。
最大ビデオファイルサイズ (MB) サポートされている各リージョン: 10,240 いいえ 説明なし
最大動画長 (分) サポートされている各リージョン: 240 いいえ 説明なし
最小オーディオサンプルレート (Hz) サポートされている各リージョン: 8,000 いいえ 説明なし
最小オーディオ長 (ミリ秒) サポートされている各リージョン: 500 いいえ 説明なし
留出カスタマイズジョブのプロンプトの最小数 サポートされている各リージョン: 100 いいえ 留出カスタマイズジョブに必要なプロンプトの最小数。
Claude 3 Haiku のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Claude 3 Haiku のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Claude 3 Opus のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Claude 3 Opus のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Claude 3 Sonnet のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Claude 3 Sonnet のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Claude 3.5 Haiku のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Claude 3.5 Haiku のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Claude 3.5 Sonnet のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Claude 3.5 Sonnet のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Claude 3.5 Sonnet v2 のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Claude 3.5 Sonnet v2 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.1 405B 指示のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Llama 3.1 405B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.1 70B 指示のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Llama 3.1 70B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.1 8B 指示のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Llama 3.1 8B 指示のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.2 11B 指示のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Llama 3.2 11B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.2 1B 指示のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ バッチ推論ジョブ Llama 3.2 1B 指示内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.2 3B 指示のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Llama 3.2 3B 指示のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.2 90B 指示のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Llama 3.2 90B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Llama 3.3 70B インストラクションのバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Llama 3.3 70B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Mistral Large 2 (24.07) のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Mistral Large 2 (24.07) のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Mistral Small のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Mistral Small のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Nova Lite V1 のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Nova Lite V1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Nova Micro V1 のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Nova Micro V1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Nova Pro V1 のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Nova Pro V1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Titan マルチモーダル埋め込み G1 のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Titan Multimodal Embeddings G1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
Titan Text Embeddings V2 のバッチ推論ジョブあたりのレコードの最小数 サポートされている各リージョン: 100 いいえ Titan Text Embeddings V2 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最小数。
ベースモデル間のモデル単位のコミットなしプロビジョンドスループット サポートされている各リージョン: 2 可能 ベースモデルのコミットなしプロビジョンドスループットに分散できるモデルユニットの最大数
カスタムモデル全体のモデル単位のコミットなしプロビジョンドスループット サポートされている各リージョン: 2 可能 カスタムモデルのコミットなしプロビジョンドスループットに分散できるモデルユニットの最大数
AI21 Labs Jurassic-2 Mid のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 AI21 Labs Jurassic-2 Mid のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
AI21 Labs Jurassic-2 Ultra のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 AI21 Labs Jurassic-2 Ultra のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Nova Canvas のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Nova Canvas のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Embeddings G1 のプロビジョニング済みモデルあたりのモデル単位 - テキスト サポートされている各リージョン: 0 可能 Amazon Titan Embeddings G1 - Text のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Image Generator G1 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Image Generator G1 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Image Generator G2 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Image Generator G2 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Lite V1 4K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Lite V1 4K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan マルチモーダル埋め込み G1 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan マルチモーダル埋め込み G1 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text Embeddings V2 のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Embeddings V2 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text G1 - Express 8K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text G1 - Express 8K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Titan Text Premier V1 32K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Titan Text Premier V1 32K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Haiku 200K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3 Haiku 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Haiku 48K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3 Haiku 48K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Sonnet 200K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3 Sonnet 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3 Sonnet 28K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3 Sonnet 28K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Haiku 16K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Haiku 16K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Haiku 200K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Haiku 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Haiku 64K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Haiku 64K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 18K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 200K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet 51K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet 51K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet V2 18K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet V2 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet V2 200K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet V2 200K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude 3.5 Sonnet V2 51K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude 3.5 Sonnet V2 51K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude Instant V1 100K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude Instant V1 100K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2 100K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude V2 100K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2 18K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2.1 18K のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Anthropic Claude V2.1 18K のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Anthropic Claude V2.1 200K のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Anthropic Claude V2.1 200k のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンドのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere コマンドのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Command Light のプロビジョニングされたモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Cohere Command Light のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere コマンド R のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Cohere Command R 128k のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Command R Plus のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Command R Plus 128k のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Embed English のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Cohere Embed English のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Cohere Embed Multilingual のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Cohere Embed Multilingual のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
DeepSeek R1 Distill Llama 3.3 70B のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 DeepSeek R1 Distill Llama 3.3 70B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 13B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 13B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 70B のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Meta Llama 2 70B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 Chat 13B のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 2 Chat 13B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 2 Chat 70B のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 2 Chat 70B のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3 70B 指示のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3 70B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3 8B 指示のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3 8B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.1 70B インストラクションのプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3.1 70B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.1 8B インストラクションのプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3.1 8B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Meta Llama 3.3 70B インストラクションのプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Meta Llama 3.3 70B インストラクションのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Mistral Large 2407 のプロビジョニング済みモデルあたりのモデルユニット サポートされている各リージョン: 0 可能 Mistral Large 2407 のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Mistral Small のプロビジョンドモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Mistral Small のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Stability.ai 「https://Stable Diffusion XL 0.8」のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Stability.ai 「https://Stable Diffusion XL 0.8」のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Stability.ai 「https://Stable Diffusion XL 1.0」のプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Stability.ai 「https://Stable Diffusion XL 1.0」のプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
Amazon Nova Micro の 128,000 コンテキスト長バリアントのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Nova Micro の 128k コンテキスト長バリアントのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Amazon Nova Lite の 24,000 コンテキスト長バリアントのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Nova Lite の 24,000 コンテキスト長バリアントのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Amazon Nova Micro の 24,000 コンテキスト長バリアントのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Nova Micro の 24,000 コンテキスト長バリアントのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Amazon Nova Pro の 24,000 コンテキスト長バリアントのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Nova Pro の 24,000 コンテキスト長バリアントのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Amazon Nova Lite の 300,000 コンテキスト長バリアントのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Nova Lite の 300,000 コンテキスト長バリアントのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数
Amazon Nova Pro の 300,000 コンテキスト長バリアントのプロビジョニング済みモデルあたりのモデル単位 サポートされている各リージョン: 0 可能 Amazon Nova Pro の 300k コンテキスト長バリアントのプロビジョニング済みモデルに割り当てることができるモデルユニットの最大数。
ベースモデル Amazon Nova Canvas V1.0 用に作成されたプロビジョンドスループットのコミットなしモデルユニット サポートされている各リージョン: 1 [いいえ] ベースモデル Amazon Nova Canvas V1.0 用に作成されたプロビジョンドスループットに割り当てることができるモデルユニットの最大数。コミットメントなし。
カスタムモデル Amazon Nova Canvas V1 0 用に作成されたプロビジョンドスループットのコミットなしモデルユニット サポートされている各リージョン: 1 [いいえ] カスタムモデル Amazon Nova Canvas V1 0 用に作成されたプロビジョンドスループットに割り当てることができるモデルユニットの最大数。コミットメントなし。
同時自動モデル評価ジョブの数 サポートされている各リージョン: 20 いいえ 現在のリージョンで、このアカウントで一度に指定できる自動モデル評価ジョブの最大数。
ヒューマンワーカーを使用する同時モデル評価ジョブの数 サポートされている各リージョン: 10 いいえ 現在のリージョンで、このアカウントで一度に指定できるヒューマンワーカーを使用するモデル評価ジョブの最大数。
カスタムメトリクスの数 サポートされている各リージョン: 10 いいえ ヒューマンワーカーを使用するモデル評価ジョブで指定できるカスタムメトリクスの最大数。
人間ベースのモデル評価ジョブのカスタムプロンプトデータセットの数 サポートされている各リージョン: 1 [いいえ] 現在のリージョンで、このアカウントのヒューマンベースのモデル評価ジョブで指定できるカスタムプロンプトデータセットの最大数。
アカウントあたりのカスタムプロンプトルーターの数 サポートされている各リージョン: 500 いいえ リージョンごとにアカウントごとに作成できるカスタムプロンプトルーターの最大数。
ジョブあたりのデータセットの数 サポートされている各リージョン:5 いいえ 自動モデル評価ジョブで指定できるデータセットの最大数。これには、カスタムプロンプトデータセットと組み込みプロンプトデータセットの両方が含まれます。
評価ジョブの数 サポートされている各リージョン: 5,000 いいえ このアカウントで現在のリージョンに作成できるモデル評価ジョブの最大数。
データセットあたりのメトリクスの数 サポートされている各リージョン: 3 いいえ 自動モデル評価ジョブでデータセットごとに指定できるメトリクスの最大数。これには、カスタムメトリクスと組み込みメトリクスの両方が含まれます。
ヒューマンワーカーを使用するモデル評価ジョブ内のモデルの数 サポートされている各リージョン: 2 いいえ ヒューマンワーカーを使用するモデル評価ジョブで指定できるモデルの最大数。
自動モデル評価ジョブのモデル数 サポートされている各リージョン: 1 [いいえ] 自動モデル評価ジョブで指定できるモデルの最大数。
カスタムプロンプトデータセット内のプロンプトの数 サポートされている各リージョン: 1,000 いいえ カスタムプロンプトデータセットに含めることができるプロンプトの最大数。
オンデマンド ApplyGuardrail コンテンツフィルターポリシーのテキスト単位/秒

us-east-1: 200

us-west-2: 200

他のサポートされている各リージョン: 25

可能 コンテンツフィルターポリシーで処理できる 1 秒あたりのテキストユニットの最大数
オンデマンド ApplyGuardrail 拒否トピックポリシーテキストユニット/秒

us-east-1: 50

us-west-2: 50

他のサポートされている各リージョン: 25

可能 1 秒あたりに拒否されたトピックポリシーに対して処理できるテキストユニットの最大数
オンデマンド ApplyGuardrail 機密情報フィルターポリシーのテキスト単位/秒

us-east-1: 200

us-west-2: 200

他のサポートされている各リージョン: 25

可能 1 秒あたりの機密情報フィルターポリシーで処理できるテキストユニットの最大数
オンデマンド ApplyGuardrail ワードフィルターポリシーのテキスト単位/秒

us-east-1: 200

us-west-2: 200

他のサポートされている各リージョン: 25

可能 1 秒あたりに Word フィルターポリシーで処理できるテキストユニットの最大数。
オンデマンド ApplyGuardrail コンテキストグラウンディングポリシーのテキスト単位/秒 サポートされている各リージョン: 106 可能 コンテキストグラウンディングポリシーで処理できる 1 秒あたりのテキストユニットの最大数
オンデマンド ApplyGuardrail リクエスト/秒

us-east-1: 50

us-west-2: 50

他のサポートされている各リージョン: 25

可能 1 秒あたりに実行できる ApplyGuardrail API コールの最大数
Amazon Nova Reel のオンデマンド InvokeModel 同時リクエスト サポートされている各リージョン: 10 いいえ Amazon Nova Reel のモデル推論に送信できる同時リクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
AI21 Labs Jamba 1.5 Large のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ AI21 Labs Jamba 1.5 Large で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と InvokeModel のリクエストの合計を考慮します。
AI21 Labs Jamba 1.5 Mini のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ AI21 Labs Jamba 1.5 Mini で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と InvokeModel のリクエストの合計を考慮します。
AI21 Labs Jamba Instruct のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ AI21 Labs Jamba Instruct で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse と InvokeModel のリクエストの合計を考慮します。
AI21 Labs Jurassic-2 Mid のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、AI21 Labs Jurassic-2 Mid の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
AI21 Labs Jurassic-2 Ultra のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、AI21 Labs Jurassic-2 Ultra の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Amazon Nova Canvas のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ Amazon Nova Canvas でモデル推論のために 1 分間に送信できるリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Lite のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 1,000 いいえ Amazon Nova Lite でモデル推論のために 1 分間に送信できるリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Micro のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 1,000 いいえ Amazon Nova Micro でモデル推論のために 1 分間に送信できるリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Pro のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ Amazon Nova Pro のモデル推論に 1 分間に送信できるリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Rerank 1.0 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 200 いいえ Amazon Rerank 1.0 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Amazon Titan Image Generator G1 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 いいえ Amazon Titan Image Generator G1 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Amazon Titan Image Generator G1 V2 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 いいえ Amazon Titan Image Generator G V2 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Amazon Titan マルチモーダル埋め込み G1 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ Amazon Titan マルチモーダル埋め込み G1 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Amazon Titan Text Embeddings のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ Amazon Titan Text Embeddings で 1 分間に InvokeModel を呼び出すことができる最大回数
Amazon Titan Text Embeddings V2 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ Amazon Titan Text Embeddings V2 で 1 分間に InvokeModel を呼び出すことができる最大回数
Amazon Titan Text Express のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Amazon Titan Text Express の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Amazon Titan Text Lite のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Amazon Titan Text Lite の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Amazon Titan Text Premier のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Amazon Titan Text Premier の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3 Haiku のオンデマンド InvokeModel リクエスト/分

us-east-1: 1,000

us-west-2: 1,000

ap-northeast-1: 200

ap-southeast-1: 200

サポートされている他の各リージョン: 400

いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Opus のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 50 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Opus に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3 Sonnet のオンデマンド InvokeModel リクエスト/分

us-east-1: 500

us-west-2: 500

他のサポートされている各リージョン: 100

いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Anthropic Claude 3 Sonnet に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude 3.5 Haiku のオンデマンド InvokeModel リクエスト/分

us-west-1: 400

他のサポートされている各リージョン: 1,000

いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Sonnet のオンデマンド InvokeModel リクエスト/分

us-east-1: 50

us-east-2: 50

us-west-2: 250

ap-northeast-2: 50

ap-south-1: 50

ap-southeast-2: 50

他のサポートされている各リージョン: 20

いいえ Anthropic Claude 3.5 Sonnet で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude 3.5 Sonnet V2 のオンデマンド InvokeModel リクエスト/分

us-west-2: 250

他のサポートされている各リージョン: 50

いいえ Anthropic Claude 3.5 Sonnet V2 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude Instant のオンデマンド InvokeModel リクエスト/分

us-east-1: 1,000

us-west-2: 1,000

サポートされている他の各リージョン: 400

いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Anthropic Claude Instant の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Anthropic Claude V2 のオンデマンド InvokeModel リクエスト/分

us-east-1: 500

us-west-2: 500

他のサポートされている各リージョン: 100

いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Anthropic Claude V2 の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンドのオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Cohere コマンドの InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンドライトのオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 800 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Cohere コマンドライトの InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere コマンド R のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Cohere コマンド R 128k に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere Command R Plus のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Cohere Command R Plus 128k に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Cohere Embed English のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ Cohere Embed English で 1 分間に InvokeModel を呼び出すことができる最大回数。
Cohere Embed Multilingual のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 2,000 いいえ Cohere Embed Multilingual で 1 分間に InvokeModel を呼び出すことができる最大回数。
Cohere Rerank 3.5 のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 250 いいえ Cohere Rerank 3.5 で 1 分間に InvokeModel を呼び出すことができる最大回数。
Meta Llama 2 13B のオンデマンド InvokeModel リクエスト/分 13B サポートされている各リージョン: 800 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Meta Llama 2 13B に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 70B のオンデマンド InvokeModel リクエスト/分 70B サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Meta Llama 2 70B に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 Chat 13B のオンデマンド InvokeModel リクエスト/分 13B サポートされている各リージョン: 800 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Meta Llama 2 Chat 13B の InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 2 Chat 70B のオンデマンド InvokeModel リクエスト/分 70B サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Meta Llama 2 Chat 70B に対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 3 70B Instruct のオンデマンド InvokeModel リクエスト/分 70B サポートされている各リージョン: 400 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Meta Llama 3 70B インストラクションの InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Meta Llama 3 8B Instruct のオンデマンド InvokeModel リクエスト/分 8B サポートされている各リージョン: 800 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。クォータは、Meta Llama 3 8B インストラクションに対する InvokeModel リクエストと InvokeModelWithResponseStream リクエストの合計を考慮します。
Mistral 7B Instruct のオンデマンド InvokeModel リクエスト/分 7B サポートされている各リージョン: 800 いいえ Mistral mistral-7b-instruct-v0 で 1 分間に InvokeModel を呼び出すことができる最大回数
Mistral AI Mistral Small のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ Mistral AI Mistral Small で 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数
Mistral Large のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ Mistral mistral-large-2402-v1 に対して 1 分間に InvokeModel と InvokeModelWithResponseStream を呼び出すことができる最大回数
Mistral Mixtral 8x7b Instruct のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 400 いいえ Mistral mixtral-8x7b-v0 で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai 「https://Stable Diffusion 3 Large」のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 15 いいえ Stability.ai 「https://Stable Diffusion 3 Large」で 1 分間に InvokeModel を呼び出すことができる最大回数。
Stability.ai 「https://Stable Diffusion 3 Medium」のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 いいえ Stability.ai 「https://astable Diffusion 3 Medium」で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai://Stable Diffusion 3.5 Large」のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 15 いいえ クォータは、Stability.ai://www.stable Diffusion 3.5 Large」の InvokeModel、InvokeModelWithResponseStream、Converse、および ConverseStream に対するリクエストの合計を考慮します。
Stability.ai 「https://Stable Diffusion XL 0.8」のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 いいえ Stability.ai 「https://stable Diffusion XL 0.8」で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai 「https://Stable Diffusion XL 1.0」のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 60 いいえ Stability.ai 「https://astable Diffusion XL 1.0」で 1 分間に InvokeModel を呼び出すことができる最大回数
Stability.ai://www.comstable Image Core」のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 90 いいえ Stability.ai 「https://www.comstable Image Core」で 1 分間に InvokeModel を呼び出すことができる最大回数。
Stability.ai 「https://www.comstable Image Ultra」のオンデマンド InvokeModel リクエスト/分 サポートされている各リージョン: 10 いいえ Stability.ai 「https://astable Image Ultra」で 1 分間に InvokeModel を呼び出すことができる最大回数。
AI21 Labs Jamba 1.5 Large のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ AI21 Labs Jamba 1.5 Large のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse と InvokeModel のトークンの合計を考慮します。
AI21 Labs Jamba 1.5 Mini のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ AI21 Labs Jamba 1.5 Mini のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse と InvokeModel のトークンの合計を考慮します。
AI21 Labs Jamba Instruct のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ AI21 Labs Jamba Instruct のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse と InvokeModel のトークンの合計を考慮します。
AI21 Labs Jurassic-2 Mid のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ AI21 Labs Jurassic-2 Mid で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
AI21 Labs Jurassic-2 Ultra のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ AI21 Labs Jurassic-2 Ultra で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Amazon Nova Lite のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000,000 いいえ Amazon Nova Lite のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Micro のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000,000 いいえ Amazon Nova Micro のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Nova Pro のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 400,000 いいえ Amazon Nova Pro のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Amazon Titan Image Generator G1 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000 いいえ Amazon Titan Image Generator G1 で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Amazon Titan Image Generator G1 V2 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 2,000 いいえ Amazon Titan Image Generator G1 V2 で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Amazon Titan マルチモーダル埋め込み G1 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ Amazon Titan マルチモーダル埋め込み G1 で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Amazon Titan Text Embeddings のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ Amazon Titan Text Embeddings で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Amazon Titan Text Embeddings V2 のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ Amazon Titan Text Embeddings V2 で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Amazon Titan Text Express のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Amazon Titan Text Express の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Amazon Titan Text Lite のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Amazon Titan Text Lite の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Amazon Titan Text Premier のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Amazon Titan Text Premier の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Haiku のオンデマンド InvokeModel トークン/分

us-east-1: 2,000,000

us-west-2: 2,000,000

ap-northeast-1: 200,000

ap-southeast-1: 200,000

サポートされている他の各リージョン: 300,000

いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Anthropic Claude 3 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Opus のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 400,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Anthropic Claude 3 Opus の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3 Sonnet のオンデマンド InvokeModel トークン/分

us-east-1: 1,000,000

us-west-2: 1,000,000

サポートされている他の各リージョン: 200,000

いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Anthropic Claude 3 Sonnet の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Haiku のオンデマンド InvokeModel トークン/分

us-west-1: 300,000

サポートされている他の各リージョン: 2,000,000

いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Sonnet のオンデマンド InvokeModel トークン/分

us-east-1: 400,000

us-east-2: 400,000

us-west-2: 2,000,000

ap-northeast-2: 400,000

ap-south-1: 400,000

ap-southeast-2: 400,000

サポートされている他の各リージョン: 200,000

いいえ Anthropic Claude 3.5 Sonnet のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude 3.5 Sonnet V2 のオンデマンド InvokeModel トークン/分

us-west-2: 2,000,000

サポートされている他の各リージョン: 400,000

いいえ Anthropic Claude 3.5 Sonnet V2 のモデル推論に 1 分間に送信できるトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Anthropic Claude Instant のオンデマンド InvokeModel トークン/分

us-east-1: 1,000,000

us-west-2: 1,000,000

サポートされている他の各リージョン: 300,000

いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Anthropic Claude Instant の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude V2 のオンデマンド InvokeModel トークン/分

us-east-1: 500,000

us-west-2: 500,000

サポートされている他の各リージョン: 200,000

いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Anthropic Claude V2 の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere コマンドのオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Cohere コマンドの InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere Command Light のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ Cohere Command Light で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Cohere コマンド R のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Cohere コマンド R 128k の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere Command R Plus のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Cohere Command R Plus 128k の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Cohere Embed English のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ Cohere Embed English で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Cohere Embed Multilingual のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ Cohere Embed Multilingual で InvokeModel を通じて 1 分間に提供できるトークンの最大数。
Meta Llama 2 13B のオンデマンド InvokeModel トークン/分 13B サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Meta Llama 2 13B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 70B のオンデマンド InvokeModel トークン/分 70B サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Meta Llama 2 70B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 Chat 13B のオンデマンド InvokeModel トークン/分 13B サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Meta Llama 2 Chat 13B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 2 Chat 70B のオンデマンド InvokeModel トークン/分 70B サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Meta Llama 2 Chat 70B の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3 70B Instruct のオンデマンド InvokeModel トークン/分 70B サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Meta Llama 3 70B インストラクションの InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3 8B Instruct のオンデマンド InvokeModel トークン/分 8B サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Meta Llama 3 8B インストラクションの InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral 7B Instruct のオンデマンド InvokeModel トークン/分 7B サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Mistral AI Mistral 7B Instruct の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral Large のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Mistral AI Mistral Large の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mistral Small のオンデマンド InvokeModel トークン/分 サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Mistral AI Mistral Small の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Mistral AI Mixtral 8X7BB Instruct のオンデマンド InvokeModel トークン/分 8X7BB サポートされている各リージョン: 300,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。クォータは、Mistral mixtral-8x7b-instruct-v0 の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Haiku のオンデマンドレイテンシー最適化 InvokeModel リクエスト/分 サポートされている各リージョン: 100 いいえ InvokeModel と InvokeModelWithResponseStream を 1 分間に呼び出すことができる最大回数。レイテンシーの最適化が設定されている場合、クォータは Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Anthropic Claude 3.5 Haiku のオンデマンドレイテンシー最適化 InvokeModel トークン/分 サポートされている各リージョン: 500,000 いいえ InvokeModel と InvokeModelWithResponseStream を通じて 1 分間に提供できるトークンの最大数。レイテンシーの最適化が設定されている場合、クォータは Anthropic Claude 3.5 Haiku の InvokeModel トークンと InvokeModelWithResponseStream トークンの合計を考慮します。
Meta Llama 3.1 405B インストラクションのオンデマンドレイテンシー最適化モデル推論リクエスト/分 サポートされている各リージョン: 100 いいえ レイテンシーの最適化が設定されている場合に、Meta Llama 3.1 405B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.1 70B インストラクションのオンデマンドレイテンシー最適化モデル推論リクエスト/分 サポートされている各リージョン: 100 いいえ レイテンシーの最適化が設定されている場合、Meta Llama 3.1 70B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.1 405B インストラクションのオンデマンドレイテンシー最適化モデル推論トークン/分 サポートされている各リージョン: 40,000 いいえ レイテンシーの最適化が設定されている場合に、Meta Llama 3.1 405B インストラクションに対してモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.1 70b Instruct のオンデマンドレイテンシー最適化モデル推論トークン/分 サポートされている各リージョン: 40,000 いいえ レイテンシーの最適化が設定されている場合、Meta Llama 3.1 70b 指示に対して 1 分間にモデル推論に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Luma Ray V2 のオンデマンドモデル推論同時リクエスト サポートされている各リージョン: 1 [いいえ] Luma Ray V2 のモデル推論に送信できる同時リクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Meta Llama 3.1 405B インストラクションの 1 分あたりのオンデマンドモデル推論リクエスト サポートされている各リージョン: 200 いいえ Meta Llama 3.1 405B 指示で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.1 70B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 いいえ Meta Llama 3.1 70B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.1 8B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 いいえ Meta Llama 3.1 8B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.2 11B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 いいえ Meta Llama 3.2 11B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.2 1B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 いいえ Meta Llama 3.2 1B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.2 3B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 800 いいえ Meta Llama 3.2 3B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.2 90B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 いいえ Meta Llama 3.2 90B インストラクションで 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream に対するリクエストの合計を考慮します。
Meta Llama 3.3 70B インストラクションのオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 いいえ Meta Llama 3.3 70B インストラクションでモデル推論のために 1 分間に送信できるオンデマンドリクエストの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Mistral Large 2407 のオンデマンドモデル推論リクエスト/分 サポートされている各リージョン: 400 いいえ Mistral Large 2407 で 1 分間にモデル推論を呼び出すことができる最大回数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のリクエストの合計を考慮します。
Meta Llama 3.1 8B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Meta Llama 3.1 8B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 11B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Meta Llama 3.2 11B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 1B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Meta Llama 3.2 1B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 3B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Meta Llama 3.2 3B インストラクションでモデル推論に 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.2 90B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Meta Llama 3.2 90B インストラクションでモデル推論のために 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.3 70B インストラクションのオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Meta Llama 3.3 70B インストラクションでモデル推論のために 1 分間に送信できるオンデマンドトークンの最大数。クォータは、Converse、ConverseStream、InvokeModel、InvokeModelWithResponseStream の合計を考慮します。
Mistral Large 2407 のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Mistral Large 2407 でモデル推論に 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.1 405B インストラクションの のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 400,000 いいえ Meta Llama 3.1 405B インストラクションでモデル推論に 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
Meta Llama 3.1 70B インストラクションの のオンデマンドモデル推論トークン/分 サポートされている各リージョン: 300,000 いいえ Meta Llama 3.1 70B インストラクションでモデル推論に 1 分間に送信できるトークンの最大数。クォータは、InvokeModel、InvokeModelWithResponseStream、および ConverseStream のトークンの合計を考慮します。
フローあたりの出力ノード数 サポートされている各リージョン: 10 いいえ フロー出力ノードの最大数。
関数あたりのパラメータ サポートされている各リージョン: 5 可能 アクショングループ関数に含めることができるパラメータの最大数。
1 秒あたりの PrepareAgent リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの PrepareAgent API リクエストの最大数。
1 秒あたりの PrepareFlow リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの PrepareFlow リクエストの最大数。
フローあたりのプロンプトノード数 サポートされている各リージョン: 10 可能 プロンプトノードの最大数。
アカウントあたりのプロンプト サポートされている各リージョン: 50 可能 プロンプトの最大数。
Claude 3 Haiku のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3 Haiku のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Claude 3 Opus のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3 Opus のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Claude 3 Sonnet のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3 Sonnet のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Claude 3.5 Haiku のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3.5 Haiku のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Claude 3.5 Sonnet のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3.5 Sonnet のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Claude 3.5 Sonnet v2 のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3.5 Sonnet v2 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.1 405B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.1 405B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.1 70B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.1 70B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.1 8B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.1 8B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.2 11B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.2 11B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.2 1B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 バッチ推論ジョブ Llama 3.2 1B 指示内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.2 3B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.2 3B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.2 90B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.2 90B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Llama 3.3 70B 指示のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.3 70B インストラクションのバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Mistral Large 2 (24.07) のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Mistral Large 2 (24.07) のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Mistral Small のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Mistral Small のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Nova Lite V1 のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Nova Lite V1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Nova Micro V1 のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Nova Micro V1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Nova Pro V1 のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Nova Pro V1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Titan マルチモーダル埋め込み G1 のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Titan Multimodal Embeddings G1 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Titan Text Embeddings V2 のバッチ推論ジョブあたりのレコード サポートされている各リージョン:50,000 可能 Titan Text Embeddings V2 のバッチ推論ジョブ内のすべての入力ファイルにわたるレコードの最大数。
Claude 3 Haiku のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3 Haiku のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Claude 3 Opus のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3 Opus のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Claude 3 Sonnet のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3 Sonnet のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Claude 3.5 Haiku のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3.5 Haiku のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Claude 3.5 Sonnet のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3.5 Sonnet のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Claude 3.5 Sonnet v2 のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Claude 3.5 Sonnet v2 のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Llama 3.1 405B 指示のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.1 405B インストラクションのバッチ推論ジョブの入力ファイル内のレコードの最大数。
Llama 3.1 70B 指示のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.1 70B インストラクションのバッチ推論ジョブの入力ファイル内のレコードの最大数。
Llama 3.1 8B 指示のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.1 8B 指示のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Llama 3.2 11B インストラクションのバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.2 11B 指示のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Llama 3.2 1B 指示のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 バッチ推論ジョブ Llama 3.2 1B 指示の入力ファイル内のレコードの最大数。
Llama 3.2 3B 指示のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.2 3B 指示のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Llama 3.2 90B 指示のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.2 90B インストラクションのバッチ推論ジョブの入力ファイル内のレコードの最大数。
Llama 3.3 70B インストラクションのバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Llama 3.3 70B インストラクションのバッチ推論ジョブの入力ファイル内のレコードの最大数。
Mistral Large 2 (24.07) のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Mistral Large 2 (24.07) のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Mistral Small のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Mistral Small のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Nova Lite V1 のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Nova Lite V1 のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Nova Micro V1 のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Nova Micro V1 のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Nova Pro V1 のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Nova Pro V1 のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Titan Multimodal Embeddings G1 のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Titan Multimodal Embeddings G1 のバッチ推論ジョブの入力ファイル内のレコードの最大数。
Titan Text Embeddings V2 のバッチ推論ジョブあたりの入力ファイルあたりのレコード サポートされている各リージョン:50,000 可能 Titan Text Embeddings V2 のバッチ推論ジョブの入力ファイル内のレコードの最大数。
機密情報フィルターの正規表現エンティティ サポートされている各リージョン: 10 いいえ 機密情報ポリシーに含めることができるガードレールフィルター正規表現の最大数
正規表現の長さ サポートされている各リージョン: 500 いいえ ガードレールフィルター正規表現の最大長、文字単位
1 秒あたりのリクエストの取得 サポートされている各リージョン:5 いいえ 1 秒あたりの取得 API リクエストの最大数。
1 秒あたりの RetrieveAndGenerate リクエスト数 サポートされている各リージョン:5 いいえ 1 秒あたりの RetrieveAndGenerate API リクエストの最大数。
フローあたりの S3 取り出しノード サポートされている各リージョン: 10 いいえ S3 取り出しノードの最大数。
フローあたりの S3 ストレージノード サポートされている各リージョン: 10 いいえ S3 ストレージノードの最大数。
スケジュールされたカスタマイズジョブ サポートされている各リージョン: 2 いいえ スケジュールされたカスタマイズジョブの最大数。
プロンプトのサイズ サポートされている各リージョン: 4 いいえ カスタムプロンプトデータセット内の個々のプロンプトの最大サイズ (KB)。
StartIngestionJob リクエスト/秒 サポートされている各リージョン: 0.1 いいえ 1 秒あたりの StartIngestionJob API リクエストの最大数。
Claude 3 Haiku のベースモデルを使用した進行中および送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Claude 3 Haiku のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Claude 3 Opus のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Claude 3 Opus のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Claude 3 Sonnet のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Claude 3 Sonnet のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Claude 3.5 Haiku のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Claude 3.5 Haiku のベースモデルを使用した、進行中および送信されたバッチ推論ジョブの最大数。
Claude 3.5 Sonnet のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Claude 3.5 Sonnet のベースモデルを使用した、進行中および送信されたバッチ推論ジョブの最大数。
Claude 3.5 Sonnet v2 のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Claude 3.5 Sonnet v2 のベースモデルを使用した、進行中および送信されたバッチ推論ジョブの最大数。
Llama 3.1 405B 指示のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.1 405B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Llama 3.1 70B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.1 70B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Llama 3.1 8B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.1 8B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Llama 3.2 11B 指示のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.2 11B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Llama 3.2 1B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.2 1B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Llama 3.2 3B 指示のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.2 3B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Llama 3.2 90B 指示のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.2 90B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Llama 3.3 70B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Llama 3.3 70B インストラクションのベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Mistral Large 2 (24.07) のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Mistral Large 2 (24.07) のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Mistral Small のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Mistral Small のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Nova Lite V1 のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Nova Lite V1 のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Nova Micro V1 のベースモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Nova Micro V1 のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Nova Pro V1 のベースモデルを使用した進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Nova Pro V1 のベースモデルを使用して、進行中および送信されたバッチ推論ジョブの最大数。
Titan Multimodal Embeddings G1 のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Titan Multimodal Embeddings G1 のベースモデルを使用した、進行中および送信されたバッチ推論ジョブの最大数。
Titan Text Embeddings V2 のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 20 可能 Titan Text Embeddings V2 のベースモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの最大数。
Titan Multimodal Embeddings G1 のカスタムモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 3 いいえ Titan Multimodal Embeddings G1 のカスタムモデルを使用した、進行中および送信されたバッチ推論ジョブの最大数。
Titan Text Embeddings V2 のカスタムモデルを使用した、進行中のバッチ推論ジョブと送信されたバッチ推論ジョブの合計 サポートされている各リージョン: 3 いいえ Titan Text Embeddings V2 のカスタムモデルを使用した、進行中および送信されたバッチ推論ジョブの最大数
Amazon Nova Lite ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 20,000 可能 Amazon Nova Lite ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Amazon Nova Micro ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 20,000 可能 Amazon Nova Micro ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Amazon Nova Pro ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Amazon Nova Pro ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Claude 3 Haiku v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Claude 3 Haiku ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 2 13B v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 2 13B ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 2 70B v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 2 70B ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.1 70B 指示 v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.1 70B 指示ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Meta Llama 3.1 8B 指示 v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Meta Llama 3.1 8B 指示ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Image Generator G1 V1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Image Generator ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Image Generator G1 V2 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Image Generator V2 ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan マルチモーダル埋め込み G1 v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン:50,000 可能 Titan マルチモーダル埋め込みファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Express v1 の継続的な事前トレーニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 100,000 可能 Titan Text Express の継続的な事前トレーニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Express v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Text Express ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Lite v1 の継続的な事前トレーニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 100,000 可能 Titan Text Lite の継続的な事前トレーニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Lite v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 10,000 可能 Titan Text Lite ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
Titan Text G1 - Premier v1 ファインチューニングジョブのトレーニングレコードと検証レコードの合計 サポートされている各リージョン: 20,000 可能 Titan Text Premier ファインチューニングジョブで許可されるトレーニングレコードと検証レコードの合計最大数。
ワーカーのタスク時間 サポートされている各リージョン: 30 いいえ ワーカーがタスクを完了するために必要な最大時間 (日数)。
Bedrock Data Automation ランタイムのスロットルレート制限: ListTagsForResource サポートされている各リージョン: 25 いいえ Bedrock Data Automation ランタイムの最大数: 現在のリージョンでアカウントごとに 1 秒あたりに実行できる ListTagsForResource リクエスト
Bedrock Data Automation ランタイムのスロットルレート制限: TagResource サポートされている各リージョン: 25 いいえ Bedrock Data Automation ランタイムの最大数: 現在のリージョンでアカウントごとに 1 秒あたりに実行できる TagResource リクエスト
Bedrock Data Automation ランタイムのスロットルレート制限: UntagResource サポートされている各リージョン: 25 いいえ Bedrock Data Automation ランタイムの最大数: 現在のリージョンでアカウントごとに 1 秒あたりに実行できる UntagResource リクエスト
Bedrock Data Automation のスロットルレート制限: ListTagsForResource サポートされている各リージョン: 25 いいえ Bedrock Data Automation の最大数: 現在のリージョンでアカウントごとに 1 秒あたりに実行できる ListTagsForResource リクエスト
Bedrock Data Automation のスロットルレート制限: TagResource サポートされている各リージョン: 25 いいえ 現在のリージョンでアカウントごとに実行できる 1 秒あたりの Bedrock Data Automation: TagResource リクエストの最大数
Bedrock Data Automation のスロットルレート制限: UntagResource サポートされている各リージョン: 25 いいえ 現在のリージョンにおける、アカウントごとに 1 秒あたりに実行できる Bedrock Data Automation: UntagResource リクエストの最大数
CreateBlueprint のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
CreateBlueprintVersion のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
CreateDataAutomationProject のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
DeleteBlueprint のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
DeleteDataAutomationProject のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
GetBlueprint のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
GetDataAutomationProject のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
GetDataAutomationStatus のスロットルレート制限 サポートされている各リージョン: 10 いいえ 説明なし
InvokeDataAutomationAsync のスロットルレート制限 サポートされている各リージョン: 10 いいえ 説明なし
ListBlueprints のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
ListDataAutomationProjects のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
UpdateBlueprint のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
UpdateDataAutomationProject のスロットルレート制限 サポートされている各リージョン:5 いいえ 説明なし
ガードレールあたりのトピック サポートされている各リージョン: 30 いいえ ガードレールトピックポリシー間で定義できるトピックの最大数
フローあたりの合計ノード数 サポートされている各リージョン: 40 いいえ フロー内のノードの最大数。
1 秒あたりの UpdateAgent リクエスト数 サポートされている各リージョン: 4 いいえ 1 秒あたりの UpdateAgent API リクエストの最大数。
1 秒あたりの UpdateAgentActionGroup リクエスト数 サポートされている各リージョン: 6 いいえ 1 秒あたりの UpdateAgentActionGroup API リクエストの最大数
1 秒あたりの UpdateAgentAlias リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの UpdateAgentAlias API リクエストの最大数。
UpdateAgentKnowledgeBase リクエスト/秒 サポートされている各リージョン: 4 いいえ 1 秒あたりの UpdateAgentKnowledgeBase API リクエストの最大数。
UpdateBlueprint - 1 秒あたりのトランザクションのスロットリング制限 サポートされている各リージョン: 1 [いいえ] 説明なし
1 秒あたりの UpdateDataSource リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの UpdateDataSource API リクエストの最大数。
1 秒あたりの UpdateFlow リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの UpdateFlow リクエストの最大数。
1 秒あたりの UpdateFlowAlias リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの UpdateFlowAlias リクエストの最大数。
1 秒あたりの UpdateKnowledgeBase リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの UpdateKnowledgeBase API リクエストの最大数。
1 秒あたりの UpdatePrompt リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの UpdatePrompt リクエストの最大数。
ユーザークエリサイズ サポートされている各リージョン: 1,000 いいえ ユーザークエリの最大サイズ (文字単位)。
1 秒あたりの ValidateFlowDefinition リクエスト数 サポートされている各リージョン: 2 いいえ 1 秒あたりの ValidateFlowDefinition リクエストの最大数。
ガードレールあたりのバージョン サポートされている各リージョン: 20 いいえ ガードレールが持つことができるバージョンの最大数
プロンプトあたりのバージョン サポートされている各リージョン: 10 いいえ プロンプトあたりのバージョンの最大数。
文字単位の単語の長さ サポートされている各リージョン: 100 いいえ ブロックされた単語リスト内の単語の最大長。文字単位。
単語あたりの単語ポリシー サポートされている各リージョン: 10,000 いいえ ブロックされた単語リストに含めることができる単語の最大数

このページの内容

プライバシーサイト規約Cookie の設定
© 2025, Amazon Web Services, Inc. or its affiliates.All rights reserved.