Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Points de terminaison et quotas Amazon Bedrock
Pour vous connecter par programmation à un AWS service, vous utilisez un point de terminaison. AWS les services proposent les types de terminaux suivants dans certaines ou toutes les AWS régions prises en charge par le service : points de terminaison, IPv4 points de terminaison à double pile et points de terminaison FIPS. Certains services fournissent des points de terminaison mondiaux. Pour de plus amples informations, veuillez consulter AWS points de terminaison de service.
Les quotas de service, également appelés limites, correspondent au nombre maximal de ressources ou d'opérations de service pour votre AWS compte. Pour de plus amples informations, veuillez consulter AWS quotas de service.
Vous trouverez ci-dessous les points de terminaison et les quotas de service pour ce service.
Points de terminaison de service
Plan de contrôle Amazon Bedrock APIs
Le tableau suivant fournit une liste des points de terminaison spécifiques à une région pris en charge par Amazon Bedrock pour la gestion, la formation et le déploiement de modèles. Utilisez ces points de terminaison pour les opérations de l'API Amazon Bedrock.
Nom de la région | Région | Point de terminaison | Protocole |
---|---|---|---|
US East (Ohio) | us-east-2 |
bedrock.us-east-2.amazonaws.com bedrock-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
US East (N. Virginia) | us-east-1 |
bedrock.us-east-1.amazonaws.com bedrock-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
USA Ouest (Oregon) | us-west-2 |
bedrock.us-west-2.amazonaws.com bedrock-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
Asia Pacific (Mumbai) | ap-south-1 | bedrock.ap-south-1.amazonaws.com | HTTPS |
Asia Pacific (Seoul) | ap-northeast-2 | bedrock.ap-northeast-2.amazonaws.com | HTTPS |
Asie-Pacifique (Singapour) | ap-southeast-1 | bedrock.ap-southeast-1.amazonaws.com | HTTPS |
Asie-Pacifique (Sydney) | ap-southeast-2 | bedrock.ap-southeast-2.amazonaws.com | HTTPS |
Asie-Pacifique (Tokyo) | ap-northeast-1 | bedrock.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Centre) | ca-central-1 |
bedrock.ca-central-1.amazonaws.com bedrock-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
Europe (Francfort) | eu-central-1 | bedrock.eu-central-1.amazonaws.com | HTTPS |
Europe (Irlande) | eu-west-1 | bedrock.eu-west-1.amazonaws.com | HTTPS |
Europe (Londres) | eu-west-2 | bedrock.eu-west-2.amazonaws.com | HTTPS |
Europe (Paris) | eu-west-3 | bedrock.eu-west-3.amazonaws.com | HTTPS |
Europe (Zurich) | eu-central-2 | bedrock.eu-central-2.amazonaws.com | HTTPS |
Amérique du Sud (São Paulo) | sa-east-1 | bedrock.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (USA Est) | us-gov-east-1 |
bedrock.us-gov-east-1.amazonaws.com bedrock-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
AWS GovCloud (US-Ouest) | us-gov-west-1 |
bedrock.us-gov-west-1.amazonaws.com bedrock-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Runtime d'Amazon Bedrock APIs
Le tableau suivant fournit une liste des points de terminaison spécifiques à une région pris en charge par Amazon Bedrock pour effectuer des demandes d'inférence pour les modèles hébergés dans Amazon Bedrock. Utilisez ces points de terminaison pour les opérations de l'API Amazon Bedrock Runtime.
Nom de la région | Région | Point de terminaison | Protocole |
---|---|---|---|
US East (Ohio) | us-east-2 |
bedrock-runtime.us-east-2.amazonaws.com bedrock-runtime-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
US East (N. Virginia) | us-east-1 |
bedrock-runtime.us-east-1.amazonaws.com bedrock-runtime-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
USA Ouest (Oregon) | us-west-2 |
bedrock-runtime.us-west-2.amazonaws.com bedrock-runtime-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
Asia Pacific (Mumbai) | ap-south-1 | bedrock-runtime.ap-south-1.amazonaws.com | HTTPS |
Asia Pacific (Seoul) | ap-northeast-2 | bedrock-runtime.ap-northeast-2.amazonaws.com | HTTPS |
Asie-Pacifique (Singapour) | ap-southeast-1 | bedrock-runtime.ap-southeast-1.amazonaws.com | HTTPS |
Asie-Pacifique (Sydney) | ap-southeast-2 | bedrock-runtime.ap-southeast-2.amazonaws.com | HTTPS |
Asie-Pacifique (Tokyo) | ap-northeast-1 | bedrock-runtime.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Centre) | ca-central-1 |
bedrock-runtime.ca-central-1.amazonaws.com bedrock-runtime-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
Europe (Francfort) | eu-central-1 | bedrock-runtime.eu-central-1.amazonaws.com | HTTPS |
Europe (Irlande) | eu-west-1 | bedrock-runtime.eu-west-1.amazonaws.com | HTTPS |
Europe (Londres) | eu-west-2 | bedrock-runtime.eu-west-2.amazonaws.com | HTTPS |
Europe (Paris) | eu-west-3 | bedrock-runtime.eu-west-3.amazonaws.com | HTTPS |
Europe (Zurich) | eu-central-2 | bedrock-runtime.eu-central-2.amazonaws.com | HTTPS |
Amérique du Sud (São Paulo) | sa-east-1 | bedrock-runtime.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (USA Est) | us-gov-east-1 |
bedrock-runtime.us-gov-east-1.amazonaws.com bedrock-runtime-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
AWS GovCloud (US-Ouest) | us-gov-west-1 |
bedrock-runtime.us-gov-west-1.amazonaws.com bedrock-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Agents pour Amazon Bedrock Build-time APIs
Le tableau suivant fournit une liste des points de terminaison spécifiques à une région pris en charge par Agents for Amazon Bedrock pour créer et gérer des agents et des bases de connaissances. Utilisez ces points de terminaison pour les opérations de l'API Agents for Amazon Bedrock.
Nom de la région | Région | Point de terminaison | Protocole |
---|---|---|---|
USA Est (Virginie du Nord) | us-east-1 | bedrock-agent.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-fips.us-east-1.amazonaws.com | HTTPS | ||
USA Ouest (Oregon) | us-west-2 | bedrock-agent.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-fips.us-west-2.amazonaws.com | HTTPS | ||
Asie-Pacifique (Singapour) | ap-southeast-1 | bedrock-agent.ap-southeast-1.amazonaws.com | HTTPS |
Asie-Pacifique (Sydney) | ap-southeast-2 | bedrock-agent.ap-southeast-2.amazonaws.com | HTTPS |
Asie-Pacifique (Tokyo) | ap-northeast-1 | bedrock-agent.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Centre) | ca-central-1 | bedrock-agent.ca-central-1.amazonaws.com | HTTPS |
Europe (Francfort) | eu-central-1 | bedrock-agent.eu-central-1.amazonaws.com | HTTPS |
Europe (Irlande) | eu-west-1 | bedrock-agent.eu-west-1.amazonaws.com | HTTPS |
Europe (Londres) | eu-west-2 | bedrock-agent.eu-west-2.amazonaws.com | HTTPS |
Europe (Paris) | eu-west-3 | bedrock-agent.eu-west-3.amazonaws.com | HTTPS |
Asie-Pacifique (Mumbai) | ap-south-1 | bedrock-agent.ap-south-1.amazonaws.com | HTTPS |
Amérique du Sud (São Paulo) | sa-east-1 | bedrock-agent.sa-east-1.amazonaws.com | HTTPS |
Agents pour Amazon Bedrock Runtime APIs
Le tableau suivant fournit une liste des points de terminaison spécifiques à une région pris en charge par Agents for Amazon Bedrock pour appeler des agents et interroger des bases de connaissances. Utilisez ces points de terminaison pour les opérations de l'API Agents for Amazon Bedrock Runtime.
Nom de la région | Région | Point de terminaison | Protocole |
---|---|---|---|
USA Est (Virginie du Nord) | us-east-1 | bedrock-agent-runtime.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-east-1.amazonaws.com | HTTPS | ||
USA Ouest (Oregon) | us-west-2 | bedrock-agent-runtime.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-west-2.amazonaws.com | HTTPS | ||
Asie-Pacifique (Singapour) | ap-southeast-1 | bedrock-agent-runtime.ap-southeast-1.amazonaws.com | HTTPS |
Asie-Pacifique (Sydney) | ap-southeast-2 | bedrock-agent-runtime.ap-southeast-2.amazonaws.com | HTTPS |
Asie-Pacifique (Tokyo) | ap-northeast-1 | bedrock-agent-runtime.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Centre) | ca-central-1 | bedrock-agent-runtime.ca-central-1.amazonaws.com | HTTPS |
Europe (Francfort) | eu-central-1 | bedrock-agent-runtime.eu-central-1.amazonaws.com | HTTPS |
Europe (Paris) | eu-west-3 | bedrock-agent-runtime.eu-west-3.amazonaws.com | HTTPS |
Europe (Irlande) | eu-west-1 | bedrock-agent-runtime.eu-west-1.amazonaws.com | HTTPS |
Europe (Londres) | eu-west-2 | bedrock-agent-runtime.eu-west-2.amazonaws.com | HTTPS |
Asie-Pacifique (Mumbai) | ap-south-1 | bedrock-agent-runtime.ap-south-1.amazonaws.com | HTTPS |
Amérique du Sud (São Paulo) | sa-east-1 | bedrock-agent-runtime.sa-east-1.amazonaws.com | HTTPS |
Quotas de service
Pour savoir comment demander une augmentation de quota, à la fois pour les quotas dont la valeur ajustable est marquée comme Oui et pour ceux marqués comme Non, voir Demander une augmentation pour les quotas Amazon Bedrock. Le tableau suivant présente la liste des quotas pour Amazon Bedrock :
Nom | Par défaut | Ajustable | Description |
---|---|---|---|
APIs par Agent | Chaque région prise en charge : 11 | Oui |
Le nombre maximum APIs que vous pouvez ajouter à un agent. |
Groupes d’actions par agent | Chaque région prise en charge : 20 | Oui |
Nombre maximal de groupes d'actions que vous pouvez ajouter à un agent. |
Nœuds d'agent par flux | Chaque Région prise en charge : 10 | Non | Le nombre maximum de nœuds d'agent. |
Agents par compte | Chaque région prise en charge : 200 | Oui |
Le nombre maximum d'agents dans un compte. |
AssociateAgentKnowledgeBase demandes par seconde | Chaque région prise en charge : 6 | Non | Le nombre maximum de demandes d' AssociateAgentKnowledgeBase API par seconde. |
Alias associés par agent | Chaque Région prise en charge : 10 | Non | Le nombre maximum d'alias que vous pouvez associer à un agent. |
Bases de connaissances associées par agent | Chaque région prise en charge : 2 | Oui |
Le nombre maximum de bases de connaissances que vous pouvez associer à un agent. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Claude 3 Haiku | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour une inférence par lots pour Claude 3 Haiku. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Claude 3 Opus | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Claude 3 Opus. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Claude 3 Sonnet | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Claude 3 Sonnet. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Claude 3.5 Haiku | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour une inférence par lots pour Claude 3.5 Haiku. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Claude 3.5 Sonnet | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Claude 3.5 Sonnet. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Claude 3.5 Sonnet v2 | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Claude 3.5 Sonnet v2. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.1 405B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Llama 3.1 405B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.1 70B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Llama 3.1 70B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.1 8B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Llama 3.1 8B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.2 11B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Llama 3.2 11B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.2 1B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots Llama 3.2 1B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.2 3B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Llama 3.2 3B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.2 90B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Llama 3.2 90B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Llama 3.3 70B Instruct | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Llama 3.3 70B Instruct. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Mistral Large 2 (24.07) | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Mistral Large 2 (24,07). |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Mistral Small | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Mistral Small. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Nova Lite V1 | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Nova Lite V1. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Nova Micro V1 | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Nova Micro V1. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Nova Pro V1 | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Nova Pro V1. |
Taille du fichier d'entrée d'inférence par lots (en Go) pour Titan Multimodal Embeddings G1 | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Titan Multimodal Embeddings G1. |
Taille du fichier d'entrée d'inférence par lots pour Titan Text Embeddings V2 (en Go) | Par région prise en charge : 1 | Oui |
Taille maximale d'un seul fichier (en Go) soumis pour l'inférence par lots pour Titan Text Embeddings V2. |
Taille de la tâche d'inférence par lots (en Go) pour Claude 3 Haiku | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Claude 3 Haiku. |
Taille de la tâche d'inférence par lots (en Go) pour Claude 3 Opus | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Claude 3 Opus. |
Taille de la tâche d'inférence par lots (en Go) pour Claude 3 Sonnet | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Claude 3 Sonnet. |
Taille de la tâche d'inférence par lots (en Go) pour Claude 3.5 Haiku | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Claude 3.5 Haiku. |
Taille de la tâche d'inférence par lots (en Go) pour Claude 3.5 Sonnet | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Claude 3.5 Sonnet. |
Taille de la tâche d'inférence par lots (en Go) pour Claude 3.5 Sonnet v2 | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Claude 3.5 Sonnet v2. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.1 405B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.1 405B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.1 70B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.1 70B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.1 8B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.1 8B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.2 11B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.2 11B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.2 1B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.2 1B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.2 3B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.2 3B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.2 90B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.2 90B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Llama 3.3 70B Instruct | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Llama 3.3 70B Instruct. |
Taille de la tâche d'inférence par lots (en Go) pour Mistral Large 2 (24,07) | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Mistral Large 2 (24,07). |
Taille de la tâche d'inférence par lots (en Go) pour Mistral Small | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Mistral Small. |
Taille de la tâche d'inférence par lots (en Go) pour Nova Lite V1 | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Nova Lite V1. |
Taille de la tâche d'inférence par lots (en Go) pour Nova Micro V1 | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Nova Micro V1. |
Taille de la tâche d'inférence par lots (en Go) pour Nova Pro V1 | Chaque Région prise en charge : 100 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Nova Pro V1. |
Taille de la tâche d'inférence par lots (en Go) pour Titan Multimodal Embeddings G1 | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Titan Multimodal Embeddings G1. |
Taille de la tâche d'inférence par lots pour Titan Text Embeddings V2 (en Go) | Chaque Région prise en charge : 5 | Oui |
Taille cumulée maximale de tous les fichiers d'entrée (en Go) inclus dans la tâche d'inférence par lots pour Titan Text Embeddings V2. |
Caractères dans les instructions des agents | Chaque région prise en charge : 8 000 | Oui |
Le nombre maximum de caractères dans les instructions destinées à un agent. |
Nœuds collecteurs par flux | Par région prise en charge : 1 | Non | Nombre maximal de nœuds collecteurs. |
Tâches d'ingestion simultanées par compte | Chaque région prise en charge : 5 | Non | Nombre maximal de tâches d'ingestion pouvant être exécutées simultanément sur un compte. |
Tâches d'ingestion simultanées par source de données | Par région prise en charge : 1 | Non | Nombre maximal de tâches d'ingestion pouvant être exécutées simultanément pour une source de données. |
Tâches d'ingestion simultanées par base de connaissances | Par région prise en charge : 1 | Non | Nombre maximal de tâches d'ingestion pouvant être exécutées simultanément pour une base de connaissances. |
Tâches d'importation de modèles simultanées | Par région prise en charge : 1 | Non | Nombre maximal de tâches d'importation de modèles en cours simultanément. |
Nœuds de condition par flux | Chaque région prise en charge : 5 | Non | Le nombre maximum de nœuds de condition. |
Conditions par nœud de condition | Chaque région prise en charge : 5 | Non | Le nombre maximum de conditions par nœud de condition. |
Longueur de requête contextuelle basée sur le fondement en unités de texte | Par région prise en charge : 1 | Non | Longueur maximale, en unités de texte, de la requête pour la base contextuelle |
Longueur de réponse contextuelle en unités de texte | Chaque région prise en charge : 5 | Non | Longueur maximale, en unités de texte, de la réponse pour un ancrage contextuel |
Longueur de la source contextuelle en unités de texte |
us-east-1 : 100 us-west-2 : 100 Chacune des autres régions prises en charge : 50 |
Non | Longueur maximale, en unités de texte, de la source de mise à la terre pour la mise à la terre contextuelle |
CreateAgent demandes par seconde | Chaque région prise en charge : 6 | Non | Le nombre maximum de demandes d' CreateAgent API par seconde. |
CreateAgentActionGroup demandes par seconde | Chaque région prise en charge : 12 | Non | Le nombre maximum de demandes d' CreateAgentActionGroup API par seconde. |
CreateAgentAlias demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' CreateAgentAlias API par seconde. |
CreateDataSource demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' CreateDataSource API par seconde. |
CreateFlow demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de CreateFlow demandes par seconde. |
CreateFlowAlias demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de CreateFlowAlias demandes par seconde. |
CreateFlowVersion demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de CreateFlowVersion demandes par seconde. |
CreateKnowledgeBase demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' CreateKnowledgeBase API par seconde. |
CreatePrompt demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de CreatePrompt demandes par seconde. |
CreatePromptVersion demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de CreatePromptVersion demandes par seconde. |
InvokeModel Demandes interrégionales par minute pour Amazon Nova Lite | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de demandes que vous pouvez envoyer pour l'inférence de modèles en une minute pour Amazon Nova Lite. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes interrégionales par minute pour Amazon Nova Micro | Chaque Région prise en charge : 2 000 | Non | Nombre maximal de demandes que vous pouvez envoyer pour l'inférence de modèles en une minute pour Amazon Nova Micro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes interrégionales par minute pour Amazon Nova Pro | Chaque région prise en charge : 200 | Non | Le nombre maximum de demandes que vous pouvez envoyer pour l'inférence de modèles en une minute pour Amazon Nova Pro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes interrégionales par minute pour Anthropic Claude 3.5 Haiku | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3.5 Haiku. |
InvokeModel Tokens interrégionaux par minute pour Amazon Nova Lite | Chaque région prise en charge : 4 000 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence de modèles en une minute pour Amazon Nova Lite. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Tokens interrégionaux par minute pour Amazon Nova Micro | Chaque région prise en charge : 4 000 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence de modèles en une minute pour Amazon Nova Micro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Tokens interrégionaux par minute pour Amazon Nova Pro | Chaque région prise en charge : 800 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence de modèles en une minute pour Amazon Nova Pro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Jetons interrégionaux par minute pour Anthropic Claude 3.5 Haiku | Chaque région prise en charge : 4 000 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3.5 Haiku. |
Demandes d'inférence de modèles interrégionales par minute pour Meta Llama 3.3 70B Instruct | Chaque région prise en charge : 800 | Non | Le nombre maximum de demandes interrégionales que vous pouvez soumettre pour l'inférence de modèles en une minute pour Meta Llama 3.3 70B Instruct. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
Jetons d'inférence de modèles interrégionaux par minute pour Meta Llama 3.3 70B Instruct | Chaque région prise en charge : 600 000 | Non | Le nombre maximum de jetons interrégionaux que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.3 70B Instruct. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
Modèles personnalisés par compte | Chaque Région prise en charge : 100 | Oui |
Le nombre maximum de modèles personnalisés dans un compte. |
Sources de données par base de connaissances | Chaque région prise en charge : 5 | Non | Le nombre maximum de sources de données par base de connaissances. |
DeleteAgent demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' DeleteAgent API par seconde. |
DeleteAgentActionGroup demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' DeleteAgentActionGroup API par seconde. |
DeleteAgentAlias demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' DeleteAgentAlias API par seconde. |
DeleteAgentVersion demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' DeleteAgentVersion API par seconde. |
DeleteDataSource demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' DeleteDataSource API par seconde. |
DeleteFlow demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de DeleteFlow demandes par seconde. |
DeleteFlowAlias demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de DeleteFlowAlias demandes par seconde. |
DeleteFlowVersion demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de DeleteFlowVersion demandes par seconde. |
DeleteKnowledgeBase demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' DeleteKnowledgeBase API par seconde. |
DeletePrompt demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de DeletePrompt demandes par seconde. |
DisassociateAgentKnowledgeBase demandes par seconde | Chaque Région prise en charge : 4 | Non | Le nombre maximum de demandes d' DisassociateAgentKnowledgeBase API par seconde. |
Groupes d'actions activés par agent | Chaque région prise en charge : 11 | Oui |
Nombre maximal de groupes d'actions que vous pouvez activer dans un agent. |
Points de terminaison par profil d'inférence | Chaque région prise en charge : 5 | Non | Nombre maximal de points de terminaison dans un profil d'inférence. Un point de terminaison est défini par un modèle et par la région vers laquelle les demandes d'invocation adressées au modèle sont envoyées. |
Exemples de phrases par sujet | Chaque région prise en charge : 5 | Non | Le nombre maximum d'exemples de sujets pouvant être inclus par sujet |
Fichiers à ajouter ou à mettre à jour par tâche d'ingestion | Chaque région prise en charge : 5 000 000 | Non | Nombre maximal de fichiers nouveaux et mis à jour pouvant être ingérés par tâche d'ingestion. |
Fichiers à supprimer par tâche d'ingestion | Chaque région prise en charge : 5 000 000 | Non | Nombre maximal de fichiers pouvant être supprimés par tâche d'ingestion. |
Alias de flux par flux | Chaque Région prise en charge : 10 | Non | Le nombre maximum d'alias de flux. |
Versions de flux par flux | Chaque Région prise en charge : 10 | Non | Le nombre maximum de versions de flux. |
Flux par compte | Chaque Région prise en charge : 100 | Oui |
Le nombre maximum de flux par compte. |
GetAgent demandes par seconde | Chaque région prise en charge : 15 | Non | Le nombre maximum de demandes d' GetAgent API par seconde. |
GetAgentActionGroup demandes par seconde | Chaque Région prise en charge : 20 | Non | Le nombre maximum de demandes d' GetAgentActionGroup API par seconde. |
GetAgentAlias demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' GetAgentAlias API par seconde. |
GetAgentKnowledgeBase demandes par seconde | Chaque région prise en charge : 15 | Non | Le nombre maximum de demandes d' GetAgentKnowledgeBase API par seconde. |
GetAgentVersion demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' GetAgentVersion API par seconde. |
GetDataSource demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' GetDataSource API par seconde. |
GetFlow demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de GetFlow demandes par seconde. |
GetFlowAlias demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de GetFlowAlias demandes par seconde. |
GetFlowVersion demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de GetFlowVersion demandes par seconde. |
GetIngestionJob demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' GetIngestionJob API par seconde. |
GetKnowledgeBase demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' GetKnowledgeBase API par seconde. |
GetPrompt demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de GetPrompt demandes par seconde. |
Rambardes par compte | Chaque Région prise en charge : 100 | Non | Le nombre maximum de barrières de sécurité sur un compte |
Modèles importés par compte | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de modèles importés dans un compte. |
Profils d'inférence par compte | Chaque Région prise en charge : 1 000 | Oui |
Le nombre maximum de profils d'inférence dans un compte. |
Taille du fichier de tâche d'ingestion | Chaque région prise en charge : 50 | Non | Taille maximale (en Mo) d'un fichier dans une tâche d'ingestion. |
Taille de la tâche d'ingestion | Chaque Région prise en charge : 100 | Non | Taille maximale (en Go) d'une tâche d'ingestion. |
Nœuds d'entrée par flux | Par région prise en charge : 1 | Non | Nombre maximal de nœuds d'entrée de flux. |
Nœuds d'itérateur par flux | Par région prise en charge : 1 | Non | Le nombre maximum de nœuds itérateurs. |
Nœuds de base de connaissances par flux | Chaque Région prise en charge : 10 | Non | Nombre maximal de nœuds de base de connaissances. |
Bases de connaissances par compte | Chaque Région prise en charge : 100 | Non | Le nombre maximum de bases de connaissances par compte. |
Nœuds de fonction Lambda par flux | Chaque Région prise en charge : 10 | Non | Le nombre maximal de nœuds de fonction Lambda. |
Nœuds Lex par flux | Chaque région prise en charge : 5 | Non | Le nombre maximum de nœuds Lex. |
ListAgentActionGroups demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListAgentActionGroups API par seconde. |
ListAgentAliases demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListAgentAliases API par seconde. |
ListAgentKnowledgeBases demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListAgentKnowledgeBases API par seconde. |
ListAgentVersions demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListAgentVersions API par seconde. |
ListAgents demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListAgents API par seconde. |
ListDataSources demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListDataSources API par seconde. |
ListFlowAliases demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de ListFlowAliases demandes par seconde. |
ListFlowVersions demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de ListFlowVersions demandes par seconde. |
ListFlows demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de ListFlows demandes par seconde. |
ListIngestionJobs demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListIngestionJobs API par seconde. |
ListKnowledgeBases demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes d' ListKnowledgeBases API par seconde. |
ListPrompts demandes par seconde | Chaque Région prise en charge : 10 | Non | Le nombre maximum de ListPrompts demandes par seconde. |
Taille maximale du fichier d'entrée pour les tâches de personnalisation de la distillation | Chaque région prise en charge : 2 gigaoctets | Non | Taille maximale du fichier d'entrée pour les tâches de personnalisation de la distillation. |
Longueur de ligne maximale pour les tâches de personnalisation de la distillation | Chaque région prise en charge : 16 kilo-octets | Non | Longueur de ligne maximale dans le fichier d'entrée pour les tâches de personnalisation de la distillation. |
Nombre maximum de demandes pour les tâches de personnalisation de la distillation | Chaque région prise en charge : 15 000 | Non | Le nombre maximum d'instructions requises pour les tâches de personnalisation de la distillation. |
Longueur maximale du contexte de réglage fin du modèle étudiant pour les tâches de personnalisation de distillation Amazon Nova Micro V1 | Chaque région prise en charge : 32 000 | Non | Longueur maximale du contexte de réglage précis du modèle étudiant pour les tâches de personnalisation de distillation Amazon Nova Micro V1. |
Longueur maximale du contexte de réglage fin du modèle étudiant pour les tâches de personnalisation de distillation Amazon Nova V1 | Chaque région prise en charge : 32 000 | Non | Longueur maximale du contexte de réglage précis du modèle étudiant pour les tâches de personnalisation de distillation Amazon Nova V1. |
Longueur maximale du contexte de réglage précis du modèle étudiant pour les tâches de personnalisation de distillation d'Anthropic Claude 3 haiku 20240307 V1 | Chaque région prise en charge : 32 000 | Non | La longueur maximale du contexte de réglage du modèle étudiant pour les tâches de personnalisation de distillation d'Anthropic Claude 3 haiku 20240307 V1. |
Longueur maximale du contexte de réglage fin du modèle étudiant pour les tâches de personnalisation de distillation Llama 3.1 70B Instruct V1 | Chaque région prise en charge : 16 000 | Non | La longueur maximale du contexte de réglage fin du modèle étudiant pour les tâches de personnalisation de distillation Llama 3.1 70B Instruct V1. |
Longueur maximale du contexte de réglage fin du modèle étudiant pour les tâches de personnalisation de distillation Llama 3.1 8B Instruct V1 | Chaque région prise en charge : 32 000 | Non | La longueur maximale du contexte de réglage fin du modèle étudiant pour les tâches de personnalisation de distillation Llama 3.1 8B Instruct V1. |
Nombre minimal de demandes pour les tâches de personnalisation de la distillation | Chaque Région prise en charge : 100 | Non | Le nombre minimum d'invites requis pour les tâches de personnalisation de la distillation. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Claude 3 Haiku | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3 Haiku. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Claude 3 Opus | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3 Opus. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Claude 3 Sonnet | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3 Sonnet. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Claude 3.5 Haiku | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Haiku. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Claude 3.5 Sonnet | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Sonnet. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Claude 3.5 Sonnet v2 | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Sonnet v2. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.1 405B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.1 405B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.1 70B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.1 70B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.1 8B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.1 8B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.2 11B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.2 11B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.2 1B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée d'une tâche d'inférence par lots Llama 3.2 1B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.2 3B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.2 3B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.2 90B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.2 90B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Llama 3.3 70B Instruct | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.3 70B Instruct. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Mistral Large 2 (24,07) | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Mistral Large 2 (24,07). |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Mistral Small | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Mistral Small. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Nova Lite V1 | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Nova Lite V1. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Nova Micro V1 | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Nova Micro V1. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Nova Pro V1 | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Nova Pro V1. |
Nombre minimum d'enregistrements par tâche d'inférence par lot pour Titan Multimodal Embeddings G1 | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Titan Multimodal Embeddings G1. |
Nombre minimum d'enregistrements par tâche d'inférence par lots pour Titan Text Embeddings V2 | Chaque Région prise en charge : 100 | Oui |
Le nombre minimum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Titan Text Embeddings V2. |
Unités de modèle Débits provisionnés sans engagement sur tous les modèles de base | Chaque région prise en charge : 2 | Oui |
Nombre maximal d'unités de modèle pouvant être distribuées sur des débits provisionnés sans engagement pour les modèles de base |
Unités de modèles Débits provisionnés sans engagement sur des modèles personnalisés | Chaque région prise en charge : 2 | Oui |
Nombre maximal d'unités de modèle pouvant être distribuées sur des débits provisionnés sans engagement pour les modèles personnalisés |
Unités de modèle par modèle provisionné pour AI21 Labs Jurassic-2 Mid | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour AI21 Labs Jurassic-2 Mid. |
Unités de modèle par modèle provisionné pour AI21 Labs Jurassic-2 Ultra | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour AI21 Labs Jurassic-2 Ultra. |
Unités de modèle par modèle provisionné pour Amazon Nova Lite | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Nova Lite. |
Unités de modèle par modèle provisionné pour Amazon Nova Micro | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Nova Micro. |
Unités de modèle par modèle provisionné pour Amazon Nova Pro | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Nova Pro. |
Unités de modèle par modèle provisionné pour Amazon Titan Embeddings G1 - Texte | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Embeddings G1 - Text. |
Unités de modèle par modèle provisionné pour Amazon Titan Image Generator G1 | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Image Generator G1. |
Unités de modèle par modèle provisionné pour Amazon Titan Image Generator G2 | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Image Generator G2. |
Unités de modèle par modèle provisionné pour Amazon Titan Lite V1 4K | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Text Lite V1 4K. |
Unités de modèle par modèle provisionné pour Amazon Titan Multimodal Embeddings G1 | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Multimodal Embeddings G1. |
Unités de modèle par modèle provisionné pour Amazon Titan Text Embeddings V2 | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Text Embeddings V2. |
Unités de modèle par modèle provisionné pour Amazon Titan Text G1 - Express 8K | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Text G1 - Express 8K. |
Unités de modèle par modèle provisionné pour Amazon Titan Text Premier V1 32K | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être attribuées à un modèle provisionné pour Amazon Titan Text Premier V1 32K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3 Haiku 200K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3 Haiku 200K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3 Haiku 48K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3 Haiku 48K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3 Sonnet 200K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3 Sonnet 200K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3 Sonnet 28K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3 Sonnet 28K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Haiku 16K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3.5 Haiku 16K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Haiku 200K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3.5 Haiku 200K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Haiku 64K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude 3.5 Haiku 64K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Sonnet 18K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3.5 Sonnet 18K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Sonnet 200K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3.5 Sonnet 200K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Sonnet 51K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3.5 Sonnet 51K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Sonnet V2 18K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude 3.5 Sonnet V2 18K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Sonnet V2 200K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude 3.5 Sonnet V2 200K. |
Unités de modèle par modèle provisionné pour Anthropic Claude 3.5 Sonnet V2 51K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Anthropic Claude 3.5 Sonnet V2 51K. |
Unités de modèle par modèle provisionné pour Anthropic Claude Instant V1 100K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude Instant V1 100K. |
Unités de modèle par modèle provisionné pour Anthropic Claude V2 100K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude V2 100K. |
Unités de modèle par modèle provisionné pour Anthropic Claude V2 18K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude V2 18K. |
Unités de modèle par modèle provisionné pour Anthropic Claude V2.1 18K | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude V2.1 18K. |
Unités de modèle par modèle provisionné pour Anthropic Claude V2.1 200K | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Anthropic Claude V2.1 200k. |
Unités de modèle par modèle provisionné pour Cohere Command | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Cohere Command. |
Unités de modèle par modèle provisionné pour Cohere Command Light | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Cohere Command Light. |
Unités de modèle par modèle provisionné pour Cohere Command R | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Cohere Command R 128k. |
Unités de modèle par modèle provisionné pour Cohere Command R Plus | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Cohere Command R Plus 128k. |
Unités de modèle par modèle provisionné pour Cohere Embed English | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Cohere Embed English. |
Unités de modèle par modèle provisionné pour Cohere Embed Multilingual | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être attribuées à un modèle provisionné pour Cohere Embed Multilingual. |
Unités de modèle par modèle provisionné pour Meta Llama 2 13B | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 2 13B. |
Unités de modèle par modèle provisionné pour Meta Llama 2 70B | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 2 70B. |
Unités de modèle par modèle provisionné pour Meta Llama 2 Chat 13B | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 2 Chat 13B. |
Unités de modèle par modèle provisionné pour Meta Llama 2 Chat 70B | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 2 Chat 70B. |
Unités de modèle par modèle provisionné pour Meta Llama 3 70B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3 70B Instruct. |
Unités de modèle par modèle provisionné pour Meta Llama 3 8B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3 8B Instruct. |
Unités de modèle par modèle provisionné pour Meta Llama 3.1 70B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3.1 70B Instruct. |
Unités de modèle par modèle provisionné pour Meta Llama 3.1 8B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3.1 8B Instruct. |
Unités de modèle par modèle provisionné pour Meta Llama 3.2 11B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3.2 11B Instruct. |
Unités de modèle par modèle provisionné pour Meta Llama 3.2 1B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3.2 1B Instruct. |
Unités de modèle par modèle provisionné pour Meta Llama 3.2 3B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3.2 3B Instruct. |
Unités de modèle par modèle provisionné pour Meta Llama 3.2 90B Instruct | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Meta Llama 3.2 90B Instruct. |
Unités de modèle par modèle provisionné pour Mistral Large 2407 | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Mistral Large 2407. |
Unités de modèle par modèle provisionné pour Mistral Small | Chaque région prise en charge : 0 | Oui |
Le nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Mistral Small. |
Unités de modèle par modèle provisionné pour Stability.ai Stable Diffusion XL 0.8 | Chaque région prise en charge : 0 | Oui |
Nombre maximum d'unités de modèle pouvant être allouées à un modèle provisionné pour Stability.ai Stable Diffusion XL 0.8 |
Unités de modèle par modèle provisionné pour Stability.ai Stable Diffusion XL 1.0 | Chaque région prise en charge : 0 | Oui |
Nombre maximal d'unités de modèle pouvant être allouées à un modèle provisionné pour Stability.ai Stable Diffusion XL 1.0. |
Nombre de tâches d'évaluation automatique de modèles simultanées | Chaque Région prise en charge : 20 | Non | Nombre maximal de tâches d'évaluation automatique de modèles que vous pouvez spécifier simultanément dans ce compte dans la région actuelle. |
Nombre de tâches d'évaluation de modèles simultanées faisant appel à des travailleurs humains | Chaque Région prise en charge : 10 | Non | Le nombre maximum de tâches d'évaluation de modèles faisant appel à des travailleurs humains peut être spécifié simultanément dans ce compte dans la région actuelle. |
Nombre de métriques personnalisées | Chaque Région prise en charge : 10 | Non | Nombre maximal de mesures personnalisées que vous pouvez spécifier dans une tâche d'évaluation de modèle faisant appel à des travailleurs humains. |
Nombre d'ensembles de données d'invite personnalisés dans le cadre d'une tâche d'évaluation de modèles basée sur l'homme | Par région prise en charge : 1 | Non | Le nombre maximum de jeux de données d'invite personnalisés que vous pouvez spécifier dans une tâche d'évaluation de modèle basée sur l'homme dans ce compte dans la région actuelle. |
Nombre de jeux de données par tâche | Chaque région prise en charge : 5 | Non | Nombre maximal de jeux de données que vous pouvez spécifier dans une tâche d'évaluation de modèle automatisée. Cela inclut les ensembles de données d'invite personnalisés et intégrés. |
Nombre de tâches d'évaluation | Chaque région prise en charge : 5 000 | Non | Le nombre maximum de tâches d'évaluation de modèles que vous pouvez créer dans ce compte dans la région actuelle. |
Nombre de mesures par ensemble de données | Chaque région prise en charge : 3 | Non | Nombre maximal de mesures que vous pouvez spécifier par ensemble de données dans une tâche d'évaluation automatique de modèle. Cela inclut à la fois des métriques personnalisées et intégrées. |
Nombre de modèles dans un travail d'évaluation de modèles faisant appel à des travailleurs humains | Chaque région prise en charge : 2 | Non | Nombre maximal de modèles que vous pouvez spécifier dans une tâche d'évaluation de modèles faisant appel à des travailleurs humains. |
Nombre de modèles dans le travail d'évaluation automatique des modèles | Par région prise en charge : 1 | Non | Nombre maximal de modèles que vous pouvez spécifier dans une tâche d'évaluation automatique de modèles. |
Nombre d'invites dans un jeu de données d'invite personnalisé | Chaque Région prise en charge : 1 000 | Non | Le nombre maximum d'invites qu'un jeu de données d'invite personnalisé peut contenir. |
Politique de filtrage ApplyGuardrail du contenu à la demande, unités de texte par seconde | Chaque région prise en charge : 25 | Oui |
Nombre maximal d'unités de texte pouvant être traitées pour les politiques de filtrage de contenu par seconde |
Unités de texte de politique de sujets ApplyGuardrail refusés à la demande par seconde | Chaque région prise en charge : 25 | Oui |
Nombre maximal d'unités de texte pouvant être traitées pour les politiques relatives aux sujets refusés par seconde |
Politique de filtrage des informations ApplyGuardrail sensibles à la demande, unités de texte par seconde | Chaque région prise en charge : 25 | Oui |
Nombre maximal d'unités de texte pouvant être traitées pour les politiques de filtrage des informations sensibles par seconde |
Politique de filtrage ApplyGuardrail Word à la demande, unités de texte par seconde | Chaque région prise en charge : 25 | Oui |
Nombre maximal d'unités de texte pouvant être traitées pour les politiques de filtrage de Word par seconde. |
Unités de texte de la politique de mise à la base ApplyGuardrail contextuelle à la demande par seconde |
us-east-1 : 106 us-west-2 : 106 Chacune des autres régions prises en charge : 53 |
Oui |
Nombre maximal d'unités de texte pouvant être traitées pour les politiques de base contextuelles par seconde |
ApplyGuardrail Demandes à la demande par seconde | Chaque région prise en charge : 25 | Oui |
Le nombre maximum d'appels d' ApplyGuardrail API autorisés par seconde |
Demandes InvokeModel simultanées à la demande pour Amazon Nova Reel | Chaque Région prise en charge : 10 | Non | Le nombre maximum de demandes simultanées que vous pouvez envoyer pour l'inférence de modèles pour Amazon Nova Reel. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes à la demande par minute pour AI21 Labs Jamba 1.5 Large | Chaque Région prise en charge : 100 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèles en une minute pour AI21 Labs Jamba 1.5 Large. Le quota prend en compte la somme combinée des demandes pour Converse et InvokeModel |
InvokeModel Demandes à la demande par minute pour AI21 Labs Jamba 1.5 Mini | Chaque Région prise en charge : 100 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour AI21 Labs Jamba 1.5 Mini. Le quota prend en compte la somme combinée des demandes pour Converse et InvokeModel |
InvokeModel Demandes à la demande par minute pour AI21 Labs Jamba Instruct | Chaque Région prise en charge : 100 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèles en une minute pour AI21 Labs Jamba Instruct. Le quota prend en compte la somme combinée des demandes pour Converse et InvokeModel |
InvokeModel Demandes à la demande par minute pour AI21 Labs Jurassic-2 Mid | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes pour AI21 Labs Jurassic-2 Mid |
InvokeModel Demandes à la demande par minute pour AI21 Labs Jurassic-2 Ultra | Chaque Région prise en charge : 100 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes pour AI21 Labs Jurassic-2 Ultra |
InvokeModel Demandes à la demande par minute pour Amazon Nova Canvas | Chaque Région prise en charge : 100 | Non | Nombre maximal de demandes que vous pouvez envoyer pour l'inférence de modèles en une minute pour Amazon Nova Canvas. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes à la demande par minute pour Amazon Nova Lite | Chaque Région prise en charge : 1 000 | Non | Le nombre maximum de demandes que vous pouvez envoyer pour l'inférence de modèles en une minute pour Amazon Nova Lite. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes à la demande par minute pour Amazon Nova Micro | Chaque Région prise en charge : 1 000 | Non | Nombre maximal de demandes que vous pouvez envoyer pour l'inférence de modèles en une minute pour Amazon Nova Micro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes à la demande par minute pour Amazon Nova Pro | Chaque Région prise en charge : 100 | Non | Le nombre maximum de demandes que vous pouvez envoyer pour l'inférence de modèles en une minute pour Amazon Nova Pro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes à la demande par minute pour Amazon Titan Image Generator G1 | Chaque région prise en charge : 60 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Amazon Titan Image Generator G1. |
InvokeModel Demandes à la demande par minute pour Amazon Titan Image Generator G1 V2 | Chaque région prise en charge : 60 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Amazon Titan Image Generator G V2. |
InvokeModel Demandes à la demande par minute pour Amazon Titan Multimodal Embeddings G1 | Chaque Région prise en charge : 2 000 | Non | Nombre maximal de fois que vous pouvez appeler InvokeModel en une minute pour Amazon Titan Multimodal Embeddings G1. |
InvokeModel Demandes à la demande par minute pour Amazon Titan Text Embeddings | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Amazon Titan Text Embeddings |
InvokeModel Demandes à la demande par minute pour Amazon Titan Text Embeddings V2 | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Amazon Titan Text Embeddings V2 |
InvokeModel Demandes à la demande par minute pour Amazon Titan Text Express | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes relatives à Amazon Titan Text Express. |
InvokeModel Demandes à la demande par minute pour Amazon Titan Text Lite | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes relatives à Amazon Titan Text Lite |
InvokeModel Demandes à la demande par minute pour Amazon Titan Text Premier | Chaque Région prise en charge : 100 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes relatives à Amazon Titan Text Premier. |
InvokeModel Demandes à la demande par minute pour Anthropic Claude 3 Haiku |
us-east-1 : 1 000 us-west-2 : 1 000 ap-northeast-1 : 200 ap-southeast-1 : 200 Chacune des autres régions prises en charge : 400 |
Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3 Haiku. |
InvokeModel Demandes à la demande par minute pour Anthropic Claude 3 Opus | Chaque région prise en charge : 50 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota tient compte de la somme combinée InvokeModel et des InvokeModelWithResponseStream demandes pour Anthropic Claude 3 Opus. |
InvokeModel Demandes à la demande par minute pour Anthropic Claude 3 Sonnet |
us-east-1 : 500 us-west-2 : 500 Chacune des autres régions prises en charge : 100 |
Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée du InvokeModel Sonnet Anthropic Claude 3 et des InvokeModelWithResponseStream demandes pour celui-ci. |
InvokeModel Demandes à la demande par minute pour Anthropic Claude 3.5 Haiku |
us-east-1 : 1 000 us-west-2 : 1 000 Chacune des autres régions prises en charge : 400 |
Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3.5 Haiku. |
InvokeModel Demandes à la demande par minute pour Anthropic Claude 3.5 Sonnet |
us-east-1 : 50 us-east-2 : 50 us-west-2 : 250 ap-northeast-2 : 50 ap-south-1 : 50 ap-southeast-2 : 50 Chacune des autres régions prises en charge : 20 |
Non | Nombre maximal de fois que vous pouvez appeler l'inférence de modèle en une minute pour Anthropic Claude 3.5 Sonnet. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes à la demande par minute pour Anthropic Claude 3.5 Sonnet V2 |
us-west-2 : 250 Chacune des autres régions prises en charge : 50 |
Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Anthropic Claude 3.5 Sonnet V2. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Demandes à la demande par minute pour Anthropic Claude Instant |
us-east-1 : 1 000 us-west-2 : 1 000 Chacune des autres régions prises en charge : 400 |
Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota tient compte de la somme combinée de Anthropic Claude InvokeModel Instant et des InvokeModelWithResponseStream demandes pour Anthropic Claude |
InvokeModel Demandes à la demande par minute pour Anthropic Claude V2 |
us-east-1 : 500 us-west-2 : 500 Chacune des autres régions prises en charge : 100 |
Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota tient compte de la somme combinée de Anthropic Claude InvokeModelWithResponseStream V2 InvokeModel et des demandes y afférentes |
InvokeModel Demandes à la demande par minute pour Cohere Command | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de Cohere Command InvokeModel et des InvokeModelWithResponseStream demandes associées. |
InvokeModel Demandes à la demande par minute pour Cohere Command Light | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota tient compte de la somme combinée de Cohere Command Light InvokeModel et des InvokeModelWithResponseStream demandes pour ce dernier. |
InvokeModel Demandes à la demande par minute pour Cohere Command R | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de Cohere Command R 128k InvokeModel et les InvokeModelWithResponseStream demandes y relatives. |
InvokeModel Demandes à la demande par minute pour Cohere Command R Plus | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel 128 InvokeModelWithResponseStream 000 requêtes pour Cohere Command R Plus. |
InvokeModel Demandes à la demande par minute pour Cohere Embed English | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Cohere Embed English. |
InvokeModel Demandes à la demande par minute pour Cohere Embed Multilingual | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Cohere Embed Multilingual. |
InvokeModel Demandes à la demande par minute pour Meta Llama 2 13B | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota tient compte de la somme combinée de Meta Llama 2 13B InvokeModel et des InvokeModelWithResponseStream demandes pour ce produit. |
InvokeModel Demandes à la demande par minute pour Meta Llama 2 70B | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée des 70B de Meta Llama 2 InvokeModel et des InvokeModelWithResponseStream demandes. |
InvokeModel Demandes à la demande par minute pour Meta Llama 2 Chat 13B | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes pour Meta Llama 2 Chat 13B. |
InvokeModel Demandes à la demande par minute pour Meta Llama 2 Chat 70B | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes pour Meta Llama 2 Chat 70B. |
InvokeModel Demandes à la demande par minute pour Meta Llama 3 70B Instruct | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes pour Meta Llama 3 70B Instruct. |
InvokeModel Demandes à la demande par minute pour Meta Llama 3 8B Instruct | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée InvokeModel et les InvokeModelWithResponseStream demandes pour Meta Llama 3 8B Instruct. |
InvokeModel Demandes à la demande par minute pour Mistral 7B Instruct | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Mistral mistral-7 0 b-instruct-v |
InvokeModel Demandes à la demande par minute pour Mistral AI Mistral Small | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute pour Mistral AI Mistral Small |
InvokeModel Demandes à la demande par minute pour Mistral Large | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute pour Mistral mistral-large-2402-v1 |
InvokeModel Demandes à la demande par minute pour Mistral Mixtral 8x7b Instruct | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Mistral mixtral-8x7b-v0 |
InvokeModel Demandes à la demande par minute pour Stability.ai Stable Diffusion 3 Large | Chaque région prise en charge : 15 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Stability.ai Stable Diffusion 3 Large. |
InvokeModel Demandes à la demande par minute pour Stability.ai Stable Diffusion 3 Medium | Chaque région prise en charge : 60 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Stability.ai Stable Diffusion 3 Medium |
InvokeModel Demandes à la demande par minute pour Stability.ai Stable Diffusion 3.5 Large | Chaque région prise en charge : 15 | Non | Le quota prend en compte la somme combinée des demandes pour InvokeModel, InvokeModelWithResponseStream, Converse et ConverseStream pour Stability.ai Stable Diffusion 3.5 Large. |
InvokeModel Demandes à la demande par minute pour Stability.ai Stable Diffusion XL 0.8 | Chaque région prise en charge : 60 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Stability.ai Stable Diffusion XL 0.8 |
InvokeModel Demandes à la demande par minute pour Stability.ai Stable Diffusion XL 1.0 | Chaque région prise en charge : 60 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel en une minute pour Stability.ai Stable Diffusion XL 1.0 |
InvokeModel Demandes à la demande par minute pour Stability.ai Stable Image Core | Chaque région prise en charge : 90 | Non | Nombre maximal de fois que vous pouvez appeler InvokeModel en une minute pour Stability.ai Stable Image Core. |
InvokeModel Demandes à la demande par minute pour Stability.ai Stable Image Ultra | Chaque Région prise en charge : 10 | Non | Nombre maximal de fois que vous pouvez appeler InvokeModel en une minute pour Stability.ai Stable Image Ultra. |
InvokeModel Jetons à la demande par minute pour AI21 Labs Jamba 1.5 Large | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour AI21 Labs Jamba 1.5 Large. Le quota prend en compte la somme combinée des jetons pour Converse et InvokeModel. |
InvokeModel Jetons à la demande par minute pour AI21 Labs Jamba 1.5 Mini | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence de modèles en une minute pour AI21 Labs Jamba 1.5 Mini. Le quota prend en compte la somme combinée des jetons pour Converse et InvokeModel. |
InvokeModel Jetons à la demande par minute pour AI21 Labs Jamba Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour AI21 Labs Jamba Instruct. Le quota prend en compte la somme combinée des jetons pour Converse et InvokeModel |
InvokeModel Jetons à la demande par minute pour AI21 Labs Jurassic-2 Mid | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour AI21 Labs Jurassic-2 Mid. |
InvokeModel Jetons à la demande par minute pour AI21 Labs Jurassic-2 Ultra | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour AI21 Labs Jurassic-2 Ultra. |
InvokeModel Jetons à la demande par minute pour Amazon Nova Lite | Chaque région prise en charge : 2 000 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence de modèles en une minute pour Amazon Nova Lite. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Tokens à la demande par minute pour Amazon Nova Micro | Chaque région prise en charge : 2 000 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence de modèles en une minute pour Amazon Nova Micro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Tokens à la demande par minute pour Amazon Nova Pro | Chaque région prise en charge : 400 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence de modèles en une minute pour Amazon Nova Pro. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Jetons à la demande par minute pour Amazon Titan Image Generator G1 | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Amazon Titan Image Generator G1. |
InvokeModel Tokens à la demande par minute pour Amazon Titan Image Generator G1 V2 | Chaque Région prise en charge : 2 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Amazon Titan Image Generator G1 V2. |
InvokeModel Tokens à la demande par minute pour Amazon Titan Multimodal Embeddings G1 | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Amazon Titan Multimodal Embeddings G1. |
InvokeModel Jetons à la demande par minute pour Amazon Titan Text Embeddings | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Amazon Titan Text Embeddings. |
InvokeModel Tokens à la demande par minute pour Amazon Titan Text Embeddings V2 | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Amazon Titan Text Embeddings V2. |
InvokeModel Tokens à la demande par minute pour Amazon Titan Text Express | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Amazon Titan Text Express. |
InvokeModel Jetons à la demande par minute pour Amazon Titan Text Lite | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Amazon Titan Text Lite. |
InvokeModel Jetons à la demande par minute pour Amazon Titan Text Premier | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Amazon Titan Text Premier. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude 3 Haiku |
us-east-1 : 2 000 000 us-west-2 : 2 000 000 ap-northeast-1 : 200 000 ap-southeast-1 : 200 000 Chacune des autres régions prises en charge : 300 000 |
Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3 Haiku. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude 3 Opus | Chaque région prise en charge : 400 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3 Opus. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude 3 Sonnet |
us-east-1 : 1 000 000 us-west-2 : 1 000 000 Chacune des autres régions prises en charge : 200 000 |
Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3 Sonnet. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude 3.5 Haiku |
us-east-1 : 2 000 000 us-west-2 : 2 000 000 Chacune des autres régions prises en charge : 300 000 |
Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3.5 Haiku. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude 3.5 Sonnet |
us-east-1 : 400 000 us-east-2 : 400 000 us-west-2 : 2 000 000 ap-northeast-2 : 400 000 ap-south-1 : 400 000 ap-southeast-2 : 400 000 Chacune des autres régions prises en charge : 200 000 |
Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Anthropic Claude 3.5 Sonnet. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude 3.5 Sonnet V2 |
us-west-2 : 2 000 000 Chacune des autres régions prises en charge : 400 000 |
Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Anthropic Claude 3.5 Sonnet V2. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude Instant |
us-east-1 : 1 000 000 us-west-2 : 1 000 000 Chacune des autres régions prises en charge : 300 000 |
Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude Instant. |
InvokeModel Jetons à la demande par minute pour Anthropic Claude V2 |
us-east-1 : 500 000 us-west-2 : 500 000 Chacune des autres régions prises en charge : 200 000 |
Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude V2. |
InvokeModel Jetons à la demande par minute pour Cohere Command | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Cohere Command. |
InvokeModel Jetons à la demande par minute pour Cohere Command Light | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Cohere Command Light. |
InvokeModel Jetons à la demande par minute pour Cohere Command R | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Cohere Command R 128k. |
InvokeModel Jetons à la demande par minute pour Cohere Command R Plus | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel 128 InvokeModelWithResponseStream 000 jetons pour Cohere Command R Plus. |
InvokeModel Jetons à la demande par minute pour Cohere Embed English | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Cohere Embed English. |
InvokeModel Jetons à la demande par minute pour Cohere Embed Multilingual | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir InvokeModel en une minute pour Cohere Embed Multilingual. |
InvokeModel Jetons à la demande par minute pour Meta Llama 2 13B | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Meta Llama 2 13B. |
InvokeModel Jetons à la demande par minute pour Meta Llama 2 70B | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Meta Llama 2 70B. |
InvokeModel Jetons à la demande par minute pour Meta Llama 2 Chat 13B | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Meta Llama 2 Chat 13B. |
InvokeModel Jetons à la demande par minute pour Meta Llama 2 Chat 70B | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Meta Llama 2 Chat 70B. |
InvokeModel Jetons à la demande par minute pour Meta Llama 3 70B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Meta Llama 3 70B Instruct. |
InvokeModel Jetons à la demande par minute pour Meta Llama 3 8B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Meta Llama 3 8B Instruct. |
InvokeModel Jetons à la demande par minute pour Mistral AI Mistral 7B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Mistral AI Mistral 7B Instruct. |
InvokeModel Jetons à la demande par minute pour Mistral AI Mistral Large | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Mistral AI Mistral Large. |
InvokeModel Jetons à la demande par minute pour Mistral AI Mistral Small | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Mistral AI Mistral Small. |
InvokeModel Jetons à la demande par minute pour Mistral AI Mixtral 8X7BB Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Mistral mixtral-8x7 0b-instruct-v. |
Demandes par minute optimisées en termes de latence à la InvokeModel demande pour Anthropic Claude 3.5 Haiku | Chaque Région prise en charge : 100 | Non | Le nombre maximum de fois que vous pouvez appeler InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3.5 Haiku, si l'optimisation de la latence est configurée. |
InvokeModel Jetons par minute optimisés pour la latence et à la demande pour Anthropic Claude 3.5 Haiku | Chaque région prise en charge : 500 000 | Non | Le nombre maximum de jetons que vous pouvez fournir par le biais InvokeModel et InvokeModelWithResponseStream en une minute. Le quota prend en compte la somme combinée de InvokeModel et de InvokeModelWithResponseStream jetons pour Anthropic Claude 3.5 Haiku, si l'optimisation de la latence est configurée. |
Demandes d'inférence de modèles optimisées pour la latence à la demande par minute pour Meta Llama 3.1 405B Instruct | Chaque Région prise en charge : 100 | Non | Nombre maximal de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.1 405B Instruct, si l'optimisation de la latence est configurée. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles optimisées pour la latence à la demande par minute pour Meta Llama 3.1 70B Instruct | Chaque Région prise en charge : 100 | Non | Nombre maximal de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.1 70B Instruct, si l'optimisation de la latence est configurée. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèle optimisés pour la latence à la demande par minute pour Meta Llama 3.1 405B Instruct | Chaque région prise en charge : 40 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.1 405B Instruct, si l'optimisation de la latence est configurée. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèle optimisés pour la latence à la demande par minute pour Meta Llama 3.1 70b Instruct | Chaque région prise en charge : 40 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.1 70b Instruct, si l'optimisation de la latence est configurée. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.1 405B Instruct | Chaque région prise en charge : 200 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.1 405B Instruct. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.1 70B Instruct | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.1 70B Instruct. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.1 8B Instruct | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.1 8B Instruct. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.2 11B Instruct | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.2 11B Instruct. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.2 1B Instruct | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.2 1B Instruct. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.2 3B Instruct | Chaque région prise en charge : 800 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.2 3B Instruct. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.2 90B Instruct | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Meta Llama 3.2 90B Instruct. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Demandes d'inférence de modèles à la demande par minute pour Meta Llama 3.3 70B Instruct | Chaque région prise en charge : 400 | Non | Nombre maximum de demandes à la demande que vous pouvez soumettre pour l'inférence de modèles en une minute pour Meta Llama 3.3 70B Instruct. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
Demandes d'inférence de modèles à la demande par minute pour Mistral Large 2407 | Chaque région prise en charge : 400 | Non | Le nombre maximum de fois que vous pouvez appeler l'inférence de modèle en une minute pour Mistral Large 2407. Le quota prend en compte la somme combinée des demandes pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.1 8B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.1 8B Instruct. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.2 11B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.2 11B Instruct. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.2 1B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.2 1B Instruct. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.2 3B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.2 3B Instruct. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.2 90B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.2 90B Instruct. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.3 70B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons à la demande que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.3 70B Instruct. Le quota prend en compte la somme combinée de Converse ConverseStream, InvokeModel et InvokeModelWithResponseStream. |
Jetons d'inférence de modèles à la demande par minute pour Mistral Large 2407 | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Mistral Large 2407. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.1 405B Instruct | Chaque région prise en charge : 400 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.1 405B Instruct. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Jetons d'inférence de modèles à la demande par minute pour Meta Llama 3.1 70B Instruct | Chaque région prise en charge : 300 000 | Non | Le nombre maximum de jetons que vous pouvez soumettre pour l'inférence du modèle en une minute pour Meta Llama 3.1 70B Instruct. Le quota prend en compte la somme combinée des jetons pour InvokeModel InvokeModelWithResponseStream, Converse et ConverseStream. |
Nœuds de sortie par flux | Chaque Région prise en charge : 10 | Non | Le nombre maximum de nœuds de sortie de flux. |
Paramètres par fonction | Chaque Région prise en charge : 5 | Oui |
Le nombre maximum de paramètres que vous pouvez avoir dans une fonction de groupe d'actions. |
PrepareAgent demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' PrepareAgent API par seconde. |
PrepareFlow demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de PrepareFlow demandes par seconde. |
Nœuds rapides par flux | Par région prise en charge : 10 | Oui |
Le nombre maximum de nœuds d'invite. |
Invites par compte | Chaque Région prise en charge : 50 | Oui |
Le nombre maximum d'invites. |
Nombre d'enregistrements par lot, tâche d'inférence pour Claude 3 Haiku | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3 Haiku. |
Nombre d'enregistrements par lot (tâche d'inférence) pour Claude 3 Opus | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3 Opus. |
Nombre d'enregistrements par lot : tâche d'inférence pour Claude 3 Sonnet | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3 Sonnet. |
Nombre d'enregistrements par tâche d'inférence par lot pour Claude 3.5 Haiku | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Haiku. |
Nombre d'enregistrements par tâche d'inférence par lot pour Claude 3.5 Sonnet | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Sonnet. |
Nombre d'enregistrements par tâche d'inférence par lot pour Claude 3.5 Sonnet v2 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Sonnet v2. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.1 405B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.1 405B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.1 70B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.1 70B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.1 8B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.1 8B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.2 11B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.2 11B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.2 1B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée d'une tâche d'inférence par lots Llama 3.2 1B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.2 3B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.2 3B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.2 90B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.2 90B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Llama 3.3 70B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Llama 3.3 70B Instruct. |
Nombre d'enregistrements par tâche d'inférence par lot pour Mistral Large 2 (24.07) | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Mistral Large 2 (24,07). |
Nombre d'enregistrements par tâche d'inférence par lot pour Mistral Small | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Mistral Small. |
Nombre d'enregistrements par tâche d'inférence par lot pour Nova Lite V1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Nova Lite V1. |
Nombre d'enregistrements par tâche d'inférence par lot pour Nova Micro V1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Nova Micro V1. |
Nombre d'enregistrements par tâche d'inférence par lot pour Nova Pro V1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Nova Pro V1. |
Nombre d'enregistrements par tâche d'inférence par lot pour Titan Multimodal Embeddings G1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Titan Multimodal Embeddings G1. |
Nombre d'enregistrements par tâche d'inférence par lot pour Titan Text Embeddings V2 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans tous les fichiers d'entrée dans une tâche d'inférence par lots pour Titan Text Embeddings V2. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Claude 3 Haiku | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Claude 3 Haiku. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Claude 3 Opus | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Claude 3 Opus. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Claude 3 Sonnet | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Claude 3 Sonnet. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Claude 3.5 Haiku | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Haiku. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Claude 3.5 Sonnet | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Sonnet. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Claude 3.5 Sonnet v2 | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Claude 3.5 Sonnet v2. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.1 405B Instruct | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Llama 3.1 405B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.1 70B Instruct | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Llama 3.1 70B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.1 8B Instruct | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Llama 3.1 8B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.2 11B Instruct | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Llama 3.2 11B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.2 1B Instruct | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots Llama 3.2 1B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.2 3B Instruct | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Llama 3.2 3B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.2 90B Instruct | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Llama 3.2 90B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Llama 3.3 70B Instruct | Chaque région prise en charge : 50 000 | Oui |
Nombre maximal d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Llama 3.3 70B Instruct. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Mistral Large 2 (24.07) | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Mistral Large 2 (24,07). |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Mistral Small | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Mistral Small. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Nova Lite V1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Nova Lite V1. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Nova Micro V1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Nova Micro V1. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Nova Pro V1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Nova Pro V1. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Titan Multimodal Embeddings G1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Titan Multimodal Embeddings G1. |
Enregistrements par fichier d'entrée par tâche d'inférence par lots pour Titan Text Embeddings V2 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximum d'enregistrements dans un fichier d'entrée dans une tâche d'inférence par lots pour Titan Text Embeddings V2. |
Entités Regex dans le filtre d'informations sensibles | Chaque Région prise en charge : 10 | Non | Le nombre maximum d'expressions régulières du filtre de garde-corps pouvant être incluses dans une politique relative aux informations sensibles |
Longueur de l'expression régulière en caractères | Chaque région prise en charge : 500 | Non | La longueur maximale, en caractères, d'une expression régulière d'un filtre de garde-corps |
Récupérez les demandes par seconde | Chaque région prise en charge : 5 | Non | Le nombre maximum de demandes d'API Retrieve par seconde. |
RetrieveAndGenerate demandes par seconde | Chaque région prise en charge : 5 | Non | Le nombre maximum de demandes d' RetrieveAndGenerate API par seconde. |
Nœuds de récupération S3 par flux | Chaque Région prise en charge : 10 | Non | Le nombre maximum de nœuds de récupération S3. |
Nœuds de stockage S3 par flux | Chaque Région prise en charge : 10 | Non | Nombre maximal de nœuds de stockage S3. |
Tâches de personnalisation planifiées | Chaque région prise en charge : 2 | Non | Le nombre maximum de tâches de personnalisation planifiées. |
Taille de l'invite | Chaque Région prise en charge : 4 | Non | La taille maximale (en Ko) d'une invite individuelle est un jeu de données d'invite personnalisé. |
StartIngestionJob demandes par seconde | Chaque région prise en charge : 0,1 | Non | Le nombre maximum de demandes d' StartIngestionJob API par seconde. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3 Haiku | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3 Haiku. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3 Opus | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3 Opus. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3 Sonnet | Chaque région prise en charge : 20 | Oui |
Nombre maximal de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3 Sonnet. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3.5 Haiku | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3.5 Haiku. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3.5 Sonnet | Chaque région prise en charge : 20 | Oui |
Nombre maximal de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3.5 Sonnet. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3.5 Sonnet v2 | Chaque région prise en charge : 20 | Oui |
Nombre maximal de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Claude 3.5 Sonnet v2. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.1 405B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.1 405B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.1 70B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.1 70B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.1 8B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.1 8B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 11B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 11B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 1B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 1B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 3B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 3B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 90B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.2 90B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.3 70B Instruct | Chaque région prise en charge : 20 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Llama 3.3 70B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Mistral Large 2 (24.07) | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Mistral Large 2 (24,07). |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Mistral Small | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Mistral Small. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Nova Lite V1 | Chaque région prise en charge : 20 | Oui |
Nombre maximal de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Nova Lite V1. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Nova Micro V1 | Chaque région prise en charge : 20 | Oui |
Nombre maximal de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Nova Micro V1. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Nova Pro V1 | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Nova Pro V1. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Titan Multimodal Embeddings G1 | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Titan Multimodal Embeddings G1. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Titan Text Embeddings V2 | Chaque région prise en charge : 20 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle de base pour Titan Text Embeddings V2. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3 Haiku | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3 Haiku. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3 Opus | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3 Opus. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3 Sonnet | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3 Sonnet. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3.5 Haiku | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3.5 Haiku. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3.5 Sonnet | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3.5 Sonnet. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3.5 Sonnet v2 | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Claude 3.5 Sonnet v2. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.1 405B Instruct | Chaque région prise en charge : 3 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.1 405B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.1 70B Instruct | Chaque région prise en charge : 3 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.1 70B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.1 8B Instruct | Chaque région prise en charge : 3 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.1 8B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 11B Instruct | Chaque région prise en charge : 3 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 11B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 1B Instruct | Chaque région prise en charge : 3 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 1B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 3B Instruct | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 3B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 90B Instruct | Chaque région prise en charge : 3 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.2 90B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.3 70B Instruct | Chaque région prise en charge : 3 | Oui |
Nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Llama 3.3 70B Instruct. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Mistral Large 2 (24.07) | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Mistral Large 2 (24,07). |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Mistral Small | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Mistral Small. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Nova Lite V1. | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Nova Lite V1 |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Nova Micro V1 | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Nova Micro V1. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Nova Pro V1 | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Nova Pro V1. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Titan Multimodal Embeddings G1 | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Titan Multimodal Embeddings G1. |
Somme des tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Titan Text Embeddings V2 | Chaque région prise en charge : 3 | Oui |
Le nombre maximum de tâches d'inférence par lots en cours et soumises à l'aide d'un modèle personnalisé pour Titan Text Embeddings V2 |
Somme des enregistrements de formation et de validation pour une tâche de réglage précis sur Amazon Nova Lite | Chaque Région prise en charge : 20 000 | Oui |
Nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis sur Amazon Nova Lite. |
Somme des enregistrements de formation et de validation pour une tâche de réglage précis d'Amazon Nova Micro | Chaque Région prise en charge : 20 000 | Oui |
Nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis d'Amazon Nova Micro. |
Somme des enregistrements de formation et de validation pour une tâche de réglage précis sur Amazon Nova Pro | Chaque région prise en charge : 10 000 | Oui |
Nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis sur Amazon Nova Pro. |
Somme des enregistrements de formation et de validation pour un travail de réglage précis de Claude 3 Haiku v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximum combiné d'enregistrements de formation et de validation autorisés pour une tâche de mise au point d'un haïku Claude 3. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 2 13B v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 2 13B. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 2 70B v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 2 70B. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 3.1 70B Instruct v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 3.1 70B Instruct. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 3.1 8B Instruct v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 3.1 8B Instruct. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 3.2 11B Instruct v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 3.2 11B Instruct. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 3.2 1B Instruct v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 3.2 1B Instruct. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 3.2 3B Instruct v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 3.2 3B Instruct. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Meta Llama 3.2 90B Instruct v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Meta Llama 3.2 90B Instruct. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin du Titan Image Generator G1 V1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis de Titan Image Generator. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin du Titan Image Generator G1 V2 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis de Titan Image Generator V2. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Titan Multimodal Embeddings G1 v1 | Chaque région prise en charge : 50 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis de Titan Multimodal Embeddings. |
Somme des enregistrements de formation et de validation pour un poste de pré-formation continue sur Titan Text G1 - Express v1 | Chaque région prise en charge : 100 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour un poste de pré-formation continue sur Titan Text Express. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Titan Text G1 - Express v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis de Titan Text Express. |
Somme des enregistrements de formation et de validation pour une tâche de pré-formation continue sur Titan Text G1 - Lite v1 | Chaque région prise en charge : 100 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour un travail de pré-formation continue sur Titan Text Lite. |
Somme des enregistrements d'entraînement et de validation pour une tâche de réglage fin de Titan Text G1 - Lite v1 | Chaque région prise en charge : 10 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage précis de Titan Text Lite. |
Somme des enregistrements de formation et de validation pour une tâche de réglage fin de Titan Text G1 - Premier v1 | Chaque Région prise en charge : 20 000 | Oui |
Le nombre maximal combiné d'enregistrements de formation et de validation autorisés pour une tâche de réglage fin de Titan Text Premier. |
Temps de travail pour les travailleurs | Chaque Région prise en charge : 30 | Non | Durée maximale (en jours) dont un travailleur peut disposer pour effectuer des tâches. |
Sujets par garde-corps | Chaque Région prise en charge : 30 | Non | Le nombre maximum de sujets pouvant être définis dans les politiques relatives aux sujets de Guardrail |
Nombre total de nœuds par flux | Chaque Région prise en charge : 40 | Non | Nombre maximal de nœuds dans un flux. |
UpdateAgent demandes par seconde | Chaque Région prise en charge : 4 | Non | Le nombre maximum de demandes d' UpdateAgent API par seconde. |
UpdateAgentActionGroup demandes par seconde | Chaque région prise en charge : 6 | Non | Le nombre maximum de demandes d' UpdateAgentActionGroup API par seconde |
UpdateAgentAlias demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' UpdateAgentAlias API par seconde. |
UpdateAgentKnowledgeBase demandes par seconde | Chaque Région prise en charge : 4 | Non | Le nombre maximum de demandes d' UpdateAgentKnowledgeBase API par seconde. |
UpdateDataSource demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' UpdateDataSource API par seconde. |
UpdateFlow demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de UpdateFlow demandes par seconde. |
UpdateFlowAlias demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de UpdateFlowAlias demandes par seconde. |
UpdateKnowledgeBase demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de demandes d' UpdateKnowledgeBase API par seconde. |
UpdatePrompt demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de UpdatePrompt demandes par seconde. |
Taille de la requête utilisateur | Chaque Région prise en charge : 1 000 | Non | Taille maximale (en caractères) d'une requête utilisateur. |
ValidateFlowDefinition demandes par seconde | Chaque région prise en charge : 2 | Non | Le nombre maximum de ValidateFlowDefinition demandes par seconde. |
Versions par garde-corps | Chaque Région prise en charge : 20 | Non | Le nombre maximum de versions qu'un garde-corps peut avoir |
Versions par invite | Chaque Région prise en charge : 10 | Non | Le nombre maximum de versions par invite. |
Longueur du mot en caractères | Chaque Région prise en charge : 100 | Non | Longueur maximale d'un mot, en caractères, dans une liste de mots bloqués |
Politique du mot par mot | Chaque région prise en charge : 10 000 | Non | Le nombre maximum de mots pouvant être inclus dans une liste de mots bloqués |