As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Endpoints e cotas de Amazon Bedrock
A seguir estão os endpoints de serviço e as cotas de serviço para este serviço. Para se conectar programaticamente a um AWS serviço, você usa um endpoint. Além dos AWS endpoints padrão, alguns AWS serviços oferecem FIPS endpoints em regiões selecionadas. Para obter mais informações, consulte AWS endpoints de serviço. As cotas de serviço, também chamadas de limites, são o número máximo de recursos ou operações de serviço da sua AWS conta. Para obter mais informações, consulte AWS cotas de serviço.
nota
AWS recomenda usar STS endpoints regionais em seus aplicativos e evitar usar o STS endpoint global (legado). STSOs endpoints regionais reduzem a latência, criam redundância e aumentam a validade do token da sessão. Para obter mais informações sobre como configurar seus aplicativos para usar o STS endpoint regional, consulte Endpoints AWS STS regionalizados no Guia de referência de ferramentas e ferramentas.AWS SDKs Para obter mais informações sobre o AWS STS endpoint global (legado), incluindo como monitorar o uso desse endpoint, consulte Como usar AWS STS endpoints regionais no AWS blog de segurança.
Service endpoints
Avião de controle Amazon Bedrock APIs
A tabela a seguir fornece uma lista de endpoints específicos da região que o Amazon Bedrock suporta para gerenciar, treinar e implantar modelos. Use esses endpoints para operações do Amazon Bedrock API.
Nome da região | Região | Endpoint | Protocolo |
---|---|---|---|
Leste dos EUA (Ohio) | us-east-2 |
bedrock.us-east-2.amazonaws.com bedrock-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
Leste dos EUA (Norte da Virgínia) | us-east-1 |
bedrock.us-east-1.amazonaws.com bedrock-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
Oeste dos EUA (Oregon) | us-west-2 |
bedrock.us-west-2.amazonaws.com bedrock-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
Ásia-Pacífico (Mumbai) | ap-south-1 | bedrock.ap-south-1.amazonaws.com | HTTPS |
Ásia-Pacífico (Seul) | ap-northeast-2 | bedrock.ap-northeast-2.amazonaws.com | HTTPS |
Ásia-Pacífico (Singapura) | ap-southeast-1 | bedrock.ap-southeast-1.amazonaws.com | HTTPS |
Ásia-Pacífico (Sydney) | ap-southeast-2 | bedrock.ap-southeast-2.amazonaws.com | HTTPS |
Ásia-Pacífico (Tóquio) | ap-northeast-1 | bedrock.ap-northeast-1.amazonaws.com | HTTPS |
Canadá (Central) | ca-central-1 |
bedrock.ca-central-1.amazonaws.com bedrock-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
Europa (Frankfurt) | eu-central-1 | bedrock.eu-central-1.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock.eu-west-1.amazonaws.com | HTTPS |
Europa (Londres) | eu-west-2 | bedrock.eu-west-2.amazonaws.com | HTTPS |
Europa (Paris) | eu-west-3 | bedrock.eu-west-3.amazonaws.com | HTTPS |
América do Sul (São Paulo) | sa-east-1 | bedrock.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (Oeste dos EUA) | us-gov-west-1 |
bedrock.us-gov-west-1.amazonaws.com bedrock-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Tempo de execução do Amazon Bedrock APIs
A tabela a seguir fornece uma lista de endpoints específicos da região que o Amazon Bedrock suporta para fazer solicitações de inferência para modelos hospedados no Amazon Bedrock. Use esses endpoints para operações do Amazon Bedrock Runtime API.
Nome da região | Região | Endpoint | Protocolo |
---|---|---|---|
Leste dos EUA (Ohio) | us-east-2 |
bedrock-runtime.us-east-2.amazonaws.com bedrock-runtime-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
Leste dos EUA (Norte da Virgínia) | us-east-1 |
bedrock-runtime.us-east-1.amazonaws.com bedrock-runtime-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
Oeste dos EUA (Oregon) | us-west-2 |
bedrock-runtime.us-west-2.amazonaws.com bedrock-runtime-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
Ásia-Pacífico (Mumbai) | ap-south-1 | bedrock-runtime.ap-south-1.amazonaws.com | HTTPS |
Ásia-Pacífico (Seul) | ap-northeast-2 | bedrock-runtime.ap-northeast-2.amazonaws.com | HTTPS |
Ásia-Pacífico (Singapura) | ap-southeast-1 | bedrock-runtime.ap-southeast-1.amazonaws.com | HTTPS |
Ásia-Pacífico (Sydney) | ap-southeast-2 | bedrock-runtime.ap-southeast-2.amazonaws.com | HTTPS |
Ásia-Pacífico (Tóquio) | ap-northeast-1 | bedrock-runtime.ap-northeast-1.amazonaws.com | HTTPS |
Canadá (Central) | ca-central-1 |
bedrock-runtime.ca-central-1.amazonaws.com bedrock-runtime-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
Europa (Frankfurt) | eu-central-1 | bedrock-runtime.eu-central-1.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock-runtime.eu-west-1.amazonaws.com | HTTPS |
Europa (Londres) | eu-west-2 | bedrock-runtime.eu-west-2.amazonaws.com | HTTPS |
Europa (Paris) | eu-west-3 | bedrock-runtime.eu-west-3.amazonaws.com | HTTPS |
América do Sul (São Paulo) | sa-east-1 | bedrock-runtime.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (Oeste dos EUA) | us-gov-west-1 |
bedrock-runtime.us-gov-west-1.amazonaws.com bedrock-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Agentes do Amazon Bedrock Build-Time APIs
A tabela a seguir fornece uma lista de endpoints específicos da região que o Agents for Amazon Bedrock suporta para criar e gerenciar agentes e bases de conhecimento. Use esses endpoints para agentes para operações do Amazon Bedrock API.
Nome da região | Região | Endpoint | Protocolo |
---|---|---|---|
Leste dos EUA (Norte da Virgínia) | us-east-1 | bedrock-agent.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-fips.us-east-1.amazonaws.com | HTTPS | ||
Oeste dos EUA (Oregon) | us-west-2 | bedrock-agent.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-fips.us-west-2.amazonaws.com | HTTPS | ||
Ásia-Pacífico (Singapura) | ap-southeast-1 | bedrock-agent.ap-southeast-1.amazonaws.com | HTTPS |
Ásia-Pacífico (Sydney) | ap-southeast-2 | bedrock-agent.ap-southeast-2.amazonaws.com | HTTPS |
Ásia-Pacífico (Tóquio) | ap-northeast-1 | bedrock-agent.ap-northeast-1.amazonaws.com | HTTPS |
Canadá (Central) | ca-central-1 | bedrock-agent.ca-central-1.amazonaws.com | HTTPS |
Europa (Frankfurt) | eu-central-1 | bedrock-agent.eu-central-1.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock-agent.eu-west-1.amazonaws.com | HTTPS |
Europa (Londres) | eu-west-2 | bedrock-agent.eu-west-2.amazonaws.com | HTTPS |
Europa (Paris) | eu-west-3 | bedrock-agent.eu-west-3.amazonaws.com | HTTPS |
Ásia-Pacífico (Mumbai) | ap-south-1 | bedrock-agent.ap-south-1.amazonaws.com | HTTPS |
América do Sul (São Paulo) | sa-east-1 | bedrock-agent.sa-east-1.amazonaws.com | HTTPS |
Agentes para o tempo de execução do Amazon Bedrock APIs
A tabela a seguir fornece uma lista de endpoints específicos da região que o Agents for Amazon Bedrock suporta para invocar agentes e consultar bases de conhecimento. Use esses endpoints para agentes para operações do Amazon Bedrock Runtime API.
Nome da região | Região | Endpoint | Protocolo |
---|---|---|---|
Leste dos EUA (Norte da Virgínia) | us-east-1 | bedrock-agent-runtime.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-east-1.amazonaws.com | HTTPS | ||
Oeste dos EUA (Oregon) | us-west-2 | bedrock-agent-runtime.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-west-2.amazonaws.com | HTTPS | ||
Ásia-Pacífico (Singapura) | ap-southeast-1 | bedrock-agent-runtime.ap-southeast-1.amazonaws.com | HTTPS |
Ásia-Pacífico (Sydney) | ap-southeast-2 | bedrock-agent-runtime.ap-southeast-2.amazonaws.com | HTTPS |
Ásia-Pacífico (Tóquio) | ap-northeast-1 | bedrock-agent-runtime.ap-northeast-1.amazonaws.com | HTTPS |
Canadá (Central) | ca-central-1 | bedrock-agent-runtime.ca-central-1.amazonaws.com | HTTPS |
Europa (Frankfurt) | eu-central-1 | bedrock-agent-runtime.eu-central-1.amazonaws.com | HTTPS |
Europa (Paris) | eu-west-3 | bedrock-agent-runtime.eu-west-3.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock-agent-runtime.eu-west-1.amazonaws.com | HTTPS |
Europa (Londres) | eu-west-2 | bedrock-agent-runtime.eu-west-2.amazonaws.com | HTTPS |
Ásia-Pacífico (Mumbai) | ap-south-1 | bedrock-agent-runtime.ap-south-1.amazonaws.com | HTTPS |
América do Sul (São Paulo) | sa-east-1 | bedrock-agent-runtime.sa-east-1.amazonaws.com | HTTPS |
Cotas de serviço
Para obter instruções sobre como solicitar um aumento de cota, tanto para cotas cujo valor ajustável está marcado como Sim quanto para aquelas marcadas como Não, consulte Solicitar um aumento para as cotas do Amazon Bedrock. A tabela a seguir mostra uma lista de cotas para o Amazon Bedrock:
Nome | Padrão | Ajustável | Descrição |
---|---|---|---|
APIspor agente | Cada região compatível: 11 | Sim |
O número máximo APIs que você pode adicionar a um agente. |
Grupos de ações por agente | Cada região compatível: 20 | Sim |
O número máximo de grupos de ações que você pode adicionar a um agente. |
Nodos de agente por fluxo | Cada região com suporte: 10 | Não | O número máximo de nós do agente. |
Agentes por conta | Cada região compatível: 50 | Sim |
O número máximo de agentes em uma conta. |
AssociateAgentKnowledgeBase solicitações por segundo | Cada região compatível: 6 | Não | O número máximo de AssociateAgentKnowledgeBase API solicitações por segundo. |
Aliases associados por agente | Cada região com suporte: 10 | Não | O número máximo de aliases que você pode associar a um agente. |
Bases de conhecimento associadas por agente | Cada região compatível: 2 | Sim |
O número máximo de bases de conhecimento que você pode associar a um agente. |
Tamanho do arquivo de entrada de inferência em lote | Cada região suportada: 1.073.741.824 | Sim |
O tamanho máximo de um único arquivo (em bytes) enviado para inferência em lote. |
Tamanho do trabalho de inferência em lote | Cada região suportada: 5.368.709.120 | Sim |
O tamanho máximo cumulativo de todos os arquivos de entrada (em bytes) incluídos no trabalho de inferência em lote. |
Caracteres nas instruções do agente | Cada região compatível: 4.000 | Sim |
O número máximo de caracteres nas instruções de um agente. |
Nódulos coletores por fluxo | Cada região compatível: 1 | Não | O número máximo de nós coletores. |
Tarefas de ingestão simultâneas por conta | Cada região compatível: 5 | Não | O número máximo de trabalhos de ingestão que podem ser executados ao mesmo tempo em uma conta. |
Tarefas de ingestão simultâneas por fonte de dados | Cada região compatível: 1 | Não | O número máximo de trabalhos de ingestão que podem ser executados ao mesmo tempo para uma fonte de dados. |
Tarefas de ingestão simultâneas por base de conhecimento | Cada região compatível: 1 | Não | O número máximo de trabalhos de ingestão que podem ser executados ao mesmo tempo em uma base de conhecimento. |
Trabalhos de importação simultânea de modelos | Cada região compatível: 1 | Não | O número máximo de trabalhos de importação de modelos que estão em andamento simultaneamente. |
Condição de nós por fluxo | Cada região compatível: 5 | Não | O número máximo de nós de condição. |
Condições por nó de condição | Cada região compatível: 5 | Não | O número máximo de condições por nó de condição. |
Tamanho da consulta de base contextual em unidades de texto | Cada região compatível: 1 | Não | O tamanho máximo, em unidades de texto, da consulta para fundamentação contextual |
Tamanho da resposta de base contextual em unidades de texto | Cada região compatível: 5 | Não | O tamanho máximo, em unidades de texto, da resposta para fundamentação contextual |
Tamanho da fonte de base contextual em unidades de texto |
us-east-1: 100 us-west-2: 100 Cada uma das outras regiões compatíveis: 50 |
Não | O tamanho máximo, em unidades de texto, da fonte de aterramento para fundamentação contextual |
CreateAgent solicitações por segundo | Cada região compatível: 6 | Não | O número máximo de CreateAgent API solicitações por segundo. |
CreateAgentActionGroup solicitações por segundo | Cada região compatível: 12 | Não | O número máximo de CreateAgentActionGroup API solicitações por segundo. |
CreateAgentAlias solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreateAgentAlias API solicitações por segundo. |
CreateDataSource solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreateDataSource API solicitações por segundo. |
CreateFlow solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreateFlow solicitações por segundo. |
CreateFlowAlias solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreateFlowAlias solicitações por segundo. |
CreateFlowVersion solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreateFlowVersion solicitações por segundo. |
CreateKnowledgeBase solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreateKnowledgeBase API solicitações por segundo. |
CreatePrompt solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreatePrompt solicitações por segundo. |
CreatePromptVersion solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de CreatePromptVersion solicitações por segundo. |
Modelos personalizados por conta | Cada região compatível: 100 | Sim |
O número máximo de modelos personalizados em uma conta. |
Fontes de dados por base de conhecimento | Cada região compatível: 5 | Não | O número máximo de fontes de dados por base de conhecimento. |
DeleteAgent solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteAgent API solicitações por segundo. |
DeleteAgentActionGroup solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteAgentActionGroup API solicitações por segundo. |
DeleteAgentAlias solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteAgentAlias API solicitações por segundo. |
DeleteAgentVersion solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteAgentVersion API solicitações por segundo. |
DeleteDataSource solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteDataSource API solicitações por segundo. |
DeleteFlow solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteFlow solicitações por segundo. |
DeleteFlowAlias solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteFlowAlias solicitações por segundo. |
DeleteFlowVersion solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteFlowVersion solicitações por segundo. |
DeleteKnowledgeBase solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeleteKnowledgeBase API solicitações por segundo. |
DeletePrompt solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de DeletePrompt solicitações por segundo. |
DisassociateAgentKnowledgeBase solicitações por segundo | Cada região compatível: 4 | Não | O número máximo de DisassociateAgentKnowledgeBase API solicitações por segundo. |
Grupos de ação habilitados por agente | Cada região compatível: 11 | Sim |
O número máximo de grupos de ações que você pode ativar em um agente. |
Endpoints por perfil de inferência | Cada região compatível: 5 | Não | O número máximo de endpoints em um perfil de inferência. Um endpoint é definido por um modelo e pela região para a qual as solicitações de invocação ao modelo são enviadas. |
Frases de exemplo por tópico | Cada região compatível: 5 | Não | O número máximo de exemplos de tópicos que podem ser incluídos por tópico |
Arquivos a serem adicionados ou atualizados por tarefa de ingestão | Cada região suportada: 5.000.000 | Não | O número máximo de arquivos novos e atualizados que podem ser ingeridos por tarefa de ingestão. |
Arquivos a serem excluídos por tarefa de ingestão | Cada região suportada: 5.000.000 | Não | O número máximo de arquivos que podem ser excluídos por tarefa de ingestão. |
Aliases de fluxo por fluxo | Cada região com suporte: 10 | Não | O número máximo de aliases de fluxo. |
Versões de fluxo por fluxo | Cada região com suporte: 10 | Não | O número máximo de versões de fluxo. |
Fluxos por conta | Cada região compatível: 100 | Sim |
O número máximo de fluxos por conta. |
GetAgent solicitações por segundo | Cada região compatível: 15 | Não | O número máximo de GetAgent API solicitações por segundo. |
GetAgentActionGroup solicitações por segundo | Cada região compatível: 20 | Não | O número máximo de GetAgentActionGroup API solicitações por segundo. |
GetAgentAlias solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetAgentAlias API solicitações por segundo. |
GetAgentKnowledgeBase solicitações por segundo | Cada região compatível: 15 | Não | O número máximo de GetAgentKnowledgeBase API solicitações por segundo. |
GetAgentVersion solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetAgentVersion API solicitações por segundo. |
GetDataSource solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetDataSource API solicitações por segundo. |
GetFlow solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetFlow solicitações por segundo. |
GetFlowAlias solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetFlowAlias solicitações por segundo. |
GetFlowVersion solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetFlowVersion solicitações por segundo. |
GetIngestionJob solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetIngestionJob API solicitações por segundo. |
GetKnowledgeBase solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetKnowledgeBase API solicitações por segundo. |
GetPrompt solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de GetPrompt solicitações por segundo. |
Guardrails por conta | Cada região com suporte: 100 | Não | O número máximo de grades de proteção em uma conta |
Modelos importados por conta | Cada região compatível: 3 | Sim |
O número máximo de modelos importados em uma conta. |
Perfis de inferência por conta | Cada região compatível: 50 | Sim |
O número máximo de perfis de inferência em uma conta. |
Tamanho do arquivo do trabalho de ingestão | Cada região com suporte: 50 | Não | O tamanho máximo (em MB) de um arquivo em uma tarefa de ingestão. |
Tamanho do trabalho de ingestão | Cada região com suporte: 100 | Não | O tamanho máximo (em GB) de uma tarefa de ingestão. |
Nós de entrada por fluxo | Cada região compatível: 1 | Não | O número máximo de nós de entrada de fluxo. |
Nódulos iteradores por fluxo | Cada região compatível: 1 | Não | O número máximo de nós iteradores. |
Nódulos da base de conhecimento por fluxo | Cada região com suporte: 10 | Não | O número máximo de nós da base de conhecimento. |
Bases de conhecimento por conta | Cada região com suporte: 100 | Não | O número máximo de bases de conhecimento por conta. |
Nós da função Lambda por fluxo | Cada região com suporte: 10 | Não | O número máximo de nós da função Lambda. |
Nodos Lex por fluxo | Cada região compatível: 5 | Não | O número máximo de nós Lex. |
ListAgentActionGroups solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListAgentActionGroups API solicitações por segundo. |
ListAgentAliases solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListAgentAliases API solicitações por segundo. |
ListAgentKnowledgeBases solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListAgentKnowledgeBases API solicitações por segundo. |
ListAgentVersions solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListAgentVersions API solicitações por segundo. |
ListAgents solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListAgents API solicitações por segundo. |
ListDataSources solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListDataSources API solicitações por segundo. |
ListFlowAliases solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListFlowAliases solicitações por segundo. |
ListFlowVersions solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListFlowVersions solicitações por segundo. |
ListFlows solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListFlows solicitações por segundo. |
ListIngestionJobs solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListIngestionJobs API solicitações por segundo. |
ListKnowledgeBases solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListKnowledgeBases API solicitações por segundo. |
ListPrompts solicitações por segundo | Cada região com suporte: 10 | Não | O número máximo de ListPrompts solicitações por segundo. |
Unidades de modelo, taxas de transferência provisionadas sem compromisso em todos os modelos básicos | Cada região compatível: 2 | Sim |
O número máximo de unidades de modelo que podem ser distribuídas em taxas de transferência provisionadas sem compromisso para modelos básicos |
Unidades de modelo, taxas de transferência provisionadas sem compromisso em modelos personalizados | Cada região compatível: 2 | Sim |
O número máximo de unidades de modelo que podem ser distribuídas em taxas de transferência provisionadas sem compromisso para modelos personalizados |
Unidades de modelo por modelo provisionado para o AI21 Labs Jurassic-2 Mid | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Labs Jurassic-2 Mid. AI21 |
Unidades de modelo por modelo provisionado para o AI21 Labs Jurassic-2 Ultra | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Labs Jurassic-2 Ultra. AI21 |
Unidades de modelo por modelo provisionado para Amazon Titan Embeddings G1 - Texto | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para Amazon Titan Embeddings G1 - Text. |
Unidades de modelo por modelo provisionado para o Amazon Titan Image Generator G1 | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Amazon Titan Image Generator G1. |
Unidades de modelo por modelo provisionado para o Amazon Titan Image Generator G2 | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Amazon Titan Image Generator G2. |
Unidades de modelo por modelo provisionado para Amazon Titan Lite V1 4K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Amazon Titan Text Lite V1 4K. |
Unidades de modelo por modelo provisionado para Amazon Titan Multimodal Embeddings G1 | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Amazon Titan Multimodal Embeddings G1. |
Unidades de modelo por modelo provisionado para Amazon Titan Text Embeddings V2 | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para Amazon Titan Text Embeddings V2. |
Unidades de modelo por modelo provisionado para Amazon Titan Text G1 - Express 8K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Amazon Titan Text G1 - Express 8K. |
Unidades de modelo por modelo provisionado para Amazon Titan Text Premier V1 32K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Amazon Titan Text Premier V1 32K. |
Unidades modelo por modelo provisionado para Anthropic Claude 3 Haiku 200K | Cada região compatível: 0 | Sim |
O número máximo de unidades modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude 3 Haiku 200K. |
Unidades modelo por modelo provisionado para Anthropic Claude 3 Haiku 48K | Cada região compatível: 0 | Sim |
O número máximo de unidades modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude 3 Haiku 48K. |
Unidades modelo por modelo provisionado para Anthropic Claude 3 Sonnet 200K | Cada região compatível: 0 | Sim |
O número máximo de unidades modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude 3 Sonnet 200K. |
Unidades modelo por modelo provisionado para Anthropic Claude 3 Sonnet 28K | Cada região compatível: 0 | Sim |
O número máximo de unidades modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude 3 Sonnet 28K. |
Unidades modelo por modelo provisionado para Anthropic Claude 3.5 Sonnet 18K | Cada região compatível: 0 | Sim |
O número máximo de unidades modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet 18K. |
Unidades modelo por modelo provisionado para Anthropic Claude 3.5 Sonnet 200K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas para um modelo provisionado para o Anthropic Claude 3.5 Sonnet 200K. |
Unidades modelo por modelo provisionado para Anthropic Claude 3.5 Sonnet 51K | Cada região compatível: 0 | Sim |
O número máximo de unidades modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude 3.5 Sonnet 51K. |
Unidades de modelo por modelo provisionado para Anthropic Claude Instant V1 100K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude Instant V1 100K. |
Unidades modelo por modelo provisionado para Anthropic Claude V2 100K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude V2 100K. |
Unidades de modelo por modelo provisionado para Anthropic Claude V2 18K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude V2 18K. |
Unidades de modelo por modelo provisionado para Anthropic Claude V2.1 18K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude V2.1 18K. |
Unidades de modelo por modelo provisionado para Anthropic Claude V2.1 200K | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Anthropic Claude V2.1 200k. |
Unidades de modelo por modelo provisionado para o Cohere Command | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Cohere Command. |
Unidades de modelo por modelo provisionado para Cohere Command Light | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Cohere Command Light. |
Unidades de modelo por modelo provisionado para Cohere Command R | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Cohere Command R 128k. |
Unidades de modelo por modelo provisionado para Cohere Command R Plus | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Cohere Command R Plus 128k. |
Unidades de modelo por modelo provisionado para Cohere Embed English | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Cohere Embed English. |
Unidades de modelo por modelo provisionado para Cohere Embed Multilingual | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Cohere Embed Multilingual. |
Unidades de modelo por modelo provisionado para Meta Llama 2 13B | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para Meta Llama 2 13B. |
Unidades de modelo por modelo provisionado para Meta Llama 2 70B | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Meta Llama 2 70B. |
Unidades de modelo por modelo provisionado para Meta Llama 2 Chat 13B | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Meta Llama 2 Chat 13B. |
Unidades de modelo por modelo provisionado para Meta Llama 2 Chat 70B | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Meta Llama 2 Chat 70B. |
Unidades de modelo por modelo provisionado para Meta Llama 3 70B Instruct | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Meta Llama 3 70B Instruct. |
Unidades de modelo por modelo provisionado para Meta Llama 3 8B Instruct | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Meta Llama 3 8B Instruct. |
Unidades de modelo por modelo provisionado para Meta Llama 3.1 70B Instruct | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Meta Llama 3.1 70B Instruct. |
Unidades de modelo por modelo provisionado para Meta Llama 3.1 8B Instruct | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Meta Llama 3.1 8B Instruct. |
Unidades de modelo por modelo provisionado para Mistral Large 2407 | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Mistral Large 2407. |
Unidades de modelo por modelo provisionado para Mistral Small | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Mistral Small. |
Unidades de modelo por modelo provisionado para Stability.ai Stable Diffusion XL 0.8 | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para Stability.ai Stable Diffusion XL 0.8 |
Unidades de modelo por modelo provisionado para Stability.ai Stable Diffusion XL 1.0 | Cada região compatível: 0 | Sim |
O número máximo de unidades de modelo que podem ser alocadas a um modelo provisionado para o Stability.ai Stable Diffusion XL 1.0. |
Número de trabalhos simultâneos de avaliação automática de modelos | Cada região compatível: 20 | Não | O número máximo de trabalhos de avaliação automática de modelos que você pode especificar ao mesmo tempo nessa conta na região atual. |
Número de trabalhos simultâneos de avaliação de modelos que usam trabalhadores humanos | Cada região com suporte: 10 | Não | O número máximo de trabalhos de avaliação de modelo que usam trabalhadores humanos que você pode especificar ao mesmo tempo nessa conta na região atual. |
Número de métricas personalizadas | Cada região com suporte: 10 | Não | O número máximo de métricas personalizadas que você pode especificar em um trabalho de avaliação de modelo que usa trabalhadores humanos. |
Número de conjuntos de dados instantâneos personalizados em um trabalho de avaliação de modelo baseado em humanos | Cada região compatível: 1 | Não | O número máximo de conjuntos de dados de solicitações personalizadas que você pode especificar em um trabalho de avaliação de modelo baseado em humanos nessa conta na região atual. |
Número de conjuntos de dados por trabalho | Cada região compatível: 5 | Não | O número máximo de conjuntos de dados que você pode especificar em um trabalho automatizado de avaliação de modelo. Isso inclui conjuntos de dados de prompt personalizados e integrados. |
Número de trabalhos de avaliação | Cada região com suporte: 5.000 | Não | O número máximo de trabalhos de avaliação de modelo que você pode criar nessa conta na região atual. |
Número de métricas por conjunto de dados | Cada região compatível: 3 | Não | O número máximo de métricas que você pode especificar por conjunto de dados em um trabalho automatizado de avaliação de modelo. Isso inclui métricas personalizadas e incorporadas. |
Número de modelos em um trabalho de avaliação de modelos que usa trabalhadores humanos | Cada região compatível: 2 | Não | O número máximo de modelos que você pode especificar em um trabalho de avaliação de modelo que usa trabalhadores humanos. |
Número de modelos no trabalho de avaliação automatizada de modelos | Cada região compatível: 1 | Não | O número máximo de modelos que você pode especificar em um trabalho automatizado de avaliação de modelos. |
Número de solicitações em um conjunto de dados de solicitações personalizadas | Cada região compatível: 1.000 | Não | O número máximo de solicitações que um conjunto de dados de solicitações personalizadas pode conter. |
Política de filtro de ApplyGuardrail conteúdo sob demanda (unidades de texto por segundo) | Cada região compatível: 25 | Não | O número máximo de unidades de texto que podem ser processadas para políticas de filtro de conteúdo por segundo |
Unidades de texto da política de tópicos ApplyGuardrail negados sob demanda por segundo | Cada região compatível: 25 | Não | O número máximo de unidades de texto que podem ser processadas para políticas de tópicos negados por segundo |
Informações ApplyGuardrail confidenciais sob demanda filtram a política (unidades de texto por segundo) | Cada região compatível: 25 | Não | O número máximo de unidades de texto que podem ser processadas para políticas de filtro de informações confidenciais por segundo |
Política de filtro do ApplyGuardrail Word sob demanda (unidades de texto por segundo) | Cada região compatível: 25 | Não | O número máximo de unidades de texto que podem ser processadas para políticas de filtro do Word por segundo. |
Política de fundamentação ApplyGuardrail contextual sob demanda (unidades de texto por segundo) |
us-east-1:106 us-west-2:106 Cada uma das outras regiões suportadas: 53 |
Não | O número máximo de unidades de texto que podem ser processadas para políticas de fundamentação contextual por segundo |
ApplyGuardrail Solicitações sob demanda por segundo | Cada região compatível: 25 | Não | O número máximo de ApplyGuardrail API chamadas permitidas por segundo |
InvokeModel Solicitações sob demanda por minuto para o AI21 Labs Jamba 1.5 | Cada região com suporte: 100 | Não | O número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o AI21 Labs Jamba 1.5. A cota considera a soma combinada de solicitações para Converse e InvokeModel |
InvokeModel Solicitações sob demanda por minuto para o AI21 Labs Jamba Instruct | Cada região com suporte: 100 | Não | O número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o AI21 Labs Jamba Instruct. A cota considera a soma combinada de solicitações para Converse e InvokeModel |
InvokeModel Solicitações sob demanda por minuto para o AI21 Labs Jamba Large 1.5 | Cada região com suporte: 100 | Não | O número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o AI21 Labs Jamba Large 1.5. A cota considera a soma combinada de solicitações para Converse e InvokeModel |
InvokeModel Solicitações sob demanda por minuto para o AI21 Labs Jurassic-2 Mid | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do AI21 Labs Jurassic-2 Mid |
InvokeModel Solicitações sob demanda por minuto para o AI21 Labs Jurassic-2 Ultra | Cada região com suporte: 100 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do AI21 Labs Jurassic-2 Ultra |
InvokeModel Solicitações sob demanda por minuto para o Amazon Titan Image Generator G1 | Cada região compatível: 60 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Titan Image Generator G1. |
InvokeModel Solicitações sob demanda por minuto para o Amazon Titan Image Generator G1 V2 | Cada região compatível: 60 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Titan Image Generator G V2. |
InvokeModel Solicitações sob demanda por minuto para Amazon Titan Multimodal Embeddings G1 | Cada região compatível: 2.000 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Titan Multimodal Embeddings G1. |
InvokeModel Solicitações sob demanda por minuto para Amazon Titan Text Embeddings | Cada região compatível: 2.000 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para Amazon Titan Text Embeddings |
InvokeModel Solicitações sob demanda por minuto para Amazon Titan Text Embeddings V2 | Cada região compatível: 2.000 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Amazon Titan Text Embeddings V2 |
InvokeModel Solicitações sob demanda por minuto para o Amazon Titan Text Express | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Amazon Titan Text Express |
InvokeModel Solicitações sob demanda por minuto para o Amazon Titan Text Lite | Cada região compatível: 800 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Amazon Titan Text Lite. |
InvokeModel Solicitações sob demanda por minuto para o Amazon Titan Text Premier | Cada região com suporte: 100 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Amazon Titan Text Premier |
InvokeModel Solicitações sob demanda por minuto para Anthropic Claude 3 Haiku |
us-east-1: 1.000 us-west-2: 1.000 ap-northeast-1:200 ap-southeast-1:200 Cada uma das outras regiões suportadas: 400 |
Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Anthropic Claude 3 Haiku. |
InvokeModel Solicitações sob demanda por minuto para Anthropic Claude 3 Opus | Cada região com suporte: 50 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações de Anthropic Claude 3 Opus. |
InvokeModel Solicitações sob demanda por minuto para o Anthropic Claude 3 Sonnet |
us-east-1: 500 us-west-2: 500 Cada uma das outras regiões compatíveis: 100 |
Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Anthropic Claude 3 Sonnet. |
InvokeModel Solicitações sob demanda por minuto para o Anthropic Claude 3.5 Sonnet |
us-east-1:50 us-east-2:50 us-west-2:250 ap-northeast-2:50 ap-southeast-2:50 Cada uma das outras regiões compatíveis: 20 |
Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Anthropic Claude 3.5 Sonnet. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream |
InvokeModel Solicitações sob demanda por minuto para o Anthropic Claude 3.5 Sonnet V2 | Cada região compatível: 250 | Não | O número máximo de vezes que você pode chamar a inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet V2. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream |
InvokeModel Solicitações sob demanda por minuto para Anthropic Claude Instant |
us-east-1: 1.000 us-west-2: 1.000 Cada uma das outras regiões suportadas: 400 |
Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações de Anthropic Claude Instant |
InvokeModel Solicitações sob demanda por minuto para Anthropic Claude V2 |
us-east-1: 500 us-west-2: 500 Cada uma das outras regiões compatíveis: 100 |
Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações de Anthropic Claude V2. |
InvokeModel Solicitações sob demanda por minuto para o Cohere Command | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Cohere Command. |
InvokeModel Solicitações sob demanda por minuto para Cohere Command Light | Cada região compatível: 800 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações de Cohere Command Light. |
InvokeModel Solicitações sob demanda por minuto para o Cohere Command R | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Cohere Command R 128k. |
InvokeModel Solicitações sob demanda por minuto para o Cohere Command R Plus | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Cohere Command R Plus 128k. |
InvokeModel Solicitações sob demanda por minuto para o Cohere Embed English | Cada região compatível: 2.000 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Cohere Embed English. |
InvokeModel Solicitações sob demanda por minuto para o Cohere Embed Multilingual | Cada região compatível: 2.000 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Cohere Embed Multilingual. |
InvokeModel Solicitações sob demanda por minuto para Meta Llama 2 13B | Cada região compatível: 800 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações de Meta Llama 2 13B. |
InvokeModel Solicitações sob demanda por minuto para Meta Llama 2 70B | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações de Meta Llama 2 70B. |
InvokeModel Solicitações sob demanda por minuto para Meta Llama 2 Chat 13B | Cada região compatível: 800 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Meta Llama 2 Chat 13B. |
InvokeModel Solicitações sob demanda por minuto para Meta Llama 2 Chat 70B | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Meta Llama 2 Chat 70B. |
InvokeModel Solicitações sob demanda por minuto para o Meta Llama 3 70B Instruct | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Meta Llama 3 70B Instruct. |
InvokeModel Solicitações sob demanda por minuto para o Meta Llama 3 8B Instruct | Cada região compatível: 800 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e as InvokeModelWithResponseStream solicitações do Meta Llama 3 8B Instruct. |
InvokeModel Solicitações sob demanda por minuto para o Mistral 7B Instruct | Cada região compatível: 800 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para Mistral mistral-7 0 b-instruct-v |
InvokeModel Solicitações sob demanda por minuto para Mistral AI Mistral Small | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto para Mistral AI Mistral Small |
InvokeModel Solicitações sob demanda por minuto para Mistral Large | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel e InvokeModelWithResponseStream em um minuto para Mistral mistral-large-2402-v1 |
InvokeModel Solicitações sob demanda por minuto para Mistral Mixtral 8x7b Instruct | Cada região compatível: 400 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para Mistral mixtral-8x7b-v0 |
InvokeModel Solicitações sob demanda por minuto para Stability.ai Stable Diffusion 3 Large | Cada região compatível: 15 | Não | O número máximo de vezes que você pode ligar InvokeModel em um minuto para o Stability.ai Stable Diffusion 3 Large. |
InvokeModel Solicitações sob demanda por minuto para Stability.ai Stable Diffusion 3 Medium | Cada região compatível: 60 | Não | O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Diffusion 3 Medium |
InvokeModel Solicitações sob demanda por minuto para Stability.ai Stable Diffusion XL 0.8 | Cada região compatível: 60 | Não | O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Diffusion XL 0.8 |
InvokeModel Solicitações sob demanda por minuto para o Stability.ai Stable Diffusion XL 1.0 | Cada região compatível: 60 | Não | O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Diffusion XL 1.0 |
InvokeModel Solicitações sob demanda por minuto para o Stability.ai Stable Image Core | Cada região compatível: 90 | Não | O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Image Core. |
InvokeModel Solicitações sob demanda por minuto para o Stability.ai Stable Image Ultra | Cada região com suporte: 10 | Não | O número máximo de vezes que você pode chamar InvokeModel em um minuto para o Stability.ai Stable Image Ultra. |
InvokeModel Tokens sob demanda por minuto para o AI21 Labs Jamba 1.5. | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o AI21 Labs Jamba 1.5. A cota considera a soma combinada de tokens para Converse e. InvokeModel |
InvokeModel Tokens sob demanda por minuto para o AI21 Labs Jamba Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o AI21 Labs Jamba Instruct. A cota considera a soma combinada de tokens para Converse e InvokeModel |
InvokeModel Tokens sob demanda por minuto para o AI21 Labs Jamba Large 1.5. | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o AI21 Labs Jamba Large 1.5. A cota considera a soma combinada de tokens para Converse e. InvokeModel |
InvokeModel Tokens sob demanda por minuto para AI21 Labs Jurassic-2 Mid | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o AI21 Labs Jurassic-2 Mid. |
InvokeModel Tokens sob demanda por minuto para AI21 Labs Jurassic-2 Ultra | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o AI21 Labs Jurassic-2 Ultra. |
InvokeModel Tokens sob demanda por minuto para o Amazon Titan Image Generator G1 | Cada região compatível: 2.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Amazon Titan Image Generator G1. |
InvokeModel Tokens sob demanda por minuto para o Amazon Titan Image Generator G1 V2 | Cada região compatível: 2.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Amazon Titan Image Generator G1 V2. |
InvokeModel Tokens sob demanda por minuto para Amazon Titan Multimodal Embeddings G1 | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Amazon Titan Multimodal Embeddings G1. |
InvokeModel Tokens sob demanda por minuto para Amazon Titan Text Embeddings | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para Amazon Titan Text Embeddings. |
InvokeModel Tokens sob demanda por minuto para Amazon Titan Text Embeddings V2 | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Amazon Titan Text Embeddings V2. |
InvokeModel Tokens sob demanda por minuto para o Amazon Titan Text Express | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Amazon Titan Text Express. |
InvokeModel Tokens sob demanda por minuto para Amazon Titan Text Lite | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Amazon Titan Text Lite. |
InvokeModel Tokens sob demanda por minuto para Amazon Titan Text Premier | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Amazon Titan Text Premier. |
InvokeModel Tokens sob demanda por minuto para Anthropic Claude 3 Haiku |
us-east-1:2.000.000 us-west-2:2.000.000 ap-northeast-1:200.000 ap-southeast-1 ap-southeast-1:200.000 Cada uma das outras regiões suportadas: 300.000 |
Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Anthropic Claude 3 Haiku. |
InvokeModel Tokens sob demanda por minuto para Anthropic Claude 3 Opus | Cada região compatível: 400.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Anthropic Claude 3 Opus. |
InvokeModel Tokens sob demanda por minuto para o Anthropic Claude 3 Sonnet |
us-east-1:1.000.000 us-west-2:1.000.000 Cada uma das outras regiões suportadas: 200.000 |
Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Anthropic Claude 3 Sonnet. |
InvokeModel Tokens sob demanda por minuto para o Anthropic Claude 3.5 Sonnet |
us-east-1:400.000 us-east-2:400.000 us-west-2:2.000.000 ap-northeast-2:400.000 ap-southeast-2:400.000 Cada uma das outras regiões suportadas: 200.000 |
Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream |
InvokeModel Tokens sob demanda por minuto para Anthropic Claude 3.5 Sonnet V2 |
us-west-2:2.000.000 Cada uma das outras regiões suportadas: 400.000 |
Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Anthropic Claude 3.5 Sonnet V2. A cota considera a soma combinada de Converse ConverseStream, e. InvokeModel InvokeModelWithResponseStream |
InvokeModel Tokens sob demanda por minuto para Anthropic Claude Instant |
us-east-1:1.000.000 us-west-2:1.000.000 Cada uma das outras regiões suportadas: 300.000 |
Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Anthropic Claude Instant. |
InvokeModel Tokens sob demanda por minuto para Anthropic Claude V2 |
us-east-1: 500.000 us-west-2: 500.000 Cada uma das outras regiões suportadas: 200.000 |
Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Anthropic Claude V2. |
InvokeModel Tokens sob demanda por minuto para o Cohere Command | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada de InvokeModelWithResponseStream tokens para o Cohere InvokeModel Command. |
InvokeModel Tokens sob demanda por minuto para Cohere Command Light | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Cohere Command Light. |
InvokeModel Tokens sob demanda por minuto para o Cohere Command R | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada de InvokeModelWithResponseStream tokens para o Cohere InvokeModel Command R 128k. |
InvokeModel Tokens sob demanda por minuto para o Cohere Command R Plus | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada de InvokeModelWithResponseStream tokens para o Cohere InvokeModel Command R Plus 128k. |
InvokeModel Tokens sob demanda por minuto para Cohere Embed English | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Cohere Embed English. |
InvokeModel Tokens sob demanda por minuto para Cohere Embed Multilingual | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer InvokeModel em um minuto para o Cohere Embed Multilingual. |
InvokeModel Tokens sob demanda por minuto para Meta Llama 2 13B | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Meta Llama 2 13B. |
InvokeModel Tokens sob demanda por minuto para Meta Llama 2 70B | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada de InvokeModel InvokeModelWithResponseStream tokens para Meta Llama 2 70B. |
InvokeModel Tokens sob demanda por minuto para Meta Llama 2 Chat 13B | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Meta Llama 2 Chat 13B. |
InvokeModel Tokens sob demanda por minuto para Meta Llama 2 Chat 70B | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Meta Llama 2 Chat 70B. |
InvokeModel Tokens sob demanda por minuto para Meta Llama 3 70B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Meta Llama 3 70B Instruct. |
InvokeModel Tokens sob demanda por minuto para Meta Llama 3 8B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Meta Llama 3 8B Instruct. |
InvokeModel Tokens sob demanda por minuto para Mistral AI Mistral 7B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Mistral AI Mistral 7B Instruct. |
InvokeModel Tokens sob demanda por minuto para Mistral AI Mistral Large | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Mistral AI Mistral Large. |
InvokeModel Tokens sob demanda por minuto para Mistral AI Mistral Small | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada InvokeModel e os InvokeModelWithResponseStream tokens do Mistral AI Mistral Small. |
InvokeModel Tokens sob demanda por minuto para Mistral AI Mixtral 8X7BB Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode fornecer por meio InvokeModel e InvokeModelWithResponseStream em um minuto. A cota considera a soma combinada de InvokeModel e InvokeModelWithResponseStream tokens para Mistral mixtral-8x7 0. b-instruct-v |
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 405B Instruct | Cada região compatível: 200 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Meta Llama 3.1 405B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 70B Instruct | Cada região compatível: 400 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Meta Llama 3.1 70B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.1 8B Instruct | Cada região compatível: 800 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Meta Llama 3.1 8B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 11B Instruct | Cada região compatível: 400 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Meta Llama 3.2 11B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 1B Instruct | Cada região compatível: 800 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Meta Llama 3.2 1B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 3B Instruct | Cada região compatível: 800 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Meta Llama 3.2 3B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Solicitações de inferência de modelo sob demanda por minuto para o Meta Llama 3.2 90B Instruct | Cada região compatível: 400 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Meta Llama 3.2 90B Instruct. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Solicitações de inferência de modelo sob demanda por minuto para Mistral Large 2407 | Cada região compatível: 400 | Não | O número máximo de vezes que você pode chamar a inferência do modelo em um minuto para o Mistral Large 2407. A cota considera a soma combinada das solicitações de InvokeModel, InvokeModelWithResponseStream, Converse e ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Meta Llama 3.1 8B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 8B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Meta Llama 3.2 11B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 11B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Meta Llama 3.2 1B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 1B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Meta Llama 3.2 3B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 3B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Meta Llama 3.2 90B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.2 90B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Mistral Large 2407 | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Mistral Large 2407. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Meta Llama 3.1 405B Instruct | Cada região compatível: 400.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 405B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Tokens de inferência de modelo sob demanda por minuto para Meta Llama 3.1 70B Instruct | Cada região compatível: 300.000 | Não | O número máximo de tokens que você pode enviar para inferência de modelo em um minuto para o Meta Llama 3.1 70B Instruct. A cota considera a soma combinada de tokens para InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Nódulos de saída por fluxo | Cada região com suporte: 10 | Não | O número máximo de nós de saída de fluxo. |
Parâmetros por função | Cada região compatível: 5 | Sim |
O número máximo de parâmetros que você pode ter em uma função de grupo de ações. |
PrepareAgent solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de PrepareAgent API solicitações por segundo. |
PrepareFlow solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de PrepareFlow solicitações por segundo. |
Nodes de alerta por fluxo | Cada região compatível: 10 | Sim |
O número máximo de nós de prompt. |
Solicitações por conta | Cada região compatível: 50 | Sim |
O número máximo de solicitações. |
Registros por tarefa de inferência em lote | Cada região compatível: 50.000 | Sim |
O número máximo de registros em todos os arquivos de entrada em um trabalho de inferência em lote. |
Registros por arquivo de entrada por trabalho de inferência em lote | Cada região compatível: 50.000 | Sim |
O número máximo de registros em um arquivo de entrada em um trabalho de inferência em lote. |
Entidades Regex no filtro de informações confidenciais | Cada região com suporte: 10 | Não | O número máximo de regexes do filtro de guardrail que podem ser incluídas em uma política de palavras |
Comprimento do Regex em caracteres | Cada região com suporte: 500 | Não | O comprimento máximo, em caracteres, de um filtro de guardrail regex |
Recupere solicitações por segundo | Cada região compatível: 5 | Não | O número máximo de API solicitações de recuperação por segundo. |
RetrieveAndGenerate solicitações por segundo | Cada região compatível: 5 | Não | O número máximo de RetrieveAndGenerate API solicitações por segundo. |
Nós de recuperação S3 por fluxo | Cada região com suporte: 10 | Não | O número máximo de nós de recuperação do S3. |
Nós de armazenamento S3 por fluxo | Cada região com suporte: 10 | Não | O número máximo de nós de armazenamento S3. |
Tarefas de personalização agendadas | Cada região compatível: 2 | Não | O número máximo de trabalhos de personalização agendados. |
Tamanho do prompt | Cada região compatível: 4 | Não | O tamanho máximo (em KB) de um prompt individual é um conjunto de dados de prompt personalizado. |
StartIngestionJob solicitações por segundo | Cada região suportada: 0,1 | Não | O número máximo de StartIngestionJob API solicitações por segundo. |
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo básico | Cada região compatível: 10 | Sim |
O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo básico. |
Soma dos trabalhos de inferência em lote em andamento e enviados usando um modelo personalizado | Cada região compatível: 3 | Sim |
O número máximo de trabalhos de inferência em lote em andamento e enviados usando um modelo personalizado |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Claude 3 Haiku v1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Claude 3 Haiku. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 2 13B v1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Meta Llama 2 13B. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 2 70B v1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Meta Llama 2 70B. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.1 70B Instruct v1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.1 70B Instruct. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Meta Llama 3.1 8B Instruct v1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitido para um trabalho de ajuste fino do Meta Llama 3.1 8B Instruct. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Image Generator G1 V1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Titan Image Generator. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Image Generator G1 V2 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Titan Image Generator V2. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Multimodal Embeddings G1 v1 | Cada região compatível: 50.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino da Titan Multimodal Embeddings. |
Soma dos registros de treinamento e validação de um trabalho de pré-treinamento contínuo do Titan Text G1 - Express v1 | Cada região compatível: 100.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitido para um trabalho de pré-treinamento contínuo do Titan Text Express. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Text G1 - Express v1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Titan Text Express. |
Soma dos registros de treinamento e validação de um trabalho de pré-treinamento contínuo do Titan Text G1 - Lite v1 | Cada região compatível: 100.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitido para um trabalho de pré-treinamento contínuo do Titan Text Lite. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Text G1 - Lite v1 | Cada região com suporte: 10.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Titan Text Lite. |
Soma dos registros de treinamento e validação para um trabalho de ajuste fino do Titan Text G1 - Premier v1 | Cada região compatível: 20.000 | Sim |
O número máximo combinado de registros de treinamento e validação permitiu um trabalho de ajuste fino do Titan Text Premier. |
Hora da tarefa para trabalhadores | Cada região compatível: 30 | Não | A duração máxima (em dias) que um trabalhador pode ter para concluir tarefas. |
Tópicos por corrimão | Cada região compatível: 30 | Não | O número máximo de tópicos que podem ser definidos nas políticas de tópicos do Guardail |
Total de nós por fluxo | Cada região compatível: 40 | Não | O número máximo de nós em um fluxo. |
UpdateAgent solicitações por segundo | Cada região compatível: 4 | Não | O número máximo de UpdateAgent API solicitações por segundo. |
UpdateAgentActionGroup solicitações por segundo | Cada região compatível: 6 | Não | O número máximo de UpdateAgentActionGroup API solicitações por segundo |
UpdateAgentAlias solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de UpdateAgentAlias API solicitações por segundo. |
UpdateAgentKnowledgeBase solicitações por segundo | Cada região compatível: 4 | Não | O número máximo de UpdateAgentKnowledgeBase API solicitações por segundo. |
UpdateDataSource solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de UpdateDataSource API solicitações por segundo. |
UpdateFlow solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de UpdateFlow solicitações por segundo. |
UpdateFlowAlias solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de UpdateFlowAlias solicitações por segundo. |
UpdateKnowledgeBase solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de UpdateKnowledgeBase API solicitações por segundo. |
UpdatePrompt solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de UpdatePrompt solicitações por segundo. |
Tamanho da consulta do usuário | Cada região compatível: 1.000 | Não | O tamanho máximo (em caracteres) de uma consulta do usuário. |
ValidateFlowDefinition solicitações por segundo | Cada região compatível: 2 | Não | O número máximo de ValidateFlowDefinition solicitações por segundo. |
Versões por corrimão | Cada região compatível: 20 | Não | O número máximo de versões que um guarda-corpo pode ter |
Versões por prompt | Cada região com suporte: 10 | Não | O número máximo de versões por prompt. |
Tamanho da palavra em caracteres | Cada região com suporte: 100 | Não | O tamanho máximo de uma palavra, em caracteres, em uma lista de palavras bloqueadas |
Política de palavras por palavra | Cada região compatível: 10.000 | Não | O número máximo de palavras que podem ser incluídas em uma lista de palavras bloqueadas |