Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Endpoint e quote di Amazon Bedrock
Di seguito sono descritti gli endpoint del servizio e le quote di servizio per questo servizio. Per connettersi a livello di codice a un AWS servizio, si utilizza un endpoint. Oltre agli AWS endpoint standard, alcuni AWS servizi offrono FIPS endpoint in regioni selezionate. Per ulteriori informazioni, consulta AWS endpoint di servizio. Le quote di servizio, note anche come limiti, sono il numero massimo di risorse o operazioni di servizio per l'account. AWS Per ulteriori informazioni, consulta AWS quote di servizio.
Nota
AWS consiglia di utilizzare gli STS endpoint regionali all'interno delle applicazioni ed evitare di utilizzare l'endpoint globale (legacy)STS. STSGli endpoint regionali riducono la latenza, integrano la ridondanza e aumentano la validità dei token di sessione. Per ulteriori informazioni sulla configurazione delle applicazioni per l'utilizzo dell'endpoint regionale, consulta STS Endpoint AWS STS regionalizzati nella and Tools Reference Guide.AWS SDKs Per ulteriori informazioni sull'endpoint globale (legacy), incluso come monitorare l'utilizzo di questo AWS STS endpoint, consulta How to use Regional endpoint nel blog sulla sicurezza. AWS STS AWS
Endpoint di servizio
Piano di controllo Amazon Bedrock APIs
La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Amazon Bedrock per la gestione, l'addestramento e la distribuzione dei modelli. Usa questi endpoint per le operazioni di Amazon Bedrock API.
Nome della regione | Regione | Endpoint | Protocollo |
---|---|---|---|
US East (Ohio) | us-east-2 |
bedrock.us-east-2.amazonaws.com bedrock-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
US East (N. Virginia) | us-east-1 |
bedrock.us-east-1.amazonaws.com bedrock-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
US West (Oregon) | us-west-2 |
bedrock.us-west-2.amazonaws.com bedrock-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
Asia Pacifico (Mumbai) | ap-south-1 | bedrock.ap-south-1.amazonaws.com | HTTPS |
Asia Pacifico (Seoul) | ap-northeast-2 | bedrock.ap-northeast-2.amazonaws.com | HTTPS |
Asia Pacifico (Singapore) | ap-southeast-1 | bedrock.ap-southeast-1.amazonaws.com | HTTPS |
Asia Pacific (Sydney) | ap-southeast-2 | bedrock.ap-southeast-2.amazonaws.com | HTTPS |
Asia Pacifico (Tokyo) | ap-northeast-1 | bedrock.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Centrale) | ca-central-1 |
bedrock.ca-central-1.amazonaws.com bedrock-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
Europa (Francoforte) | eu-central-1 | bedrock.eu-central-1.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock.eu-west-1.amazonaws.com | HTTPS |
Europa (Londra) | eu-west-2 | bedrock.eu-west-2.amazonaws.com | HTTPS |
Europa (Parigi) | eu-west-3 | bedrock.eu-west-3.amazonaws.com | HTTPS |
Sud America (São Paulo) | sa-east-1 | bedrock.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (Stati Uniti occidentali) | us-gov-west-1 |
bedrock.us-gov-west-1.amazonaws.com bedrock-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Runtime di Amazon Bedrock APIs
La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Amazon Bedrock per effettuare richieste di inferenza per modelli ospitati in Amazon Bedrock. Usa questi endpoint per le operazioni di Amazon Bedrock Runtime API.
Nome della regione | Regione | Endpoint | Protocollo |
---|---|---|---|
US East (Ohio) | us-east-2 |
bedrock-runtime.us-east-2.amazonaws.com bedrock-runtime-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
US East (N. Virginia) | us-east-1 |
bedrock-runtime.us-east-1.amazonaws.com bedrock-runtime-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
US West (Oregon) | us-west-2 |
bedrock-runtime.us-west-2.amazonaws.com bedrock-runtime-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
Asia Pacifico (Mumbai) | ap-south-1 | bedrock-runtime.ap-south-1.amazonaws.com | HTTPS |
Asia Pacifico (Seoul) | ap-northeast-2 | bedrock-runtime.ap-northeast-2.amazonaws.com | HTTPS |
Asia Pacifico (Singapore) | ap-southeast-1 | bedrock-runtime.ap-southeast-1.amazonaws.com | HTTPS |
Asia Pacific (Sydney) | ap-southeast-2 | bedrock-runtime.ap-southeast-2.amazonaws.com | HTTPS |
Asia Pacifico (Tokyo) | ap-northeast-1 | bedrock-runtime.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Centrale) | ca-central-1 |
bedrock-runtime.ca-central-1.amazonaws.com bedrock-runtime-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
Europa (Francoforte) | eu-central-1 | bedrock-runtime.eu-central-1.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock-runtime.eu-west-1.amazonaws.com | HTTPS |
Europa (Londra) | eu-west-2 | bedrock-runtime.eu-west-2.amazonaws.com | HTTPS |
Europa (Parigi) | eu-west-3 | bedrock-runtime.eu-west-3.amazonaws.com | HTTPS |
Sud America (São Paulo) | sa-east-1 | bedrock-runtime.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (Stati Uniti occidentali) | us-gov-west-1 |
bedrock-runtime.us-gov-west-1.amazonaws.com bedrock-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Agenti per Amazon Bedrock build-time APIs
La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Agents for Amazon Bedrock per la creazione e la gestione di agenti e knowledge base. Usa questi endpoint per le operazioni di Agents for Amazon Bedrock API.
Nome della regione | Regione | Endpoint | Protocollo |
---|---|---|---|
US East (N. Virginia) | us-east-1 | bedrock-agent.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-fips.us-east-1.amazonaws.com | HTTPS | ||
US West (Oregon) | us-west-2 | bedrock-agent.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-fips.us-west-2.amazonaws.com | HTTPS | ||
Asia Pacific (Singapore) | ap-southeast-1 | bedrock-agent.ap-southeast-1.amazonaws.com | HTTPS |
Asia Pacific (Sydney) | ap-southeast-2 | bedrock-agent.ap-southeast-2.amazonaws.com | HTTPS |
Asia Pacifico (Tokyo) | ap-northeast-1 | bedrock-agent.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Central) | ca-central-1 | bedrock-agent.ca-central-1.amazonaws.com | HTTPS |
Europe (Frankfurt) | eu-central-1 | bedrock-agent.eu-central-1.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock-agent.eu-west-1.amazonaws.com | HTTPS |
Europe (London) | eu-west-2 | bedrock-agent.eu-west-2.amazonaws.com | HTTPS |
Europe (Paris) | eu-west-3 | bedrock-agent.eu-west-3.amazonaws.com | HTTPS |
Asia Pacific (Mumbai) | ap-south-1 | bedrock-agent.ap-south-1.amazonaws.com | HTTPS |
Sud America (São Paulo) | sa-east-1 | bedrock-agent.sa-east-1.amazonaws.com | HTTPS |
Agenti per il runtime di Amazon Bedrock APIs
La tabella seguente fornisce un elenco di endpoint specifici della regione supportati da Agents for Amazon Bedrock per richiamare agenti e interrogare le knowledge base. Usa questi endpoint per le operazioni di Agents for Amazon Bedrock Runtime API.
Nome della regione | Regione | Endpoint | Protocollo |
---|---|---|---|
US East (N. Virginia) | us-east-1 | bedrock-agent-runtime.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-east-1.amazonaws.com | HTTPS | ||
US West (Oregon) | us-west-2 | bedrock-agent-runtime.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-west-2.amazonaws.com | HTTPS | ||
Asia Pacific (Singapore) | ap-southeast-1 | bedrock-agent-runtime.ap-southeast-1.amazonaws.com | HTTPS |
Asia Pacific (Sydney) | ap-southeast-2 | bedrock-agent-runtime.ap-sutheast-2.amazonaws.com | HTTPS |
Asia Pacifico (Tokyo) | ap-northeast-1 | bedrock-agent-runtime.ap-northeast-1.amazonaws.com | HTTPS |
Canada (Central) | ca-central-1 | bedrock-agent-runtime.ca-central-1.amazonaws.com | HTTPS |
Europe (Frankfurt) | eu-central-1 | bedrock-agent-runtime.eu-central-1.amazonaws.com | HTTPS |
Europe (Paris) | eu-west-3 | bedrock-agent-runtime.eu-west-3.amazonaws.com | HTTPS |
Europa (Irlanda) | eu-west-1 | bedrock-agent-runtime.eu-west-1.amazonaws.com | HTTPS |
Europe (London) | eu-west-2 | bedrock-agent-runtime.eu-west-2.amazonaws.com | HTTPS |
Asia Pacific (Mumbai) | ap-south-1 | bedrock-agent-runtime.ap-south-1.amazonaws.com | HTTPS |
Sud America (São Paulo) | sa-east-1 | bedrock-agent-runtime.sa-east-1.amazonaws.com | HTTPS |
Quote del servizio
Per istruzioni su come richiedere un aumento della quota, sia per le quote il cui valore regolabile è contrassegnato come Sì sia per quelle contrassegnate come No, consulta Richiedere un aumento per le quote Amazon Bedrock. La tabella seguente mostra un elenco di quote per Amazon Bedrock:
Nome | Predefinita | Adattabile | Descrizione |
---|---|---|---|
APIsper agente | Ogni regione supportata: 11 | Sì |
Il numero massimo di APIs elementi che puoi aggiungere a un agente. |
Gruppi di operazioni per agente | Ogni regione supportata: 20 | Sì |
Il numero massimo di gruppi di azioni che è possibile aggiungere a un agente. |
Nodi di agente per flusso | Ogni regione supportata: 10 | No | Il numero massimo di nodi agente. |
Agenti per account | Ogni Regione supportata: 50 | Sì |
Il numero massimo di agenti in un account. |
AssociateAgentKnowledgeBase richieste al secondo | Ogni regione supportata: 6 | No | Il numero massimo di AssociateAgentKnowledgeBase API richieste al secondo. |
Alias associati per agente | Ogni regione supportata: 10 | No | Il numero massimo di alias che è possibile associare a un agente. |
Knowledge base associate per agente | Ogni regione supportata: 2 | Sì |
Il numero massimo di knowledge base che è possibile associare a un agente. |
Dimensione del file di input per inferenza in batch | Ogni regione supportata: 1.073.741.824 | Sì |
La dimensione massima di un singolo file (in byte) inviato per l'inferenza in batch. |
Dimensione del lavoro di inferenza in batch | Ogni regione supportata: 5.368.709.120 | Sì |
La dimensione cumulativa massima di tutti i file di input (in byte) inclusi nel processo di inferenza in batch. |
Caratteri nelle istruzioni per l'agente | Ogni regione supportata: 4.000 | Sì |
Il numero massimo di caratteri nelle istruzioni per un agente. |
Nodi di raccolta per flusso | Ogni regione supportata: 1 | No | Il numero massimo di nodi collector. |
Lavori di ingestione simultanei per account | Ogni Regione supportata: 5 | No | Il numero massimo di processi di inserimento che possono essere eseguiti contemporaneamente in un account. |
Lavori di ingestione simultanei per fonte di dati | Ogni regione supportata: 1 | No | Il numero massimo di processi di inserimento che possono essere eseguiti contemporaneamente per un'origine dati. |
Lavori di inserimento simultanei per base di conoscenza | Ogni regione supportata: 1 | No | Il numero massimo di processi di inserimento che possono essere eseguiti contemporaneamente per una knowledge base. |
Lavori di importazione simultanea di modelli | Ogni regione supportata: 1 | No | Il numero massimo di processi di importazione del modello in corso contemporaneamente. |
Condiziona i nodi per flusso | Ogni Regione supportata: 5 | No | Il numero massimo di nodi di condizione. |
Condizioni per nodo di condizione | Ogni Regione supportata: 5 | No | Il numero massimo di condizioni per nodo di condizione. |
Lunghezza della query di base contestuale in unità di testo | Ogni regione supportata: 1 | No | La lunghezza massima, in unità di testo, della query per la base contestuale |
Lunghezza della risposta di base contestuale in unità di testo | Ogni Regione supportata: 5 | No | La lunghezza massima, in unità di testo, della risposta per la messa a terra contestuale |
Lunghezza della sorgente di base contestuale in unità di testo |
us-east-1: 100 us-west-2: 100 Ogni altra regione supportata: 50 |
No | La lunghezza massima, in unità di testo, della sorgente di messa a terra per la messa a terra contestuale |
CreateAgent richieste al secondo | Ogni regione supportata: 6 | No | Il numero massimo di CreateAgent API richieste al secondo. |
CreateAgentActionGroup richieste al secondo | Ogni regione supportata: 12 | No | Il numero massimo di CreateAgentActionGroup API richieste al secondo. |
CreateAgentAlias richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreateAgentAlias API richieste al secondo. |
CreateDataSource richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreateDataSource API richieste al secondo. |
CreateFlow richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreateFlow richieste al secondo. |
CreateFlowAlias richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreateFlowAlias richieste al secondo. |
CreateFlowVersion richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreateFlowVersion richieste al secondo. |
CreateKnowledgeBase richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreateKnowledgeBase API richieste al secondo. |
CreatePrompt richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreatePrompt richieste al secondo. |
CreatePromptVersion richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di CreatePromptVersion richieste al secondo. |
Modelli personalizzati per account | Ogni regione supportata: 100 | Sì |
Il numero massimo di modelli personalizzati in un account. |
Fonti di dati per base di conoscenza | Ogni Regione supportata: 5 | No | Il numero massimo di fonti di dati per base di conoscenza. |
DeleteAgent richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteAgent API richieste al secondo. |
DeleteAgentActionGroup richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteAgentActionGroup API richieste al secondo. |
DeleteAgentAlias richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteAgentAlias API richieste al secondo. |
DeleteAgentVersion richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteAgentVersion API richieste al secondo. |
DeleteDataSource richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteDataSource API richieste al secondo. |
DeleteFlow richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteFlow richieste al secondo. |
DeleteFlowAlias richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteFlowAlias richieste al secondo. |
DeleteFlowVersion richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteFlowVersion richieste al secondo. |
DeleteKnowledgeBase richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeleteKnowledgeBase API richieste al secondo. |
DeletePrompt richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di DeletePrompt richieste al secondo. |
DisassociateAgentKnowledgeBase richieste al secondo | Ogni regione supportata: 4 | No | Il numero massimo di DisassociateAgentKnowledgeBase API richieste al secondo. |
Gruppi di azioni abilitati per agente | Ogni regione supportata: 11 | Sì |
Il numero massimo di gruppi di azioni che è possibile abilitare in un agente. |
Endpoint per profilo di inferenza | Ogni Regione supportata: 5 | No | Il numero massimo di endpoint in un profilo di inferenza. Un endpoint è definito da un modello e dalla regione a cui vengono inviate le richieste di invocazione al modello. |
Frasi di esempio per argomento | Ogni Regione supportata: 5 | No | Il numero massimo di esempi di argomento che è possibile includere per argomento |
File da aggiungere o aggiornare per processo di inserimento | Ogni regione supportata: 5.000.000 | No | Il numero massimo di file nuovi e aggiornati che possono essere importati per processo di ingestione. |
File da eliminare per processo di ingestione | Ogni regione supportata: 5.000.000 | No | Il numero massimo di file che possono essere eliminati per processo di ingestione. |
Alias di flusso per flusso | Ogni regione supportata: 10 | No | Il numero massimo di alias di flusso. |
Versioni di flusso per flusso | Ogni regione supportata: 10 | No | Il numero massimo di versioni di flusso. |
Flussi per account | Ogni regione supportata: 100 | Sì |
Il numero massimo di flussi per account. |
GetAgent richieste al secondo | Ogni regione supportata: 15 | No | Il numero massimo di GetAgent API richieste al secondo. |
GetAgentActionGroup richieste al secondo | Ogni regione supportata: 20 | No | Il numero massimo di GetAgentActionGroup API richieste al secondo. |
GetAgentAlias richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetAgentAlias API richieste al secondo. |
GetAgentKnowledgeBase richieste al secondo | Ogni regione supportata: 15 | No | Il numero massimo di GetAgentKnowledgeBase API richieste al secondo. |
GetAgentVersion richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetAgentVersion API richieste al secondo. |
GetDataSource richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetDataSource API richieste al secondo. |
GetFlow richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetFlow richieste al secondo. |
GetFlowAlias richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetFlowAlias richieste al secondo. |
GetFlowVersion richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetFlowVersion richieste al secondo. |
GetIngestionJob richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetIngestionJob API richieste al secondo. |
GetKnowledgeBase richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetKnowledgeBase API richieste al secondo. |
GetPrompt richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di GetPrompt richieste al secondo. |
Guardrail per account | Ogni regione supportata: 100 | No | Il numero massimo di guardrail in un account |
Modelli importati per account | Ogni regione supportata: 3 | Sì |
Il numero massimo di modelli importati in un account. |
Profili di inferenza per account | Ogni Regione supportata: 50 | Sì |
Il numero massimo di profili di inferenza in un account. |
Dimensione del file del processo di importazione | Ogni Regione supportata: 50 | No | La dimensione massima (in MB) di un file in un processo di importazione. |
Dimensione del lavoro di importazione | Ogni regione supportata: 100 | No | La dimensione massima (in GB) di un processo di importazione. |
Nodi di input per flusso | Ogni regione supportata: 1 | No | Il numero massimo di nodi di input del flusso. |
Nodi iteratori per flusso | Ogni regione supportata: 1 | No | Il numero massimo di nodi iteratori. |
Nodi della Knowledge Base per flusso | Ogni regione supportata: 10 | No | Il numero massimo di nodi della knowledge base. |
Basi di conoscenza per account | Ogni regione supportata: 100 | No | Il numero massimo di basi di conoscenza per account. |
Nodi di funzione Lambda per flusso | Ogni regione supportata: 10 | No | Il numero massimo di nodi di funzione Lambda. |
Nodi Lex per flusso | Ogni Regione supportata: 5 | No | Il numero massimo di nodi Lex. |
ListAgentActionGroups richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListAgentActionGroups API richieste al secondo. |
ListAgentAliases richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListAgentAliases API richieste al secondo. |
ListAgentKnowledgeBases richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListAgentKnowledgeBases API richieste al secondo. |
ListAgentVersions richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListAgentVersions API richieste al secondo. |
ListAgents richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListAgents API richieste al secondo. |
ListDataSources richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListDataSources API richieste al secondo. |
ListFlowAliases richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListFlowAliases richieste al secondo. |
ListFlowVersions richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListFlowVersions richieste al secondo. |
ListFlows richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListFlows richieste al secondo. |
ListIngestionJobs richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListIngestionJobs API richieste al secondo. |
ListKnowledgeBases richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListKnowledgeBases API richieste al secondo. |
ListPrompts richieste al secondo | Ogni regione supportata: 10 | No | Il numero massimo di ListPrompts richieste al secondo. |
Unità del modello Provisioned Throughput senza impegno tra i modelli base | Ogni regione supportata: 2 | Sì |
Il numero massimo di unità del modello che possono essere distribuite tra i throughput forniti senza impegno per i modelli base |
Unità del modello, provisioned throughput senza impegno tra modelli personalizzati | Ogni regione supportata: 2 | Sì |
Il numero massimo di unità del modello che possono essere distribuite tra i throughput forniti senza impegno per i modelli personalizzati |
Unità modello per modello fornito per Labs Jurassic-2 Mid AI21 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Labs Jurassic-2 Mid. AI21 |
Unità modello per modello fornito per Labs Jurassic-2 Ultra AI21 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Labs Jurassic-2 Ultra. AI21 |
Unità modello per modello fornito per Amazon Titan Embeddings G1 - Testo | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Embeddings G1 - Text. |
Unità del modello per modello fornito per Amazon Titan Image Generator G1 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Image Generator G1. |
Unità del modello per modello fornito per Amazon Titan Image Generator G2 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Image Generator G2. |
Unità modello per modello fornito per Amazon Titan Lite V1 4K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text Lite V1 4K. |
Unità modello per modello fornito per Amazon Titan Multimodal Embeddings G1 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Multimodal Embeddings G1. |
Unità del modello per modello fornito per Amazon Titan Text Embeddings V2 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text Embeddings V2. |
Unità modello per modello fornito per Amazon Titan Text G1 - Express 8K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text G1 - Express 8K. |
Unità modello per modello fornito per Amazon Titan Text Premier V1 32K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Amazon Titan Text Premier V1 32K. |
Unità modello per modello fornito per Anthropic Claude 3 Haiku 200K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Haiku 200K. |
Unità modello per modello fornito per Anthropic Claude 3 Haiku 48K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Haiku 48K. |
Unità modello per modello fornito per Anthropic Claude 3 Sonnet 200K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Sonnet 200K. |
Unità modello per modello fornito per Anthropic Claude 3 Sonnet 28K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3 Sonnet 28K. |
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet 18K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet 18K. |
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet 200K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet 200K. |
Unità modello per modello fornito per Anthropic Claude 3.5 Sonnet 51K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude 3.5 Sonnet 51K. |
Unità modello per modello fornito per Anthropic Claude Instant V1 100K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude Instant V1 100K. |
Unità modello per modello fornito per Anthropic Claude V2 100K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2 100K. |
Unità modello per modello fornito per Anthropic Claude V2 18K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2 18K. |
Unità modello per modello fornito per Anthropic Claude V2.1 18K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2.1 18K. |
Unità modello per modello fornito per Anthropic Claude V2.1 200K | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Anthropic Claude V2.1 200k. |
Unità modello per modello fornito per Cohere Command | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command. |
Unità modello per modello fornito per Cohere Command Light | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command Light. |
Unità del modello per modello fornito per Cohere Command R | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command R 128k. |
Unità modello per modello fornito per Cohere Command R Plus | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Command R Plus 128k. |
Unità modello per modello fornito per Cohere Embed English | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Embed English. |
Unità modello per modello fornito per Cohere Embed Multilingual | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Cohere Embed Multilingual. |
Unità modello per modello fornito per Meta Llama 2 13B | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 13B. |
Unità modello per modello fornito per Meta Llama 2 70B | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 70B. |
Unità modello per modello fornito per Meta Llama 2 Chat 13B | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 Chat 13B. |
Unità modello per modello fornito per Meta Llama 2 Chat 70B | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 2 Chat 70B. |
Unità modello per modello fornito per Meta Llama 3 70B Instruct | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3 70B Instruct. |
Unità modello per modello fornito per Meta Llama 3 8B Instruct | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3 8B Instruct. |
Unità modello per modello fornito per Meta Llama 3.1 70B Instruct | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.1 70B Instruct. |
Unità modello per modello fornito per Meta Llama 3.1 8B Instruct | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Meta Llama 3.1 8B Instruct. |
Unità modello per modello fornito per Mistral Large 2407 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Mistral Large 2407. |
Unità modello per modello fornito per Mistral Small | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Mistral Small. |
Unità modello per modello fornito per Stability.ai Stable Diffusion XL 0.8 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Stability.ai Stable Diffusion XL 0.8 |
Unità modello per modello fornito per Stability.ai Stable Diffusion XL 1.0 | Ogni regione supportata: 0 | Sì |
Il numero massimo di unità del modello che possono essere assegnate a un modello fornito per Stability.ai Stable Diffusion XL 1.0. |
Numero di processi simultanei di valutazione automatica del modello | Ogni regione supportata: 20 | No | Il numero massimo di lavori di valutazione automatica del modello che è possibile specificare contemporaneamente in questo account nella regione corrente. |
Numero di lavori simultanei di valutazione dei modelli che utilizzano lavoratori umani | Ogni regione supportata: 10 | No | Il numero massimo di lavori di valutazione dei modelli che utilizzano lavoratori umani è possibile specificare contemporaneamente in questo account nella regione corrente. |
Numero di metriche personalizzate | Ogni regione supportata: 10 | No | Il numero massimo di metriche personalizzate che è possibile specificare in un processo di valutazione del modello che utilizza lavoratori umani. |
Numero di set di dati prompt personalizzati in un processo di valutazione di modelli basato sull'uomo | Ogni regione supportata: 1 | No | Il numero massimo di set di dati di prompt personalizzati che è possibile specificare in un processo di valutazione di modelli basato sull'uomo in questo account nella regione corrente. |
Numero di set di dati per job | Ogni Regione supportata: 5 | No | Il numero massimo di set di dati che è possibile specificare in un processo di valutazione automatizzato del modello. Ciò include set di dati prompt personalizzati e integrati. |
Numero di lavori di valutazione | Ogni regione supportata: 5.000 | No | Il numero massimo di lavori di valutazione dei modelli che è possibile creare in questo account nella regione corrente. |
Numero di metriche per set di dati | Ogni regione supportata: 3 | No | Il numero massimo di metriche che è possibile specificare per set di dati in un processo di valutazione automatizzato del modello. Ciò include metriche personalizzate e integrate. |
Numero di modelli in un processo di valutazione dei modelli che utilizza lavoratori umani | Ogni regione supportata: 2 | No | Il numero massimo di modelli che è possibile specificare in un processo di valutazione dei modelli che utilizza lavoratori umani. |
Numero di modelli in un processo di valutazione automatizzata dei modelli | Ogni regione supportata: 1 | No | Il numero massimo di modelli che è possibile specificare in un processo di valutazione automatizzato del modello. |
Numero di prompt in un set di dati di prompt personalizzato | Ogni regione supportata: 1.000 | No | Il numero massimo di prompt che un set di dati di prompt personalizzato può contenere. |
On-demand ApplyGuardrail Content Filter Policy (unità di testo al secondo) | Ogni regione supportata: 25 | No | Il numero massimo di unità di testo che possono essere elaborate per le politiche di filtro dei contenuti al secondo |
Unità di testo al secondo della politica sull'argomento ApplyGuardrail negato su richiesta | Ogni regione supportata: 25 | No | Il numero massimo di unità di testo che possono essere elaborate per le politiche relative agli argomenti negati al secondo |
Unità di testo della politica di filtraggio delle informazioni ApplyGuardrail sensibili su richiesta (unità di testo al secondo) | Ogni regione supportata: 25 | No | Il numero massimo di unità di testo che possono essere elaborate per i criteri di filtro delle informazioni sensibili al secondo |
Unità di testo al secondo per le politiche di filtraggio di ApplyGuardrail Word su richiesta | Ogni regione supportata: 25 | No | Il numero massimo di unità di testo che possono essere elaborate per i criteri di filtro di Word al secondo. |
Unità di testo delle politiche di base ApplyGuardrail contestuali su richiesta (unità di testo al secondo) |
us-east-1:106 Stati Uniti-ovest-2:106 Ciascuna delle altre regioni supportate: 53 |
No | Il numero massimo di unità di testo che possono essere elaborate per le politiche di base contestuali al secondo |
Richieste su richiesta ApplyGuardrail al secondo | Ogni regione supportata: 25 | No | Il numero massimo di ApplyGuardrail API chiamate consentite al secondo |
Richieste su InvokeModel richiesta al minuto per AI21 Labs Jamba 1.5 | Ogni regione supportata: 100 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza dei modelli in un minuto per AI21 Labs Jamba 1.5. La quota considera la somma combinata delle richieste per Converse e InvokeModel |
Richieste su InvokeModel richiesta al minuto per AI21 Labs Jamba Instruct | Ogni regione supportata: 100 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Labs Jamba Instruct. AI21 La quota considera la somma combinata delle richieste per Converse e InvokeModel |
InvokeModel Richieste su richiesta al minuto per AI21 Labs Jamba Large 1.5 | Ogni regione supportata: 100 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza dei modelli in un minuto per AI21 Labs Jamba Large 1.5. La quota considera la somma combinata delle richieste per Converse e InvokeModel |
InvokeModel Richieste su richiesta al minuto per AI21 Labs Jurassic-2 Mid | Ogni regione supportata: 400 | No | Il numero massimo di chiamate InvokeModel che è possibile effettuare in un minuto. InvokeModelWithResponseStream La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per AI21 Labs Jurassic-2 Mid |
InvokeModel Richieste su richiesta al minuto per Labs Jurassic-2 Ultra AI21 | Ogni regione supportata: 100 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per AI21 Labs Jurassic-2 Ultra |
InvokeModel Richieste su richiesta al minuto per Amazon Titan Image Generator G1 | Ogni regione supportata: 60 | No | Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Image Generator G1. |
InvokeModel Richieste su richiesta al minuto per Amazon Titan Image Generator G1 V2 | Ogni regione supportata: 60 | No | Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Image Generator G V2. |
InvokeModel Richieste su richiesta al minuto per Amazon Titan Multimodal Embeddings G1 | Ogni regione supportata: 2.000 | No | Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Multimodal Embeddings G1. |
InvokeModel Richieste su richiesta al minuto per Amazon Titan Text Embeddings | Ogni regione supportata: 2.000 | No | Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Text Embeddings |
InvokeModel Richieste su richiesta al minuto per Amazon Titan Text Embeddings V2 | Ogni regione supportata: 2.000 | No | Il numero massimo di chiamate InvokeModel in un minuto per Amazon Titan Text Embeddings V2 |
Richieste su InvokeModel richiesta al minuto per Amazon Titan Text Express | Ogni regione supportata: 400 | No | Il numero massimo di chiamate InvokeModel che puoi effettuare InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Amazon Titan Text Express |
InvokeModel Richieste su richiesta al minuto per Amazon Titan Text Lite | Ogni regione supportata: 800 | No | Il numero massimo di chiamate InvokeModel che puoi effettuare InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Amazon Titan Text Lite |
InvokeModel Richieste su richiesta al minuto per Amazon Titan Text Premier | Ogni regione supportata: 100 | No | Il numero massimo di chiamate che puoi chiamare InvokeModel InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Amazon Titan Text Premier |
InvokeModel Richieste su richiesta al minuto per Anthropic Claude 3 Haiku |
us-east-1: 1.000 us-west-2: 1.000 ap-northeast-1:200 ap-southeast-1:200 Ciascuna delle altre regioni supportate: 400 |
No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata InvokeModel e i InvokeModelWithResponseStream gettoni di Anthropic Claude 3 Haiku. |
InvokeModel Richieste su richiesta al minuto per Anthropic Claude 3 Opus | Ogni Regione supportata: 50 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Anthropic Claude 3 Opus. |
InvokeModel Richieste su richiesta al minuto per Anthropic Claude 3 Sonnet |
us-east-1: 500 us-west-2: 500 Ogni altra regione supportata: 100 |
No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di Anthropic Claude 3 InvokeModel Sonnet e InvokeModelWithResponseStream le richieste per Anthropic Claude 3 Sonnet. |
InvokeModel Richieste su richiesta al minuto per Anthropic Claude 3.5 Sonnet |
us-east-1:50 us-east-2:50 us-west-2:250 ap-northeast-2:50 ap-southeast-2:50 Ogni altra regione supportata: 20 |
No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream |
InvokeModel Richieste su richiesta al minuto per Anthropic Claude 3.5 Sonnet V2 | Ogni regione supportata: 250 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream |
InvokeModel Richieste su richiesta al minuto per Anthropic Claude Instant |
us-east-1: 1.000 us-west-2: 1.000 Ciascuna delle altre regioni supportate: 400 |
No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Anthropic Claude Instant |
InvokeModel Richieste su richiesta al minuto per Anthropic Claude V2 |
us-east-1: 500 us-west-2: 500 Ogni altra regione supportata: 100 |
No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Anthropic Claude V2 |
Richieste su InvokeModel richiesta al minuto per Cohere Command | Ogni regione supportata: 400 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Cohere Command. |
InvokeModel Richieste su richiesta al minuto per Cohere Command Light | Ogni regione supportata: 800 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Cohere Command Light. |
Richieste su InvokeModel richiesta al minuto per Cohere Command R | Ogni regione supportata: 400 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream richieste per Cohere Command R 128k. |
InvokeModel Richieste su richiesta al minuto per Cohere Command R Plus | Ogni regione supportata: 400 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream richieste per Cohere Command R Plus 128k. |
InvokeModel Richieste su richiesta al minuto per Cohere Embed English | Ogni regione supportata: 2.000 | No | Il numero massimo di chiamate InvokeModel in un minuto per Cohere Embed English. |
InvokeModel Richieste su richiesta al minuto per Cohere Embed Multilingual | Ogni regione supportata: 2.000 | No | Il numero massimo di chiamate in un minuto per Cohere Embed InvokeModel Multilingual. |
InvokeModel Richieste su richiesta al minuto per Meta Llama 2 13B | Ogni regione supportata: 800 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Meta Llama 2 13B. |
InvokeModel Richieste su richiesta al minuto per Meta Llama 2 70B | Ogni regione supportata: 400 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Meta Llama 2 70B. |
InvokeModel Richieste su richiesta al minuto per Meta Llama 2 Chat 13B | Ogni regione supportata: 800 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Meta Llama 2 Chat 13B. |
InvokeModel Richieste su richiesta al minuto per Meta Llama 2 Chat 70B | Ogni regione supportata: 400 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Meta Llama 2 Chat 70B. |
InvokeModel Richieste su richiesta al minuto per Meta Llama 3 70B Instruct | Ogni regione supportata: 400 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Meta Llama 3 70B Instruct. |
InvokeModel Richieste su richiesta al minuto per Meta Llama 3 8B Instruct | Ogni regione supportata: 800 | No | Il numero massimo di volte che puoi chiamare InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata delle InvokeModelWithResponseStream richieste InvokeModel e delle richieste per Meta Llama 3 8B Instruct. |
InvokeModel Richieste su richiesta al minuto per Mistral 7B Instruct | Ogni regione supportata: 800 | No | Il numero massimo di volte che è possibile chiamare InvokeModel in un minuto per Mistral mistral-7 0 b-instruct-v |
InvokeModel Richieste su richiesta al minuto per Mistral AI Mistral Small | Ogni regione supportata: 400 | No | Il numero massimo di chiamate InvokeModel e in un minuto per Mistral AI Mistral InvokeModelWithResponseStream Mistral Small |
Richieste su InvokeModel richiesta al minuto per Mistral Large | Ogni regione supportata: 400 | No | Il numero massimo di chiamate InvokeModel e in un minuto per Mistral InvokeModelWithResponseStream mistral-large-2402-v1 |
Richieste su richiesta al minuto per Mistral Mixtral 8x7b Instruct InvokeModel | Ogni regione supportata: 400 | No | Il numero massimo di volte che è possibile chiamare in un minuto per Mistral mixtral-8x7b-v0 InvokeModel |
Richieste su richiesta al minuto per Stability.ai Stable Diffusion 3 Large InvokeModel | Ogni regione supportata: 15 | No | Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion 3 Large. |
InvokeModel Richieste su richiesta al minuto per Stability.ai Stable Diffusion 3 Medium | Ogni regione supportata: 60 | No | Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion 3 Medium |
InvokeModel Richieste su richiesta al minuto per Stability.ai Stable Diffusion XL 0.8 | Ogni regione supportata: 60 | No | Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion XL 0.8 |
InvokeModel Richieste su richiesta al minuto per Stability.ai Stable Diffusion XL 1.0 | Ogni regione supportata: 60 | No | Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Diffusion XL 1.0 |
Richieste su InvokeModel richiesta al minuto per Stability.ai Stable Image Core | Ogni regione supportata: 90 | No | Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Image Core. |
InvokeModel Richieste su richiesta al minuto per Stability.ai Stable Image Ultra | Ogni regione supportata: 10 | No | Il numero massimo di chiamate InvokeModel in un minuto per Stability.ai Stable Image Ultra. |
InvokeModel Token on demand al minuto per AI21 Labs Jamba 1.5. | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Labs Jamba 1.5. AI21 La quota considera la somma combinata dei token per Converse e. InvokeModel |
InvokeModel Token su richiesta al minuto per Labs Jamba Instruct AI21 | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Labs Jamba Instruct. AI21 La quota considera la somma combinata di token per Converse e InvokeModel |
InvokeModel Token on demand al minuto per AI21 Labs Jamba Large 1.5. | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Labs Jamba Large 1.5. AI21 La quota considera la somma combinata dei token per Converse e. InvokeModel |
InvokeModel Token su richiesta al minuto per Labs Jurassic-2 Mid AI21 | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto per Labs Jurassic-2 Mid InvokeModel . AI21 |
InvokeModel Token su richiesta al minuto per Labs Jurassic-2 Ultra AI21 | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto per Labs Jurassic-2 InvokeModel Ultra. AI21 |
InvokeModel Token su richiesta al minuto per Amazon Titan Image Generator G1 | Ogni regione supportata: 2.000 | No | Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Image Generator G1. |
InvokeModel Token su richiesta al minuto per Amazon Titan Image Generator G1 V2 | Ogni regione supportata: 2.000 | No | Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Image Generator G1 V2. |
InvokeModel Token on demand al minuto per Amazon Titan Multimodal Embeddings G1 | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Multimodal Embeddings G1. |
InvokeModel Token on demand al minuto per Amazon Titan Text Embeddings | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Text Embeddings. |
InvokeModel Token on demand al minuto per Amazon Titan Text Embeddings V2 | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire InvokeModel in un minuto per Amazon Titan Text Embeddings V2. |
InvokeModel Token su richiesta al minuto per Amazon Titan Text Express | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Amazon Titan Text Express. |
InvokeModel Token su richiesta al minuto per Amazon Titan Text Lite | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Amazon Titan Text Lite. |
InvokeModel Token su richiesta al minuto per Amazon Titan Text Premier | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Amazon Titan Text Premier. |
InvokeModel Token al minuto su richiesta per Anthropic Claude 3 Haiku |
us-east-1:2.000.000 us-west-2:2.000.000 ap-northeast-1:200.000 ap-southeast-1:200.000 Ciascuna delle altre regioni supportate: 300.000 |
No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata InvokeModel e i InvokeModelWithResponseStream token di Anthropic Claude 3 Haiku. |
InvokeModel Token al minuto su richiesta per Anthropic Claude 3 Opus | Ogni regione supportata: 400.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Anthropic Claude 3 Opus. |
InvokeModel Token al minuto su richiesta per Anthropic Claude 3 Sonnet |
us-east-1:1.000.000 us-west-2:1.000.000 Ciascuna delle altre regioni supportate: 200.000 |
No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata InvokeModel e i InvokeModelWithResponseStream token di Anthropic Claude 3 Sonnet. |
InvokeModel Token al minuto su richiesta per Anthropic Claude 3.5 Sonnet |
us-east-1:400.000 us-east-2:400.000 us-west-2:2.000.000 ap-northeast-2:400.000 ap-southeast-2:400.000 Ciascuna delle altre regioni supportate: 200.000 |
No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream |
InvokeModel Token al minuto su richiesta per Anthropic Claude 3.5 Sonnet V2 |
us-west-2:2.000.000 Ciascuna delle altre regioni supportate: 400.000 |
No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Anthropic Claude 3.5 Sonnet V2. La quota considera la somma combinata di Converse, e. ConverseStream InvokeModel InvokeModelWithResponseStream |
InvokeModel Token al minuto su richiesta per Anthropic Claude Instant |
us-east-1:1.000.000 us-west-2:1.000.000 Ciascuna delle altre regioni supportate: 300.000 |
No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Anthropic Claude Instant. |
InvokeModel Token su richiesta al minuto per Anthropic Claude V2 |
us-east-1: 500.000 us-west-2: 500.000 Ciascuna delle altre regioni supportate: 200.000 |
No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Anthropic Claude V2. |
InvokeModel Token su richiesta al minuto per Cohere Command | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Cohere Command. |
InvokeModel Token su richiesta al minuto per Cohere Command Light | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire InvokeModel in un minuto per Cohere Command Light. |
InvokeModel Token su richiesta al minuto per Cohere Command R | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Cohere Command R 128k. |
InvokeModel Token su richiesta al minuto per Cohere Command R Plus | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto InvokeModel e InvokeModelWithResponseStream in un minuto. La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Cohere Command R Plus 128k. |
InvokeModel Token al minuto su richiesta per Cohere Embed English | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire InvokeModel in un minuto per Cohere Embed English. |
InvokeModel Token su richiesta al minuto per Cohere Embed Multilingual | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto per Cohere Embed InvokeModel Multilingual. |
InvokeModel Token al minuto su richiesta per Meta Llama 2 13B | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Meta Llama 2 13B. |
InvokeModel Token al minuto su richiesta per Meta Llama 2 70B | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Meta Llama 2 70B. |
InvokeModel Token al minuto su richiesta per Meta Llama 2 Chat 13B | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Meta Llama 2 Chat 13B. |
InvokeModel Token al minuto su richiesta per Meta Llama 2 Chat 70B | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Meta Llama 2 Chat 70B. |
InvokeModel Token al minuto su richiesta per Meta Llama 3 70B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Meta Llama 3 70B Instruct. |
InvokeModel Token su richiesta al minuto per Meta Llama 3 8B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Meta Llama 3 8B Instruct. |
InvokeModel Token su richiesta al minuto per Mistral AI Mistral 7B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Mistral AI Mistral 7B Instruct. |
Token su richiesta al minuto per Mistral InvokeModel AI Mistral Large | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Mistral AI Mistral Large. |
InvokeModel Token on demand al minuto per Mistral AI Mistral Small | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire tramite e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Mistral AI Mistral Small. |
InvokeModel Token su richiesta al minuto per Mistral AI Mixtral 8X7BB Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che puoi fornire in un minuto e in un minuto. InvokeModel InvokeModelWithResponseStream La quota considera la somma combinata di InvokeModel e InvokeModelWithResponseStream token per Mistral mixtral-8x7 0. b-instruct-v |
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.1 405B Instruct | Ogni Regione supportata: 200 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata delle richieste per InvokeModel,, InvokeModelWithResponseStream Converse e. ConverseStream |
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.1 70B Instruct | Ogni regione supportata: 400 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.1 8B Instruct | Ogni regione supportata: 800 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.1 8B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 11B Instruct | Ogni regione supportata: 400 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 11B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 1B Instruct | Ogni regione supportata: 800 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 1B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 3B Instruct | Ogni regione supportata: 800 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 3B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Richieste di inferenza del modello su richiesta al minuto per Meta Llama 3.2 90B Instruct | Ogni regione supportata: 400 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Meta Llama 3.2 90B Instruct. La quota considera la somma combinata delle richieste per InvokeModel, InvokeModelWithResponseStream, Converse e. ConverseStream |
Richieste di inferenza del modello su richiesta al minuto per Mistral Large 2407 | Ogni regione supportata: 400 | No | Il numero massimo di volte in cui è possibile chiamare l'inferenza del modello in un minuto per Mistral Large 2407. La quota considera la somma combinata delle richieste di InvokeModel,, Converse e InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.1 8B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 8B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 11B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 11B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 1B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 1B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 3B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 3B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.2 90B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.2 90B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Mistral Large 2407 | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Mistral Large 2407. La quota considera la somma combinata dei token per,, Converse e InvokeModel InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.1 405B Instruct | Ogni regione supportata: 400.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 405B Instruct. La quota considera la somma combinata dei token per,, Converse e. InvokeModel InvokeModelWithResponseStream ConverseStream |
Token di inferenza del modello su richiesta al minuto per Meta Llama 3.1 70B Instruct | Ogni regione supportata: 300.000 | No | Il numero massimo di token che è possibile inviare per l'inferenza del modello in un minuto per Meta Llama 3.1 70B Instruct. La quota considera la somma combinata dei token per InvokeModel,, Converse e. InvokeModelWithResponseStream ConverseStream |
Nodi di output per flusso | Ogni regione supportata: 10 | No | Il numero massimo di nodi di uscita del flusso. |
Parametri per funzione | Ogni regione supportata: 5 | Sì |
Il numero massimo di parametri che è possibile avere in una funzione di gruppo di azioni. |
PrepareAgent richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di PrepareAgent API richieste al secondo. |
PrepareFlow richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di PrepareFlow richieste al secondo. |
Nodi di prompt per flusso | Ogni regione supportata: 10 | Sì |
Il numero massimo di nodi di prompt. |
Richieste per account | Ogni Regione supportata: 50 | Sì |
Il numero massimo di richieste. |
Record per processo di inferenza in batch | Ogni regione supportata: 50.000 | Sì |
Il numero massimo di record tra tutti i file di input in un processo di inferenza in batch. |
Record per file di input per processo di inferenza in batch | Ogni regione supportata: 50.000 | Sì |
Il numero massimo di record in un file di input in un processo di inferenza in batch. |
Entità Regex nel filtro delle informazioni sensibili | Ogni regione supportata: 10 | No | Il numero massimo di espressioni regolari del filtro guardrail che possono essere incluse in una policy word |
Lunghezza delle espressioni regolari in caratteri | Ogni regione supportata: 500 | No | La lunghezza massima, in caratteri, di un filtro guardrail regex |
Recupera le richieste al secondo | Ogni Regione supportata: 5 | No | Il numero massimo di API richieste di recupero al secondo. |
RetrieveAndGenerate richieste al secondo | Ogni Regione supportata: 5 | No | Il numero massimo di RetrieveAndGenerate API richieste al secondo. |
Nodi di recupero S3 per flusso | Ogni regione supportata: 10 | No | Il numero massimo di nodi di recupero S3. |
Nodi di storage S3 per flusso | Ogni regione supportata: 10 | No | Il numero massimo di nodi di storage S3. |
Lavori di personalizzazione pianificati | Ogni regione supportata: 2 | No | Il numero massimo di lavori di personalizzazione pianificati. |
Dimensione del prompt | Ogni regione supportata: 4 | No | La dimensione massima (in KB) di un singolo prompt è un set di dati di prompt personalizzato. |
StartIngestionJob richieste al secondo | Ogni regione supportata: 0,1 | No | Il numero massimo di StartIngestionJob API richieste al secondo. |
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello base | Ogni regione supportata: 10 | Sì |
Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello base. |
Somma dei lavori di inferenza batch in corso e inviati utilizzando un modello personalizzato | Ogni regione supportata: 3 | Sì |
Il numero massimo di lavori di inferenza batch in corso e inviati utilizzando un modello personalizzato |
Somma dei record di formazione e convalida per un lavoro di fine-tuning di Claude 3 Haiku v1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di fine-tuning di Claude 3 Haiku. |
Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 2 13B v1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di fine-tuning di Meta Llama 2 13B. |
Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 2 70B v1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di fine-tuning di Meta Llama 2 70B. |
Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 3.1 70B Instruct v1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un processo di messa a punto di Meta Llama 3.1 70B Instruct Fine-tuning. |
Somma dei record di formazione e convalida per un lavoro di fine-tuning di Meta Llama 3.1 8B Instruct v1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un processo di messa a punto di Meta Llama 3.1 8B Instruct Fine-tuning. |
Somma dei record di formazione e convalida per un lavoro di fine-tuning di Titan Image Generator G1 V1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un processo di fine-tuning di Titan Image Generator. |
Somma dei record di formazione e convalida per un lavoro di fine-tuning di Titan Image Generator G1 V2 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un job di fine-tuning di Titan Image Generator V2. |
Somma dei record di formazione e convalida per un job di fine-tuning di Titan Multimodal Embeddings G1 v1 | Ogni regione supportata: 50.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un job di Fine-tuning di Titan Multimodal Embeddings. |
Somma dei record di formazione e convalida per un job di pre-formazione continua di Titan Text G1 - Express v1 | Ogni regione supportata: 100.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di pre-formazione continua di Titan Text Express. |
Somma dei record di formazione e convalida per un job di fine-tuning di Titan Text G1 - Express v1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un job di fine-tuning di Titan Text Express. |
Somma dei record di formazione e convalida per un lavoro di pre-formazione continua di Titan Text G1 - Lite v1 | Ogni regione supportata: 100.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un lavoro di pre-formazione continua di Titan Text Lite. |
Somma dei record di formazione e convalida per un job di fine-tuning di Titan Text G1 - Lite v1 | Ogni regione supportata: 10.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un job di fine-tuning di Titan Text Lite. |
Somma dei record di formazione e convalida per un job di fine-tuning di Titan Text G1 - Premier v1 | Ogni regione supportata: 20.000 | Sì |
Il numero massimo combinato di record di formazione e convalida consentito per un job Fine-tuning di Titan Text Premier. |
Tempo di lavoro per i lavoratori | Ogni regione supportata: 30 | No | Durata massima (in giorni) di tempo a disposizione di un lavoratore per completare le attività. |
Argomenti per guardrail | Ogni regione supportata: 30 | No | Il numero massimo di argomenti che possono essere definiti tra le politiche tematiche di guardrail |
Nodi totali per flusso | Ogni regione supportata: 40 | No | Il numero massimo di nodi in un flusso. |
UpdateAgent richieste al secondo | Ogni regione supportata: 4 | No | Il numero massimo di UpdateAgent API richieste al secondo. |
UpdateAgentActionGroup richieste al secondo | Ogni regione supportata: 6 | No | Il numero massimo di UpdateAgentActionGroup API richieste al secondo |
UpdateAgentAlias richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di UpdateAgentAlias API richieste al secondo. |
UpdateAgentKnowledgeBase richieste al secondo | Ogni regione supportata: 4 | No | Il numero massimo di UpdateAgentKnowledgeBase API richieste al secondo. |
UpdateDataSource richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di UpdateDataSource API richieste al secondo. |
UpdateFlow richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di UpdateFlow richieste al secondo. |
UpdateFlowAlias richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di UpdateFlowAlias richieste al secondo. |
UpdateKnowledgeBase richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di UpdateKnowledgeBase API richieste al secondo. |
UpdatePrompt richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di UpdatePrompt richieste al secondo. |
Dimensione della query dell'utente | Ogni regione supportata: 1.000 | No | La dimensione massima (in caratteri) di una query utente. |
ValidateFlowDefinition richieste al secondo | Ogni regione supportata: 2 | No | Il numero massimo di ValidateFlowDefinition richieste al secondo. |
Versioni per guardrail | Ogni regione supportata: 20 | No | Il numero massimo di versioni che un guardrail può avere |
Versioni per prompt | Ogni regione supportata: 10 | No | Il numero massimo di versioni per prompt. |
Lunghezza delle parole in caratteri | Ogni regione supportata: 100 | No | La lunghezza massima di una parola, in caratteri, in un elenco di parole bloccate |
Politica parole per parola | Ogni regione supportata: 10.000 | No | Il numero massimo di parole che possono essere incluse in un elenco di parole bloccate |