Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Regioni e modelli supportati per i profili di inferenza
Per un elenco dei codici e degli endpoint delle Regioni supportati in Amazon Bedrock, consulta Endpoint e quote Amazon Bedrock. Questo argomento descrive i profili di inferenza predefiniti che puoi utilizzare e le Regioni e i modelli che supportano i profili di inferenza delle applicazioni.
Argomenti
Profili di inferenza tra Regioni supportati
Puoi eseguire l’inferenza tra Regioni con profili di inferenza (definita dal sistema) multi-Regione. L'inferenza interregionale ti consente di gestire senza problemi i picchi di traffico non pianificati utilizzando l'elaborazione su diverse aree. Regioni AWS Con l’inferenza tra Regioni puoi distribuire il traffico tra più Regioni AWS.
I profili di inferenza tra Regioni (definiti dal sistema) prendono il nome dal modello che supportano e sono definiti dalle Regioni che supportano. Per informazioni sul modo in cui un profilo di inferenza tra Regioni gestisce le richieste, leggi le definizioni seguenti:
-
Regione di origine: Regione da cui effettui la richiesta API che specifica il profilo di inferenza.
-
Regione di destinazione: Regione in cui il servizio Amazon Bedrock può instradare la richiesta dalla Regione di origine.
Quando invochi un profilo di inferenza tra Regioni in Amazon Bedrock, la richiesta proviene da una Regione di origine e viene automaticamente instradata a una delle Regioni di destinazione definite nel profilo, ottimizzando le prestazioni. Le Regioni di destinazione per i profili di inferenza tra Regioni globali includono tutte le Regioni commerciali.
Nota
Le regioni di destinazione in un profilo di inferenza interregionale possono includere regioni opzionali, ovvero regioni che è necessario abilitare esplicitamente a livello di organizzazione. Account AWS Per ulteriori informazioni, consulta Abilita o disabilita Regioni AWS nel tuo account. Quando utilizzi un profilo di inferenza tra Regioni, la richiesta di inferenza può essere instradata a una qualsiasi delle Regioni di destinazione nel profilo, anche se non hai aderito a tali Regioni nell’account.
Le policy di controllo dei servizi (SCPs) e le policy AWS Identity and Access Management (IAM) collaborano per controllare dove è consentita l'inferenza tra regioni. In questo modo puoi controllare quali regioni Amazon Bedrock può utilizzare per l'inferenza e, utilizzando le policy IAM, puoi definire quali utenti o ruoli sono autorizzati a eseguire l'inferenza. SCPs Se una regione di destinazione in un profilo di inferenza interregionale è bloccata nel tuo SCPs, la richiesta avrà esito negativo anche se le altre regioni rimangono consentite. Per garantire un funzionamento efficiente con l'inferenza tra regioni, puoi aggiornare le tue policy SCPs e IAM per consentire tutte le azioni di inferenza Amazon Bedrock richieste (ad esempio, bedrock:InvokeModel* obedrock:CreateModelInvocationJob) in tutte le regioni di destinazione incluse nel profilo di inferenza scelto. Per ulteriori informazioni, consulta Enabling Amazon Bedrock cross-Region inference in multi-account environments
Nota
Alcuni profili di inferenza vengono instradati verso Regioni di destinazione diverse, a seconda della Regione di origine da cui vengono chiamati. Ad esempio, se effettui la chiamata da us.anthropic.claude-3-haiku-20240307-v1:0 da Stati Uniti orientali (Ohio), le richieste possono essere instradate verso us-east-1, us-east-2 o us-west-2, mentre per una chiamata effettuata da Stati Uniti occidentali (Oregon), le richieste possono essere instradate solo verso us-east-1 e us-west-2.
Per controllare le Regioni di origine e di destinazione di un profilo di inferenza, puoi effettuare una delle operazioni seguenti:
-
Espandi la sezione corrispondente nell’elenco dei profili di inferenza tra Regioni supportati.
-
Invia una GetInferenceProfilerichiesta con un endpoint del piano di controllo Amazon Bedrock da una regione di origine e specifica l'Amazon Resource Name (ARN) o l'ID del profilo di inferenza nel campo.
inferenceProfileIdentifierIlmodelscampo nella risposta corrisponde a un elenco di modelli ARNs, in cui è possibile identificare ogni regione di destinazione.
Nota
Il profilo di inferenza globale interregionale per un modello specifico può cambiare nel tempo man mano che vengono AWS aggiunte altre regioni commerciali in cui è possibile elaborare le richieste. Tuttavia, se un profilo di inferenza è legato a un'area geografica (come Stati Uniti, UE o APAC), l'elenco delle regioni di destinazione non cambierà mai. AWS potrebbe creare nuovi profili di inferenza che incorporano nuove regioni. È possibile aggiornare i sistemi per utilizzare questi profili di inferenza modificando la IDs configurazione con quelli nuovi.
Il profilo di inferenza tra Regioni globale è attualmente supportato solo nel modello Anthropic Claude Sonnet 4 per queste Regioni di origine: Stati Uniti occidentali (Oregon), Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Europa (Irlanda) e Asia Pacifico (Tokyo). Le Regioni di destinazione per il profilo di inferenza globale includono tutte le Regioni AWS commerciali.
Per vedere quali modelli supportano i profili di inferenza Geo e Global, consulta la sezione dedicata ai modelli in sintesi e scegli il modello che ti interessa.
Regioni e modelli supportati per i profili di inferenza delle applicazioni
I profili di inferenza delle applicazioni possono essere creati per tutti i modelli nei seguenti modi: Regioni AWS
-
ap-northeast-1
-
ap-northeast-2
-
ap-south-1
-
ap-southeast-1
-
ap-southeast-2
-
ca-central-1
-
eu-central-1
-
eu-west-1
-
eu-west-2
-
eu-west-3
-
sa-east-1
-
us-east-1
-
us-east-2
-
us-gov-east-1
-
us-west-2
I profili di inferenza delle applicazioni possono essere creati dalla maggior parte dei modelli supportati in Amazon Bedrock. Alcuni modelli, come i modelli di incorporamento, non supportano i profili di inferenza. Per verificare se un modello specifico supporta i profili di inferenza, consulta i modelli in sintesi.