Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Come funziona l'inferenza in Amazon Bedrock

Modalità Focus
Come funziona l'inferenza in Amazon Bedrock - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Quando inviate un input a un modello, il modello prevede una probabile sequenza di token che segue e restituisce tale sequenza come output. Amazon Bedrock ti offre la possibilità di eseguire inferenze con il modello di base che preferisci. Quando esegui l'inferenza, fornisci i seguenti input:

Richiamo di modelli in diverse regioni AWS

Quando si richiama un modello, si sceglie Regione AWS in che modo richiamarlo. Le quote per la frequenza e la dimensione delle richieste che è possibile effettuare dipendono dalla regione. Puoi trovare queste quote cercando le seguenti quote nelle quote del servizio Amazon Bedrock:

  • Richieste di inferenza di modelli su richiesta al minuto per ${Model}

  • InvokeModel Token su richiesta al minuto per ${Model}

Puoi anche richiamare un profilo di inferenza anziché il modello di base stesso. Un profilo di inferenza definisce un modello e una o più regioni verso le quali il profilo di inferenza può indirizzare le richieste di invocazione del modello. Richiamando un profilo di inferenza che include più regioni, è possibile aumentare la velocità effettiva. Per ulteriori informazioni, consulta Aumenta la produttività con l'inferenza tra regioni.

Le richieste inoltrate a una regione possono essere servite da zone locali che condividono la stessa regione principale. Ad esempio, le richieste effettuate a US East (Virginia settentrionale) (us-east-1) possono essere servite da qualsiasi zona locale ad essa associata, come Atlanta, Stati Uniti (us-east-1-atl-2a).

Lo stesso principio si applica quando si utilizza l'inferenza interregionale. Ad esempio, le richieste fatte agli Stati Uniti Anthropic Claude 3 Haiku il profilo di inferenza può essere fornito da qualsiasi zona locale la cui regione madre si trova negli Stati Uniti, come Seattle, USA (us-west-2-sea-1a). Quando vengono aggiunte nuove zone locali AWS, queste verranno aggiunte anche all'endpoint di inferenza interregionale corrispondente.

Per visualizzare un elenco degli endpoint locali e delle regioni principali a cui sono associati, vedi AWS Local Zones Locations.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.