

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Configurare una risorsa di invocazione del modello utilizzando i profili di inferenza
<a name="inference-profiles"></a>

Un *profilo di inferenza* è una risorsa di Amazon Bedrock che definisce un modello e una o più Regioni a cui il profilo di inferenza può instradare le richieste di invocazione del modello. I profili di inferenza possono essere utilizzati per le attività seguenti:
+ **Tieni traccia delle metriche di utilizzo**: configura CloudWatch i log e invia le richieste di invocazione del modello con un profilo di inferenza dell'applicazione per raccogliere le metriche di utilizzo per la chiamata del modello. Questi parametri possono essere esaminati quando si visualizzano le informazioni sul profilo di inferenza e utilizzati per prendere decisioni informate. Per ulteriori informazioni su come configurare i log, consulta. CloudWatch [Monitora la chiamata del modello utilizzando CloudWatch Logs e Amazon S3](model-invocation-logging.md)
+ **Utilizzo dei tag per monitorare i costi**: collega i tag a un profilo di inferenza dell’applicazione per tenere traccia dei costi quando si inviano richieste di invocazione del modello on demand. Per ulteriori informazioni su come utilizzare i tag per l'allocazione dei costi, vedere [Organizzazione e monitoraggio dei costi utilizzando AWS i tag di allocazione dei costi](https://docs.aws.amazon.com/awsaccountbilling/latest/aboutv2/cost-alloc-tags.html) nella guida per l' AWS Billing utente.
+ **Uso dell’inferenza tra Regioni**: aumenta il throughput utilizzando un profilo di inferenza che includa più Regioni AWS. Il profilo di inferenza distribuirà le richieste di invocazione del modello in tali Regioni per aumentare il throughput e le prestazioni. Per ulteriori informazioni sull’inferenza tra Regioni, consulta [Aumentare il throughput con l’inferenza tra Regioni](cross-region-inference.md).

In Amazon Bedrock sono disponibili i tipi di profili di inferenza seguenti:
+ **Profili di inferenza tra Regioni (definiti dal sistema)**: profili di inferenza predefiniti in Amazon Bedrock che includono più Regioni a cui è possibile instradare le richieste di un modello.
+ **Profili di inferenza dell’applicazione**: profili di inferenza che un utente crea per tenere traccia dei costi e dell’utilizzo del modello. È possibile creare un profilo di inferenza che instradi le richieste di invocazione del modello a una o più Regioni:
  + Per creare un profilo di inferenza che tenga traccia dei costi e dell’utilizzo di un modello in una Regione, specifica il modello di fondazione nella Regione verso cui desideri che il profilo di inferenza instradi le richieste.
  + Per creare un profilo di inferenza che tenga traccia dei costi e dell’utilizzo di un modello in più Regioni, specifica il profilo di inferenza tra Regioni (definito dal sistema) che definisce il modello e le Regioni verso cui desideri che il profilo di inferenza instradi le richieste.

È possibile utilizzare i profili di inferenza con le seguenti funzionalità per instradare le richieste a più Regioni e tenere traccia dell’utilizzo e dei costi delle richieste di invocazione effettuate con tali funzionalità:
+ [Inferenza del modello: usa un profilo di inferenza quando esegui l'invocazione del modello scegliendo un profilo di inferenza in un playground nella console Amazon Bedrock o specificando l'ARN del profilo di inferenza quando chiami,, Converse e le operazioni. [InvokeModel[InvokeModelWithResponseStream[ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) Per ulteriori informazioni, consulta [Invio di prompt e generazione di risposte con l’inferenza del modello](inference.md).
+ Embedding vettoriale della knowledge base e generazione di risposte: usa un profilo di inferenza quando si genera una risposta dopo aver eseguito una query su una knowledge base o durante l’analisi di informazioni non testuali in un’origine dati. Per ulteriori informazioni, consultare [Test della knowledge base con query e risposte](knowledge-base-test.md) e [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
+ Valutazione del modello: è possibile inviare un profilo di inferenza come modello da valutare quando si invia un processo di valutazione del modello. Per ulteriori informazioni, consulta [Valutare le prestazioni delle risorse Amazon Bedrock](evaluation.md).
+ Gestione dei prompt: è possibile utilizzare un profilo di inferenza per generare una risposta a un prompt creato in Gestione prompt. Per ulteriori informazioni, consulta [Creare e archiviare prompt riutilizzabili con Gestione dei prompt in Amazon Bedrock](prompt-management.md)
+ Flussi: è possibile utilizzare un profilo di inferenza quando si genera una risposta per un prompt definito in linea in un nodo prompt in un flusso. Per ulteriori informazioni, consulta [Crea un flusso di lavoro AI end-to-end generativo con Amazon Bedrock Flows](flows.md).

Il prezzo per l’utilizzo di un profilo di inferenza viene calcolato in base al prezzo del modello nella Regione da cui si chiama il profilo stesso. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).

Per ulteriori informazioni sul throughput offerto da un profilo di inferenza tra Regioni, consulta [Aumentare il throughput con l’inferenza tra Regioni](cross-region-inference.md).

**Topics**
+ [Regioni e modelli supportati per i profili di inferenza](inference-profiles-support.md)
+ [Prerequisiti per i profili di inferenza](inference-profiles-prereq.md)
+ [Creare un profilo di inferenza dell’applicazione](inference-profiles-create.md)
+ [Modificare i tag per un profilo di inferenza dell’applicazione](inference-profiles-modify.md)
+ [Visualizzazione delle informazioni relative a un profilo di inferenza](inference-profiles-view.md)
+ [Utilizzare un profilo di inferenza nell’invocazione del modello](inference-profiles-use.md)
+ [Eliminare un profilo di inferenza dell’applicazione](inference-profiles-delete.md)