

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Informazioni sui casi d’uso per diversi metodi di inferenza del modello
<a name="inference-methods"></a>

L’inferenza del modello può essere eseguita direttamente nei modi seguenti:


****  

| Metodo | Caso d’uso | 
| --- | --- | 
| [Playground della console Amazon Bedrock](playgrounds.md) | Esecuzione dell’inferenza in un’interfaccia grafica intuitiva. Comodo per l’esplorazione. | 
| [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) o [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html) | Implementazione di applicazioni conversazionali con un’API unificata per l’input del modello. | 
| [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) o [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html) | Invio di un singolo prompt e generazione di una risposta in modo sincrono. Utile per generare risposte in tempo reale o per le query di ricerca. | 
| [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html) | Invio di un singolo prompt e generazione di una risposta in modo asincrono. Utile per generare risposte su larga scala. | 
| [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html) | Preparazione di un set di dati di prompt e generazione di risposte in batch. | 
| [API di risposta](https://platform.openai.com/docs/api-reference/responses) | Utilizza l'API Responses per applicazioni moderne e agentiche che richiedono l'uso di strumenti integrati (ricerca, interprete di codice), input multimodali e conversazioni basate sullo stato. | 
| [Completamenti della chat](https://platform.openai.com/docs/api-reference/chat) | Utilizza l'API Chat Completions per attività leggere, prive di stato e incentrate sul testo in cui è necessario il pieno controllo sulla gestione della cronologia chat e una minore latenza. | 

Anche le seguenti funzionalità di Amazon Bedrock utilizzano l’inferenza del modello in un flusso di lavoro più ampio:
+ La [valutazione del modello](evaluation.md) utilizza il processo di invocazione del modello per valutare le prestazioni di diversi modelli dopo l'invio di una richiesta. [CreateEvaluationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateEvaluationJob.html)
+ Le [knowledge base](knowledge-base.md) utilizzano l’invocazione del modello quando usano l’API [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_RetrieveAndGenerate.html) per generare una risposta basata sui risultati recuperati da una knowledge base.
+ Gli [agenti](agents.md) utilizzano l’invocazione del modello per generare risposte in varie fasi durante una richiesta [https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent-runtime_InvokeAgent.html).
+ I [flussi](flows.md) includono risorse Amazon Bedrock, ad esempio prompt, knowledge base e agenti, che utilizzano l’invocazione del modello.

Dopo aver testato diversi modelli di base con prompt e parametri di inferenza diversi, è possibile configurare l'applicazione in modo che li APIs richiami con le specifiche desiderate.