

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Regioni e modelli supportati per eseguire l’inferenza del modello
<a name="inference-supported"></a>

L’inferenza del modello tramite modelli di fondazione può essere eseguita in tutte le Regioni e con tutti i modelli supportati da Amazon Bedrock. Per conoscere tutte le Regioni e tutti i modelli supportati da Amazon Bedrock, consulta [Modelli di fondazione supportati in Amazon Bedrock](models-supported.md).

È anche possibile eseguire l’inferenza del modello con risorse Amazon Bedrock diverse dai modelli di fondazione. Per vedere la disponibilità di Regioni e modelli per risorse diverse, consulta le pagine seguenti:
+ [Regioni e modelli supportati per i profili di inferenza](inference-profiles-support.md)
+ [Regioni e modelli supportati per la gestione dei prompt](prompt-management-supported.md)
**Nota**  
[InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html) e [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html) funzionano solo nei prompt di Gestione prompt la cui configurazione specifica un modello Anthropic Claude o Meta Llama.
+ [Regioni e modelli supportati per la messa a punto](custom-model-fine-tuning.md#custom-model-supported)
+ [Usare Custom Model Import per importare un modello open source personalizzato in Amazon Bedrock](model-customization-import-model.md)
+ [Regioni e modelli supportati per Guardrail per Amazon Bedrock](guardrails-supported.md)