

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Inizia a utilizzare le istanze con accelerazione GPU
<a name="gpu-instances-started"></a>

I tipi di istanza con accelerazione GPU di ultima generazione, come quelle mostrate nell’elenco seguente, offrono le funzionalità di prestazioni più elevate per le applicazioni di deep learning e calcolo ad alte prestazioni (HPC). Seleziona il link relativo al tipo di istanza per saperne di più sulle sue funzionalità.
+ [Famiglia P6](https://aws.amazon.com/ec2/instance-types/p6/)
+ [Famiglia P6](https://aws.amazon.com/ec2/instance-types/p6/)
+ [Famiglia P5](https://aws.amazon.com/ec2/instance-types/p5/)

Per un elenco completo delle specifiche dei tipi di istanza per i tipi di istanza accelerati, consulta [Accelerated computing](https://docs.aws.amazon.com/ec2/latest/instancetypes/ac.html) nel riferimento *Amazon EC2 Instance Types*.

**Configurazione software**  
Il modo più semplice per iniziare a usare i tipi di istanze con accelerazione GPU di ultima generazione è avviare un'istanza da un'AMI AWS Deep Learning preconfigurata con tutto il software richiesto. *Per le ultime novità da utilizzare con AWS Deep Learning AMIs i tipi di istanze con accelerazione GPU, consulta [P6 Supported DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/p6-support-dlami.html) nella Developer Guide.AWS Deep Learning AMIs *

Se devi creare un’AMI personalizzata per avviare istanze che ospitano applicazioni di deep learning o HPC, consigliamo di installare le seguenti versioni software minime sopra l’immagine di base.


| Tipo di istanza | Driver NVIDIA | CUDA | NVIDIA GDRCopy | Installatore di EFA | NCCL | EFA K8s ¹ | 
| --- | --- | --- | --- | --- | --- | --- | 
| G7e | 575 | 12,9 | 2.5 | 1,45,0 | 2,28,3 | 0,5,10 | 
| P5 | 530 | 12,1 | 2.3 | 1.24.1 | 218,3 | 04.4 | 
| P5.4xlarge | 530 | 12,1 | 2.3 | 1.43.1 ² | 218,3 | 04.4 | 
| P5e | 550 | 12,1 | 2.3 | 1.24.1 | 218,3 | 0,5,5 | 
| P5en | 550 | 12,1 | 2.3 | 1.24.1 | 218,3 | 0,5,6 | 
| P6-B200 | 570 | 12,8 | 2.5 | 1,41,0 | 2.26.2-1 | 0,5,10 | 
| P6e- 00 GB2 | 570 | 12,8 | 2.5 | 1,41,0 | 2.26.2-1 | 0,5,10 | 
| P6-B300 | 580 | 13,0 | 2.5 | 1,44,0 | 2,28,3 | 0,5,10 | 

**¹** La colonna **EFA K8s** contiene la versione minima suggerita per `aws-efa-k8s-device-plugin`.

**²** Esiste un problema di compatibilità che riguarda i `P5.4xlarge` casi in cui la GPU-to-GPU comunicazione utilizza Elastic Fabric Adapter (EFA) e la NVIDIA Collective Communications Library (NCCL). Per mitigare il problema, imposta la variabile di ambiente `FI_HMEM_DISABLE_P2P` su `1` e assicurati di installare la versione 1.43.1 o successive di EFA.

**Nota**  
Se usi la versione 1.41.0 del programma di installazione EFA, il `aws-ofi-nccl plugin` è incluso. Per le versioni precedenti del programma di installazione EFA, utilizza il `aws-ofi-nccl plugin` versione `1.7.2-aws` o successive.

Inoltre, consigliamo di configurare l'istanza in modo che non utilizzi stati C più profondi. Per maggiori informazioni, consulta [Prestazioni elevate e bassa latenza tramite limitazione degli stati C-state più profondi](https://docs.aws.amazon.com/linux/al2/ug/processor_state_control.html#c-states) nella *Guida per l'utente di Amazon Linux 2*. Le più recenti GPU AWS Deep Learning Base AMIs sono preconfigurate per non utilizzare stati C più profondi.

Per la configurazione di rete ed Elastic Fabric Adapter (EFA) consulta [Ottimizzare la larghezza di banda della rete sulle istanze Amazon EC2 con più schede di rete](efa-acc-inst-types.md).