

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Démarrer avec des instances accélérées par le GPU
<a name="gpu-instances-started"></a>

Les types d’instances accélérées par le GPU de dernière génération, tels que ceux présentés dans la liste suivante, offrent les capacités de performance les plus élevées pour les applications de deep learning et de calcul haute performance (HPC). Sélectionnez le lien du type d’instance pour en savoir plus sur ses capacités.
+ [Famille P6](https://aws.amazon.com/ec2/instance-types/p6/)
+ [Famille P6](https://aws.amazon.com/ec2/instance-types/p6/)
+ [Famille P5](https://aws.amazon.com/ec2/instance-types/p5/)

Pour obtenir la liste complète des spécifications des types d'instance pour les types d'instances accélérés, consultez la section [Calcul accéléré](https://docs.aws.amazon.com/ec2/latest/instancetypes/ac.html) dans la référence *Amazon EC2 Instance Types*.

**Configuration logicielle :**  
Le moyen le plus simple de démarrer avec les types d'instances accélérées par GPU de dernière génération consiste à lancer une instance à partir d'une AMI AWS Deep Learning préconfigurée avec tous les logiciels requis. *Pour connaître les dernières informations AWS Apprentissage profond (deep learning) AMIs relatives à une utilisation avec les types d'instances accélérées par GPU, consultez la section [DLAMI compatible P6 dans](https://docs.aws.amazon.com/dlami/latest/devguide/p6-support-dlami.html) le guide du développeur.AWS Apprentissage profond (deep learning) AMIs *

Si vous devez créer une AMI personnalisée pour lancer des instances qui hébergent des applications de deep learning ou de HPC, nous vous recommandons d’installer les versions logicielles minimales suivantes sur votre image de base.


| Type d’instance | Pilote NVIDIA | CUDA | NVIDIA GDRCopy | Installateur EFA | NCCL | EFA K8s ¹ | 
| --- | --- | --- | --- | --- | --- | --- | 
| G7 | 575 | 12,9 | 2,5 | 1,45,0 | 2,28,3 | 0,5,10 | 
| P5 | 530 | 12.1 | 2.3 | 1.24.1 | 2,18.3 | 0,4,4 | 
| P5.4xlarge | 530 | 12.1 | 2.3 | 1.43.1 ² | 2,18.3 | 0,4,4 | 
| P5e | 550 | 12.1 | 2.3 | 1.24.1 | 2,18.3 | 0,5,5 | 
| P5en | 550 | 12.1 | 2.3 | 1.24.1 | 2,18.3 | 0,5.6 | 
| P6-B200 | 570 | 12,8 | 2,5 | 1,41,0 | 2.26.2-1 | 0,5,10 | 
| P6e-00 GB2 | 570 | 12,8 | 2,5 | 1,41,0 | 2.26.2-1 | 0,5,10 | 
| P6-B300 | 580 | 13,0 | 2,5 | 1,44,0 | 2,28,3 | 0,5,10 | 

** ¹** La colonne **EFA K8s** contient la version minimale recommandée pour `aws-efa-k8s-device-plugin`.

**²** Un problème de compatibilité affecte les `P5.4xlarge` instances lorsque GPU-to-GPU la communication utilise Elastic Fabric Adapter (EFA) et la bibliothèque de communications collectives NVIDIA (NCCL). Pour atténuer le problème, définissez la variable d’environnement `FI_HMEM_DISABLE_P2P` sur `1` et assurez-vous d’installer la version 1.43.1 ou ultérieure d’EFA.

**Note**  
Si vous utilisez la version 1.41.0 du programme d’installation d’EFA, le `aws-ofi-nccl plugin` est fourni avec. Pour les versions antérieures du programme d’installation d’EFA, utilisez la version `1.7.2-aws` ou une version ultérieure de `aws-ofi-nccl plugin`.

Nous vous recommandons également de configurer l’instance de façon à ne pas utiliser d’états C plus profonds. Pour plus d’informations, consultez la section [Performances élevées et faible latence en limitant les « états-C » plus profonds](https://docs.aws.amazon.com/linux/al2/ug/processor_state_control.html#c-states) dans le *Guide de l’utilisateur d’Amazon Linux 2*. Les derniers GPU AWS Deep Learning Base AMIs sont préconfigurés pour ne pas utiliser d'états C plus profonds.

Pour la mise en réseau et la configuration de l’adaptateur Elastic Fabric Adapter (EFA), consultez [Maximisez la bande passante du réseau sur des instances Amazon EC2 avec plusieurs cartes réseau](efa-acc-inst-types.md).