

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Instances GPU recommandées
<a name="gpu"></a>

Nous recommandons une instance de GPU pour la plupart des applications de deep learning. L'entraînement de nouveaux modèles est plus rapide sur une instance de GPU que sur une instance de processeur. Vous pouvez effectuer une mise à l'échelle sous-linéaire lorsque vous avez des instances multi-GPU ou si vous utilisez une formation distribuée sur de nombreuses instances avec. GPUs 

Les types d'instances suivants prennent en charge le DLAMI. Pour plus d'informations sur les options de type d'instance GPU et leurs utilisations, consultez [instances Types d'instances](https://aws.amazon.com/ec2/instance-types/) et sélectionnez **Calcul accéléré**.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 8 cartes NVIDIA Blackwell B200. GPUs
+ Les [instances Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 8 cartes NVIDIA Blackwell B300. GPUs
+ Les [instances Amazon EC2 P6e- GB2 00](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 4 cartes NVIDIA Blackwell GB2 00. GPUs
+ Les [instances Amazon EC2 P5e peuvent](https://aws.amazon.com/ec2/instance-types/p5/) contenir jusqu'à 8 NVIDIA Tesla GPUs H200.
+ Les [instances Amazon EC2 P5 peuvent](https://aws.amazon.com/ec2/instance-types/p5/) contenir jusqu'à 8 NVIDIA Tesla GPUs H100.
+ Les [instances Amazon EC2 P4 peuvent](https://aws.amazon.com/ec2/instance-types/p4/) contenir jusqu'à 8 NVIDIA Tesla GPUs A100.
+ Les [instances Amazon EC2 P3 peuvent](https://aws.amazon.com/ec2/instance-types/p3/) contenir jusqu'à 8 NVIDIA Tesla GPUs V100.
+ Les [instances Amazon EC2 G3 peuvent](https://aws.amazon.com/ec2/instance-types/g3/) contenir jusqu'à 4 NVIDIA Tesla GPUs M60.
+ Les [instances Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) disposent d'un maximum de 4 cartes NVIDIA GPUs T4.
+ Les [instances Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) disposent d'un maximum de 8 cartes NVIDIA GPUs A10G.
+ Les [instances Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) disposent d'un maximum de 8 cartes NVIDIA GPUs L4.
+ Les [instances Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) disposent d'un maximum de 8 cœurs NVIDIA L40S Tensor. GPUs
+ [Les [instances Amazon EC2 G5g](https://aws.amazon.com/ec2/instance-types/g5g/) sont équipées de processeurs Graviton2 basés sur ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Les instances DLAMI fournissent des outils permettant de surveiller et d'optimiser vos processus GPU. Pour plus d'informations sur la surveillance de vos processus GPU, consultez[Optimisation et surveillance des GPU](tutorial-gpu.md).

Pour des didacticiels spécifiques sur l'utilisation des instances G5g, consultez[Le ARM64 DLAMI](tutorial-arm64.md).

**Suivant**  
[Instances d'UC recommandées](cpu.md)