

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Choix d'un type d'instance DLAMI
<a name="instance-select"></a>

Plus généralement, tenez compte des points suivants lorsque vous choisissez un type d'instance pour un DLAMI.
+ Si vous débutez dans le domaine du deep learning, une instance dotée d'un seul GPU peut répondre à vos besoins.
+ Si vous êtes soucieux de votre budget, vous pouvez utiliser des instances utilisant uniquement le processeur.
+ Si vous souhaitez optimiser les performances et la rentabilité pour l'inférence de modèles d'apprentissage profond, vous pouvez utiliser des instances avec des puces AWS Inferentia.
+ Si vous recherchez une instance de GPU hautes performances avec une architecture de processeur basée sur ARM64, vous pouvez utiliser le type d'instance G5g.
+  Si vous souhaitez exécuter un modèle préentraîné pour les inférences et les prédictions, vous pouvez associer une [Amazon Elastic Inference à votre instance Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html). EC2 Amazon Elastic Inference vous donne accès à un accélérateur doté d'une fraction de GPU.
+ Pour les services d'inférence à volume élevé, une instance de processeur unique avec beaucoup de mémoire, ou un cluster de telles instances, peut être une meilleure solution. 
+  Si vous utilisez un modèle de grande taille contenant beaucoup de données ou un lot de grande taille, vous avez besoin d'une instance plus grande avec plus de mémoire. Vous pouvez également distribuer votre modèle à un cluster de GPUs. Vous pouvez trouver que l'utilisation d'une instance avec moins de mémoire est une meilleure solution pour vous si vous réduisez la taille de votre lot. Cela peut avoir une incidence sur votre précision et votre vitesse de formation.
+  Si vous souhaitez exécuter des applications d'apprentissage automatique à l'aide de la bibliothèque NCCL (NVIDIA Collective Communications Library) nécessitant des niveaux élevés de communications entre nœuds à grande échelle, vous pouvez utiliser [Elastic Fabric Adapter](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html) (EFA).

Pour plus de détails sur les instances, voir [d'](https://aws.amazon.com/ec2/instance-types/)instances.

Les rubriques suivantes fournissent des informations sur les considérations relatives aux types d'instance. 

**Important**  
Le Deep Learning AMIs inclut les pilotes, les logiciels ou les boîtes à outils développés, détenus ou fournis par NVIDIA Corporation. Vous acceptez d'utiliser ces pilotes, logiciels ou boîtes à outils NVIDIA uniquement sur les EC2 instances Amazon qui incluent du matériel NVIDIA.

**Topics**
+ [Tarification du DLAMI](#pricing)
+ [Disponibilité de la région DLAMI](#region)
+ [Instances GPU recommandées](gpu.md)
+ [Instances d'UC recommandées](cpu.md)
+ [Instances d'inférence recommandées](inferentia.md)
+ [Instances Trainium recommandées](trainium.md)

## Tarification du DLAMI
<a name="pricing"></a>

Les frameworks d'apprentissage profond inclus dans le DLAMI sont gratuits et chacun possède ses propres licences open source. Bien que le logiciel inclus dans le DLAMI soit gratuit, vous devez tout de même payer pour le matériel d'instance Amazon EC2 sous-jacent.

Certains types d' EC2 instances Amazon sont étiquetés comme gratuits. Il est possible d'exécuter le DLAMI sur l'une de ces instances gratuites. Cela signifie que l'utilisation du DLAMI est totalement gratuite lorsque vous utilisez uniquement la capacité de cette instance. Si vous avez besoin d'une instance plus puissante avec plus de cœurs de processeur, plus d'espace disque, plus de RAM, ou une ou plusieurs instances GPUs, vous avez besoin d'une instance qui ne fait pas partie de la classe d'instance de niveau libre.

Pour plus d'informations sur le choix et la tarification des instances, consultez [ EC2 les tarifs Amazon](https://aws.amazon.com/ec2/pricing/).

## Disponibilité de la région DLAMI
<a name="region"></a>

Chaque région prend en charge une gamme différente de types d'instances et, souvent, le coût d'un type d'instance varie légèrement d'une région à l'autre. DLAMIs ne sont pas disponibles dans toutes les régions, mais il est possible de les DLAMIs copier dans la région de votre choix. [Reportez-vous à la section Copier une AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html) pour plus d'informations. Consultez la liste de sélection des régions et assurez-vous de choisir une région proche de vous ou de vos clients. Si vous prévoyez d'utiliser plusieurs DLAMI et de créer éventuellement un cluster, veillez à utiliser la même région pour tous les nœuds du cluster.

Pour plus d'informations sur les régions, rendez-vous sur [Amazon EC2 Service endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region).

**Suivant**  
[Instances GPU recommandées](gpu.md)

# Instances GPU recommandées
<a name="gpu"></a>

Nous recommandons une instance de GPU pour la plupart des applications de deep learning. L'entraînement de nouveaux modèles est plus rapide sur une instance de GPU que sur une instance de processeur. Vous pouvez effectuer une mise à l'échelle sous-linéaire lorsque vous avez des instances multi-GPU ou si vous utilisez une formation distribuée sur de nombreuses instances avec. GPUs 

Les types d'instances suivants prennent en charge le DLAMI. Pour plus d'informations sur les options de type d'instance GPU et leurs utilisations, consultez [instances Types d'instances](https://aws.amazon.com/ec2/instance-types/) et sélectionnez **Calcul accéléré**.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 8 cartes NVIDIA Blackwell B200. GPUs
+ Les [instances Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 8 cartes NVIDIA Blackwell B300. GPUs
+ Les [instances Amazon EC2 P6e- GB2 00](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 4 cartes NVIDIA Blackwell GB2 00. GPUs
+ Les [instances Amazon EC2 P5e peuvent](https://aws.amazon.com/ec2/instance-types/p5/) contenir jusqu'à 8 NVIDIA Tesla GPUs H200.
+ Les [instances Amazon EC2 P5 peuvent](https://aws.amazon.com/ec2/instance-types/p5/) contenir jusqu'à 8 NVIDIA Tesla GPUs H100.
+ Les [instances Amazon EC2 P4 peuvent](https://aws.amazon.com/ec2/instance-types/p4/) contenir jusqu'à 8 NVIDIA Tesla GPUs A100.
+ Les [instances Amazon EC2 P3 peuvent](https://aws.amazon.com/ec2/instance-types/p3/) contenir jusqu'à 8 NVIDIA Tesla GPUs V100.
+ Les [instances Amazon EC2 G3 peuvent](https://aws.amazon.com/ec2/instance-types/g3/) contenir jusqu'à 4 NVIDIA Tesla GPUs M60.
+ Les [instances Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) disposent d'un maximum de 4 cartes NVIDIA GPUs T4.
+ Les [instances Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) disposent d'un maximum de 8 cartes NVIDIA GPUs A10G.
+ Les [instances Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) disposent d'un maximum de 8 cartes NVIDIA GPUs L4.
+ Les [instances Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) disposent d'un maximum de 8 cœurs NVIDIA L40S Tensor. GPUs
+ [Les [instances Amazon EC2 G5g](https://aws.amazon.com/ec2/instance-types/g5g/) sont équipées de processeurs Graviton2 basés sur ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Les instances DLAMI fournissent des outils permettant de surveiller et d'optimiser vos processus GPU. Pour plus d'informations sur la surveillance de vos processus GPU, consultez[Optimisation et surveillance des GPU](tutorial-gpu.md).

Pour des didacticiels spécifiques sur l'utilisation des instances G5g, consultez[Le ARM64 DLAMI](tutorial-arm64.md).

**Suivant**  
[Instances d'UC recommandées](cpu.md)

# Instances d'UC recommandées
<a name="cpu"></a>

Que vous ayez un budget restreint, que vous débutiez en apprentissage profond ou que vous souhaitiez seulement exécuter un service de prévision, vous avez plusieurs options abordables dans la catégorie UC. Certains frameworks tirent parti du MKL DNN d'Intel, qui accélère l'entraînement et l'inférence sur les types d'instances de processeur C5 (non disponible dans toutes les régions). Pour plus d'informations sur les types d'instances de processeur, voir [d'instances](https://aws.amazon.com/ec2/instance-types/) et sélectionnez **Optimisé pour le calcul**.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) possèdent jusqu'à 72 processeurs Intel v. CPUs Les instances C5 excellent dans les domaines de la modélisation scientifique, du traitement par lots, de l'analyse distribuée, du calcul haute performance (HPC) et de l'inférence par machine et par apprentissage profond.

**Suivant**  
[Instances d'inférence recommandées](inferentia.md)

# Instances d'inférence recommandées
<a name="inferentia"></a>

AWS Les instances Inferentia sont conçues pour fournir des performances élevées et une rentabilité élevées pour les charges de travail d'inférence de modèles d'apprentissage profond. Plus précisément, les types d'instances Inf2 utilisent les puces AWS Inferentia et le [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), qui est intégré aux frameworks d'apprentissage automatique populaires tels que et. TensorFlow PyTorch

Les clients peuvent utiliser les instances Inf2 pour exécuter des applications d'inférence d'apprentissage automatique à grande échelle, telles que la recherche, les moteurs de recommandation, la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes, au moindre coût dans le cloud.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) possèdent jusqu'à 16 puces AWS Inferentia et un débit réseau de 100 Gbit/s.

Pour plus d'informations sur la prise en main d'AWS Inferentia DLAMIs, consultez[La puce AWS Inferentia avec DLAMI](tutorial-inferentia.md).

**Suivant**  
[Instances Trainium recommandées](trainium.md)

# Instances Trainium recommandées
<a name="trainium"></a>

AWS Les instances Trainium sont conçues pour fournir des performances élevées et une rentabilité élevées pour les charges de travail d'inférence de modèles de deep learning. Plus précisément, les types d'instances Trn1 utilisent AWS des puces Trainium et le [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), qui est intégré aux frameworks d'apprentissage automatique populaires tels que et. TensorFlow PyTorch

Les clients peuvent utiliser les instances Trn1 pour exécuter des applications d'inférence d'apprentissage automatique à grande échelle, telles que la recherche, les moteurs de recommandation, la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes, au moindre coût dans le cloud.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) possèdent jusqu'à 16 puces AWS Trainium et un débit réseau de 100 Gbit/s.