

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Commencer à utiliser le DLAMI
<a name="getting-started"></a>

Ce guide contient des conseils pour choisir le DLAMI qui vous convient, sélectionner un type d'instance adapté à votre cas d'utilisation et à votre budget, [Informations connexes sur DLAMI](resources.md) et décrit les configurations personnalisées susceptibles de vous intéresser.

Si vous utilisez AWS ou utilisez Amazon pour la première fois EC2, commencez par le[AMI d'apprentissage profond avec Conda](overview-conda.md). Si vous connaissez Amazon EC2 et d'autres AWS services tels qu'Amazon EMR, Amazon EFS ou Amazon S3, et que vous souhaitez intégrer ces services à des projets nécessitant une formation ou une inférence distribuée, vérifiez si l'un d'entre eux correspond [Informations connexes sur DLAMI](resources.md) à votre cas d'utilisation. 

Mais d'abord, nous vous recommandons de consulter [Choisir un DLAMI](choose-dlami.md) pour avoir une idée de ce qui pourrait être le type d'instance le mieux adapté à votre application.

**Étape suivante**  
[Choisir un DLAMI](choose-dlami.md)

# Choisir un DLAMI
<a name="choose-dlami"></a>

Nous proposons une gamme d'options DLAMI, comme indiqué dans les notes de mise à jour du [DLAMI GPU](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu). Pour vous aider à sélectionner le DLAMI adapté à votre cas d'utilisation, nous regroupons les images selon le type de matériel ou les fonctionnalités pour lesquelles elles ont été développées. Nos principaux groupes sont les suivants :
+ **Type de DLAMI** : base, structure unique, infrastructure multiple (DLAMI Conda)
+ **Architecture de calcul : Graviton** [basé sur x86, basé sur ARM64 AWS](https://aws.amazon.com/ec2/graviton/)
+ **Type de processeur :** [[GPU](https://docs.aws.amazon.com/dlami/latest/devguide/gpu), [CPU](https://docs.aws.amazon.com/dlami/latest/devguide/cpu), [Inferentia, Trainium](https://docs.aws.amazon.com/dlami/latest/devguide/inferentia)](https://docs.aws.amazon.com/dlami/latest/devguide/trainium)
+ **SDK :** [[CUDA](https://developer.nvidia.com/cuda-toolkit), Neuron AWS](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/get-started.html)
+ **Système d'exploitation :** Amazon Linux, Ubuntu

Les autres rubriques de ce guide vous permettront de mieux vous informer et d'entrer dans plus de détails. 

**Topics**
+ [

# Installations de CUDA et liaisons d'infrastructures
](overview-cuda.md)
+ [

# AMI de base de Deep Learning
](overview-base.md)
+ [

# AMI d'apprentissage profond avec Conda
](overview-conda.md)
+ [

# Options d'architecture DLAMI
](overview-architecture.md)
+ [

# Options du système d'exploitation DLAMI
](overview-os.md)

**Suivant**  
[AMI d'apprentissage profond avec Conda](overview-conda.md)

# Installations de CUDA et liaisons d'infrastructures
<a name="overview-cuda"></a>

Bien que le deep learning soit assez avant-gardiste, chaque framework propose des versions « stables ». Ces versions stables peuvent ne pas fonctionner avec la dernière implémentation et les fonctionnalités CUDA ou cuDNN. Votre cas d'utilisation et les fonctionnalités dont vous avez besoin peuvent vous aider à choisir un framework. En cas de doute, utilisez la dernière AMI de Deep Learning avec Conda. Il contient `pip` des binaires officiels pour tous les frameworks avec CUDA, en utilisant la version la plus récente prise en charge par chaque framework. Si vous souhaitez disposer des dernières versions et personnaliser votre environnement d'apprentissage profond, utilisez l'AMI Deep Learning Base.

Consultez notre guide sur [Candidats stables et candidats à la sortie](overview-conda.md#overview-conda-stability) pour obtenir des informations supplémentaires.

## Choisissez un DLAMI avec CUDA
<a name="cuda-choose"></a>

Toutes les [AMI de base de Deep Learning](overview-base.md) séries de versions CUDA sont disponibles

Toutes les [AMI d'apprentissage profond avec Conda](overview-conda.md) séries de versions CUDA sont disponibles

**Note**  
Nous n'incluons plus les environnements MXNet CNTK, Caffe, Caffe2, Theano, Chainer ou Keras Conda dans le. AWS Apprentissage profond (deep learning) AMIs

Pour les numéros de version spécifiques du framework, consultez le [Notes de AMIs mise à jour du Deep Learning](appendix-ami-release-notes.md)

**Choisissez ce type de DLAMI ou découvrez-en plus sur les DLAMIs différents types grâce à l'option Next Up.**

Choisissez l'une des versions de CUDA et consultez la liste complète de celles DLAMIs qui contiennent cette version dans l'**annexe**, ou apprenez-en plus sur les différentes versions DLAMIs avec l'option **Next Up**.

**Suivant**  
[AMI de base de Deep Learning](overview-base.md)

## Rubriques connexes
<a name="cuda-related"></a>
+ Pour plus d'informations sur le basculement entre les versions CUDA, consultez le didacticiel [Utilisation de l'AMI Deep Learning Base](tutorial-base.md).

# AMI de base de Deep Learning
<a name="overview-base"></a>

L'AMI Deep Learning Base est comme un canevas vide pour le deep learning. Il est livré avec tout ce dont vous avez besoin jusqu'au moment de l'installation d'un framework particulier, et vous permet de choisir les versions de CUDA. 

## Pourquoi choisir le DLAMI de base
<a name="base-why"></a>

Ce groupe d'AMI est utile pour les contributeurs de projets qui souhaitent entreprendre un projet d'apprentissage profond et créer le dernier. Il est destiné à quiconque souhaite déployer son propre environnement en étant sûr que les derniers logiciels NVIDIA sont installés et fonctionnent, afin de se concentrer sur le choix d'infrastructures et de versions à installer. 

Choisissez ce type de DLAMI ou découvrez-en plus sur les DLAMIs différents types avec **l'**option Next Up.

**Suivant**  
[DLAMI avec Conda](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## Rubriques connexes
<a name="base-related"></a>
+ [Utilisation de l'AMI Deep Learning Base](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# AMI d'apprentissage profond avec Conda
<a name="overview-conda"></a>

Le DLAMI Conda `conda` utilise des environnements virtuels, ils sont présents soit en multi-framework, soit en framework unique. DLAMIs Ces environnements sont configurés de manière à séparer les différentes installations de framework et à rationaliser le passage d'un framework à l'autre. C'est un excellent moyen d'apprendre et d'expérimenter avec tous les cadres proposés par le DLAMI. La plupart des utilisateurs trouvent que la nouvelle AMI Deep Learning avec Conda est parfaite pour eux. 

Ils sont souvent mis à jour avec les dernières versions des frameworks et disposent des derniers pilotes et logiciels GPU. Ils sont généralement désignés comme « les » AWS Apprentissage profond (deep learning) AMIs dans *la* plupart des documents. Ils DLAMIs prennent en charge les systèmes d'exploitation Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2, Amazon Linux 2023. La prise en charge des systèmes d'exploitation dépend du support fourni par le système d'exploitation en amont.

## Candidats stables et candidats à la sortie
<a name="overview-conda-stability"></a>

Le Conda AMIs utilise des binaires optimisés des versions formelles les plus récentes de chaque framework. Il n'est pas prévu de versions candidates et de fonctions expérimentales. Les optimisations dépendent de la prise en charge par le framework de technologies d'accélération telles que le MKL DNN d'Intel, qui accélère l'entraînement et l'inférence sur les types d'instances de processeurs C5 et C4. Les fichiers binaires sont également compilés pour prendre en charge les ensembles d'instructions Intel avancés, notamment AVX, AVX-2, SSE4 .1 et .2. SSE4 Ils accélèrent les opérations vectorielles et à virgule flottante sur les architectures d'UC Intel. De plus, pour les types d'instances GPU, le CUDA et le cuDNN sont mis à jour avec la version prise en charge par la dernière version officielle. 

L'AMI Deep Learning avec Conda installe automatiquement la version la plus optimisée du framework pour votre EC2 instance Amazon lors de la première activation du framework. Pour plus d’informations, consultez [Utilisation de l'AMI Deep Learning avec Conda](tutorial-conda.md). 

Si vous souhaitez effectuer une installation à partir des sources, en utilisant des options de construction personnalisées ou optimisées, le [AMI de base de Deep Learning](overview-base.md) s pourrait être une meilleure option pour vous.

## Obsolescence de Python 2
<a name="overview-conda-python2"></a>

La communauté open source Python a officiellement mis fin au support de Python 2 le 1er janvier 2020. La PyTorch communauté TensorFlow et la communauté ont annoncé que les versions TensorFlow 2.1 et PyTorch 1.4 sont les dernières à supporter Python 2. Les versions précédentes du DLAMI (v26, v25, etc.) contenant des environnements Python 2 Conda sont toujours disponibles. Cependant, nous fournissons des mises à jour des environnements Python 2 Conda sur les versions DLAMI publiées précédemment uniquement si des correctifs de sécurité ont été publiés par la communauté open source pour ces versions. Les versions DLAMI contenant les dernières versions des frameworks PyTorch et ne contiennent pas TensorFlow les environnements Python 2 Conda.

## CUDA Support
<a name="overview-conda-cuda"></a>

Les numéros de version spécifiques de CUDA se trouvent dans les notes de mise à jour du [DLAMI du GPU](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu).

**Suivant**  
[Options d'architecture DLAMI](overview-architecture.md)

## Rubriques connexes
<a name="conda-related"></a>
+ Pour un didacticiel sur l'utilisation d'une AMI de Deep Learning avec Conda, consultez le [Utilisation de l'AMI Deep Learning avec Conda](tutorial-conda.md) didacticiel.

# Options d'architecture DLAMI
<a name="overview-architecture"></a>

AWS Apprentissage profond (deep learning) AMIs[s sont proposés avec des architectures Graviton2 basées sur x86 ou AWS ARM64.](https://aws.amazon.com/ec2/graviton/)

Pour plus d'informations sur la prise en main du ARM64 DLAMI GPU, consultez. [Le ARM64 DLAMI](tutorial-arm64.md) Pour plus de détails sur les types d'instances disponibles, consultez[Choix d'un type d'instance DLAMI](instance-select.md).

**Suivant**  
[Options du système d'exploitation DLAMI](overview-os.md)

# Options du système d'exploitation DLAMI
<a name="overview-os"></a>

DLAMIs sont proposés dans les systèmes d'exploitation suivants.
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

Les anciennes versions des systèmes d'exploitation sont disponibles sur les versions obsolètes DLAMIs. [Pour plus d'informations sur la dépréciation du DLAMI, voir Dépréciations du DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)

Avant de choisir un DLAMI, évaluez le type d'instance dont vous avez besoin et identifiez votre région. AWS 

**Suivant**  
[Choix d'un type d'instance DLAMI](instance-select.md)

# Choix d'un type d'instance DLAMI
<a name="instance-select"></a>

Plus généralement, tenez compte des points suivants lorsque vous choisissez un type d'instance pour un DLAMI.
+ Si vous débutez dans le domaine du deep learning, une instance dotée d'un seul GPU peut répondre à vos besoins.
+ Si vous êtes soucieux de votre budget, vous pouvez utiliser des instances utilisant uniquement le processeur.
+ Si vous souhaitez optimiser les performances et la rentabilité pour l'inférence de modèles d'apprentissage profond, vous pouvez utiliser des instances avec des puces AWS Inferentia.
+ Si vous recherchez une instance de GPU hautes performances avec une architecture de processeur basée sur ARM64, vous pouvez utiliser le type d'instance G5g.
+  Si vous souhaitez exécuter un modèle préentraîné pour les inférences et les prédictions, vous pouvez associer une [Amazon Elastic Inference à votre instance Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html). EC2 Amazon Elastic Inference vous donne accès à un accélérateur doté d'une fraction de GPU.
+ Pour les services d'inférence à volume élevé, une instance de processeur unique avec beaucoup de mémoire, ou un cluster de telles instances, peut être une meilleure solution. 
+  Si vous utilisez un modèle de grande taille contenant beaucoup de données ou un lot de grande taille, vous avez besoin d'une instance plus grande avec plus de mémoire. Vous pouvez également distribuer votre modèle à un cluster de GPUs. Vous pouvez trouver que l'utilisation d'une instance avec moins de mémoire est une meilleure solution pour vous si vous réduisez la taille de votre lot. Cela peut avoir une incidence sur votre précision et votre vitesse de formation.
+  Si vous souhaitez exécuter des applications d'apprentissage automatique à l'aide de la bibliothèque NCCL (NVIDIA Collective Communications Library) nécessitant des niveaux élevés de communications entre nœuds à grande échelle, vous pouvez utiliser [Elastic Fabric Adapter](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html) (EFA).

Pour plus de détails sur les instances, voir [d'](https://aws.amazon.com/ec2/instance-types/)instances.

Les rubriques suivantes fournissent des informations sur les considérations relatives aux types d'instance. 

**Important**  
Le Deep Learning AMIs inclut les pilotes, les logiciels ou les boîtes à outils développés, détenus ou fournis par NVIDIA Corporation. Vous acceptez d'utiliser ces pilotes, logiciels ou boîtes à outils NVIDIA uniquement sur les EC2 instances Amazon qui incluent du matériel NVIDIA.

**Topics**
+ [

## Tarification du DLAMI
](#pricing)
+ [

## Disponibilité de la région DLAMI
](#region)
+ [

# Instances GPU recommandées
](gpu.md)
+ [

# Instances d'UC recommandées
](cpu.md)
+ [

# Instances d'inférence recommandées
](inferentia.md)
+ [

# Instances Trainium recommandées
](trainium.md)

## Tarification du DLAMI
<a name="pricing"></a>

Les frameworks d'apprentissage profond inclus dans le DLAMI sont gratuits et chacun possède ses propres licences open source. Bien que le logiciel inclus dans le DLAMI soit gratuit, vous devez tout de même payer pour le matériel d'instance Amazon EC2 sous-jacent.

Certains types d' EC2 instances Amazon sont étiquetés comme gratuits. Il est possible d'exécuter le DLAMI sur l'une de ces instances gratuites. Cela signifie que l'utilisation du DLAMI est totalement gratuite lorsque vous utilisez uniquement la capacité de cette instance. Si vous avez besoin d'une instance plus puissante avec plus de cœurs de processeur, plus d'espace disque, plus de RAM, ou une ou plusieurs instances GPUs, vous avez besoin d'une instance qui ne fait pas partie de la classe d'instance de niveau libre.

Pour plus d'informations sur le choix et la tarification des instances, consultez [ EC2 les tarifs Amazon](https://aws.amazon.com/ec2/pricing/).

## Disponibilité de la région DLAMI
<a name="region"></a>

Chaque région prend en charge une gamme différente de types d'instances et, souvent, le coût d'un type d'instance varie légèrement d'une région à l'autre. DLAMIs ne sont pas disponibles dans toutes les régions, mais il est possible de les DLAMIs copier dans la région de votre choix. [Reportez-vous à la section Copier une AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html) pour plus d'informations. Consultez la liste de sélection des régions et assurez-vous de choisir une région proche de vous ou de vos clients. Si vous prévoyez d'utiliser plusieurs DLAMI et de créer éventuellement un cluster, veillez à utiliser la même région pour tous les nœuds du cluster.

Pour plus d'informations sur les régions, rendez-vous sur [Amazon EC2 Service endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region).

**Suivant**  
[Instances GPU recommandées](gpu.md)

# Instances GPU recommandées
<a name="gpu"></a>

Nous recommandons une instance de GPU pour la plupart des applications de deep learning. L'entraînement de nouveaux modèles est plus rapide sur une instance de GPU que sur une instance de processeur. Vous pouvez effectuer une mise à l'échelle sous-linéaire lorsque vous avez des instances multi-GPU ou si vous utilisez une formation distribuée sur de nombreuses instances avec. GPUs 

Les types d'instances suivants prennent en charge le DLAMI. Pour plus d'informations sur les options de type d'instance GPU et leurs utilisations, consultez [instances Types d'instances](https://aws.amazon.com/ec2/instance-types/) et sélectionnez **Calcul accéléré**.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 8 cartes NVIDIA Blackwell B200. GPUs
+ Les [instances Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 8 cartes NVIDIA Blackwell B300. GPUs
+ Les [instances Amazon EC2 P6e- GB2 00](https://aws.amazon.com/ec2/instance-types/p6/) disposent d'un maximum de 4 cartes NVIDIA Blackwell GB2 00. GPUs
+ Les [instances Amazon EC2 P5e peuvent](https://aws.amazon.com/ec2/instance-types/p5/) contenir jusqu'à 8 NVIDIA Tesla GPUs H200.
+ Les [instances Amazon EC2 P5 peuvent](https://aws.amazon.com/ec2/instance-types/p5/) contenir jusqu'à 8 NVIDIA Tesla GPUs H100.
+ Les [instances Amazon EC2 P4 peuvent](https://aws.amazon.com/ec2/instance-types/p4/) contenir jusqu'à 8 NVIDIA Tesla GPUs A100.
+ Les [instances Amazon EC2 P3 peuvent](https://aws.amazon.com/ec2/instance-types/p3/) contenir jusqu'à 8 NVIDIA Tesla GPUs V100.
+ Les [instances Amazon EC2 G3 peuvent](https://aws.amazon.com/ec2/instance-types/g3/) contenir jusqu'à 4 NVIDIA Tesla GPUs M60.
+ Les [instances Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) disposent d'un maximum de 4 cartes NVIDIA GPUs T4.
+ Les [instances Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) disposent d'un maximum de 8 cartes NVIDIA GPUs A10G.
+ Les [instances Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) disposent d'un maximum de 8 cartes NVIDIA GPUs L4.
+ Les [instances Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) disposent d'un maximum de 8 cœurs NVIDIA L40S Tensor. GPUs
+ [Les [instances Amazon EC2 G5g](https://aws.amazon.com/ec2/instance-types/g5g/) sont équipées de processeurs Graviton2 basés sur ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Les instances DLAMI fournissent des outils permettant de surveiller et d'optimiser vos processus GPU. Pour plus d'informations sur la surveillance de vos processus GPU, consultez[Optimisation et surveillance des GPU](tutorial-gpu.md).

Pour des didacticiels spécifiques sur l'utilisation des instances G5g, consultez[Le ARM64 DLAMI](tutorial-arm64.md).

**Suivant**  
[Instances d'UC recommandées](cpu.md)

# Instances d'UC recommandées
<a name="cpu"></a>

Que vous ayez un budget restreint, que vous débutiez en apprentissage profond ou que vous souhaitiez seulement exécuter un service de prévision, vous avez plusieurs options abordables dans la catégorie UC. Certains frameworks tirent parti du MKL DNN d'Intel, qui accélère l'entraînement et l'inférence sur les types d'instances de processeur C5 (non disponible dans toutes les régions). Pour plus d'informations sur les types d'instances de processeur, voir [d'instances](https://aws.amazon.com/ec2/instance-types/) et sélectionnez **Optimisé pour le calcul**.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) possèdent jusqu'à 72 processeurs Intel v. CPUs Les instances C5 excellent dans les domaines de la modélisation scientifique, du traitement par lots, de l'analyse distribuée, du calcul haute performance (HPC) et de l'inférence par machine et par apprentissage profond.

**Suivant**  
[Instances d'inférence recommandées](inferentia.md)

# Instances d'inférence recommandées
<a name="inferentia"></a>

AWS Les instances Inferentia sont conçues pour fournir des performances élevées et une rentabilité élevées pour les charges de travail d'inférence de modèles d'apprentissage profond. Plus précisément, les types d'instances Inf2 utilisent les puces AWS Inferentia et le [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), qui est intégré aux frameworks d'apprentissage automatique populaires tels que et. TensorFlow PyTorch

Les clients peuvent utiliser les instances Inf2 pour exécuter des applications d'inférence d'apprentissage automatique à grande échelle, telles que la recherche, les moteurs de recommandation, la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes, au moindre coût dans le cloud.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) possèdent jusqu'à 16 puces AWS Inferentia et un débit réseau de 100 Gbit/s.

Pour plus d'informations sur la prise en main d'AWS Inferentia DLAMIs, consultez[La puce AWS Inferentia avec DLAMI](tutorial-inferentia.md).

**Suivant**  
[Instances Trainium recommandées](trainium.md)

# Instances Trainium recommandées
<a name="trainium"></a>

AWS Les instances Trainium sont conçues pour fournir des performances élevées et une rentabilité élevées pour les charges de travail d'inférence de modèles de deep learning. Plus précisément, les types d'instances Trn1 utilisent AWS des puces Trainium et le [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), qui est intégré aux frameworks d'apprentissage automatique populaires tels que et. TensorFlow PyTorch

Les clients peuvent utiliser les instances Trn1 pour exécuter des applications d'inférence d'apprentissage automatique à grande échelle, telles que la recherche, les moteurs de recommandation, la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes, au moindre coût dans le cloud.

**Note**  
La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application. 
+ Les [instances Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) possèdent jusqu'à 16 puces AWS Trainium et un débit réseau de 100 Gbit/s.

# Utilisation du Deep Learning AMIs avec EC2 Image Builder
<a name="using-dlami-with-image-builder"></a>

AWS Deep Learning AMIs (DLAMIs) est désormais disponible sous forme d'images gérées par Amazon sur le service [EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html). Cette intégration simplifie l'utilisation des images de base et garantit DLAMIs que la dernière version est utilisée à tout moment.

## Disponible DLAMIs
<a name="available-dlamis"></a>

Les images suivantes DLAMIs sont disponibles sous forme d'images gérées par Amazon dans la **section Images** du service :
+ [AMI de base avec CUDA unique (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [AMI de base avec CUDA unique (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 AMI de base avec CUDA unique (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 AMI de base avec CUDA unique (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[AMI x86 gérée par Amazon Deep Learning Base\]](http://docs.aws.amazon.com/fr_fr/dlami/latest/devguide/images/deep-learning-base.png)


![\[ARM64 AMI de base d'apprentissage profond gérée par Amazon\]](http://docs.aws.amazon.com/fr_fr/dlami/latest/devguide/images/deep-learning-arm.png)


## Utilisation DLAMIs comme image de base
<a name="using-dlamis-base-image"></a>

DLAMIs peut être utilisée comme image de base lors de la création d'une recette d'image.

1. Accédez à la console Image Builder

1. Sélectionnez les **recettes d'images**

1. Sélectionnez **Créer une recette d'image**

1. Dans la section **Image de base**, sélectionnez **Démarrage rapide (géré par Amazon)**

1. Dans le menu déroulant, choisissez l'une des options disponibles en DLAMIs fonction de votre **système d'exploitation des images (OS) sélectionné**
   + Si **Amazon Linux** est sélectionné :
     + AMI de base d'apprentissage profond avec CUDA unique (Amazon Linux 2023)
     + AMI de ARM64 base d'apprentissage profond avec CUDA unique (Amazon Linux 2023)  
![\[Création de recettes Image Builder pour Amazon Linux\]](http://docs.aws.amazon.com/fr_fr/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + Si **Ubuntu** est sélectionné :
     + AMI de base d'apprentissage profond avec CUDA unique Ubuntu 22-04
     + AMI de ARM64 base d'apprentissage profond avec CUDA unique Ubuntu 22-04  
![\[Création de recettes Image Builder pour Ubuntu\]](http://docs.aws.amazon.com/fr_fr/dlami/latest/devguide/images/image-recipe-creation-ul22.png)