Choix d'un type d'instance DLAMI - AWS Apprentissage profond (deep learning) AMIs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Choix d'un type d'instance DLAMI

Plus généralement, tenez compte des points suivants lorsque vous choisissez un type d'instance pour un DLAMI.

  • Si vous débutez dans le domaine du deep learning, une instance dotée d'un seul GPU peut répondre à vos besoins.

  • Si vous êtes soucieux de votre budget, vous pouvez utiliser des instances utilisant uniquement le processeur.

  • Si vous souhaitez optimiser les performances et la rentabilité pour l'inférence de modèles d'apprentissage profond, vous pouvez utiliser des instances avec des puces AWS Inferentia.

  • Si vous recherchez une instance de GPU hautes performances avec une architecture de processeur basée sur ARM64, vous pouvez utiliser le type d'instance G5g.

  • Si vous souhaitez exécuter un modèle préentraîné pour les inférences et les prédictions, vous pouvez associer une Amazon Elastic Inference à votre instance Amazon. EC2 Amazon Elastic Inference vous donne accès à un accélérateur doté d'une fraction de GPU.

  • Pour les services d'inférence à volume élevé, une instance de processeur unique avec beaucoup de mémoire, ou un cluster de telles instances, peut être une meilleure solution.

  • Si vous utilisez un modèle de grande taille contenant beaucoup de données ou un lot de grande taille, vous avez besoin d'une instance plus grande avec plus de mémoire. Vous pouvez également distribuer votre modèle à un cluster de GPUs. Vous pouvez trouver que l'utilisation d'une instance avec moins de mémoire est une meilleure solution pour vous si vous réduisez la taille de votre lot. Cela peut avoir une incidence sur votre précision et votre vitesse de formation.

  • Si vous souhaitez exécuter des applications de machine learning à l'aide de la bibliothèque NCCL (NVIDIA Collective Communications Library) nécessitant des niveaux élevés de communications entre nœuds à grande échelle, vous pouvez utiliser Elastic Fabric Adapter (EFA).

Pour plus de détails sur les instances, voir d'instances.

Les rubriques suivantes fournissent des informations sur les considérations relatives aux types d'instance.

Important

Le Deep Learning AMIs inclut les pilotes, les logiciels ou les boîtes à outils développés, détenus ou fournis par NVIDIA Corporation. Vous acceptez d'utiliser ces pilotes, logiciels ou boîtes à outils NVIDIA uniquement sur les EC2 instances Amazon qui incluent du matériel NVIDIA.

Tarification du DLAMI

Les frameworks d'apprentissage profond inclus dans le DLAMI sont gratuits et chacun possède ses propres licences open source. Bien que le logiciel inclus dans le DLAMI soit gratuit, vous devez tout de même payer pour le matériel d'instance Amazon EC2 sous-jacent.

Certains types d' EC2 instances Amazon sont étiquetés comme gratuits. Il est possible d'exécuter le DLAMI sur l'une de ces instances gratuites. Cela signifie que l'utilisation du DLAMI est totalement gratuite lorsque vous utilisez uniquement la capacité de cette instance. Si vous avez besoin d'une instance plus puissante avec plus de cœurs de processeur, plus d'espace disque, plus de RAM, ou une ou plusieurs instances GPUs, vous avez besoin d'une instance qui ne fait pas partie de la classe d'instance de niveau libre.

Pour plus d'informations sur le choix et la tarification des instances, consultez EC2 les tarifs Amazon.

Disponibilité de la région DLAMI

Chaque région prend en charge une gamme différente de types d'instances et, souvent, le coût d'un type d'instance varie légèrement d'une région à l'autre. DLAMIs ne sont pas disponibles dans toutes les régions, mais il est possible de les DLAMIs copier dans la région de votre choix. Reportez-vous à la section Copier une AMI pour plus d'informations. Consultez la liste de sélection des régions et assurez-vous de choisir une région proche de vous ou de vos clients. Si vous prévoyez d'utiliser plusieurs DLAMI et de créer éventuellement un cluster, veillez à utiliser la même région pour tous les nœuds du cluster.

Pour plus d'informations sur les régions, rendez-vous sur Amazon EC2 Service endpoints.

Suivant

Instances GPU recommandées