Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Instances GPU recommandées

Mode de mise au point
Instances GPU recommandées - AWS Apprentissage profond (deep learning) AMIs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Nous recommandons une instance de GPU pour la plupart des applications de deep learning. L'entraînement de nouveaux modèles est plus rapide sur une instance de GPU que sur une instance de processeur. Vous pouvez effectuer une mise à l'échelle sous-linéaire lorsque vous avez des instances multi-GPU ou si vous utilisez une formation distribuée sur de nombreuses instances avec. GPUs

Les types d'instances suivants prennent en charge le DLAMI. Pour plus d'informations sur les options de type d'instance GPU et leurs utilisations, consultez instances Types d'instances et sélectionnez Calcul accéléré.

Note

La taille de votre modèle doit être un facteur à prendre en compte dans le choix d'une instance. Si votre modèle dépasse la mémoire vive disponible d'une instance, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application.

Les instances DLAMI fournissent des outils permettant de surveiller et d'optimiser vos processus GPU. Pour plus d'informations sur la surveillance de vos processus GPU, consultezOptimisation et surveillance des GPU.

Pour des didacticiels spécifiques sur l'utilisation des instances G5g, consultezLe ARM64 DLAMI.

Suivant

Instances d'UC recommandées

Rubrique suivante :

CPU

Rubrique précédente :

Choix d'une instance
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.