Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
PERF02-BP06 Utiliser des accélérateurs de calcul matériels optimisés
Utilisez des accélérateurs matériels pour exécuter certaines fonctions de manière plus efficace que les solutions CPU basées sur des solutions de remplacement.
Anti-modèles courants :
-
En ce qui concerne votre charge de travail, vous n’avez pas comparé une instance à usage général à une instance dédiée qui est capable de fournir de meilleures performances à moindre coût.
-
Vous utilisez des accélérateurs de calcul matériels pour des tâches qui peuvent être plus efficaces en utilisant CPU des alternatives basées sur le matériel.
-
Vous ne surveillez pas GPU l'utilisation.
Avantages de l'établissement de cette meilleure pratique : en utilisant des accélérateurs matériels, tels que des unités de traitement graphique (GPUs) et des réseaux de portes programmables sur le terrain (FPGAs), vous pouvez exécuter certaines fonctions de traitement de manière plus efficace.
Niveau d’exposition au risque si cette bonne pratique n’est pas respectée : moyen
Directives d’implémentation
Les instances de calcul accéléré donnent accès à des accélérateurs de calcul matériels tels que et. GPUs FPGAs Ces accélérateurs matériels exécutent certaines fonctions, telles que le traitement graphique ou la mise en correspondance de modèles de données, de manière plus efficace que les alternatives CPU basées sur la technologie. De nombreuses charges de travail accélérées, telles que le rendu, le transcodage et le machine learning, sont très variables en matière d’utilisation des ressources. Exécutez ce matériel uniquement pendant le temps nécessaire et mettez-le hors service grâce à l’automatisation lorsque vous n’en avez plus besoin afin d’améliorer l’efficacité globale des performances.
Étapes d’implémentation
-
Identifiez les instances de calcul accéléré qui peuvent répondre à vos besoins.
-
Pour les charges de travail liées au machine learning, tirez parti du matériel spécialement conçu pour votre charge de travail, tel que AWS Trainium
,AWS Inferentia et Amazon. EC2 DL1 AWS Les instances Inferentia telles que les instances Inf2 offrent des performances par watt jusqu'à 50 % supérieures à celles des instances Amazon comparables . EC2 -
Collectez des métriques d’utilisation pour vos instances de calcul accéléré. Par exemple, vous pouvez utiliser CloudWatch un agent pour collecter des statistiques telles que
utilization_gpu
etutilization_memory
pour vous, GPUs comme indiqué dans la section Collecter NVIDIA GPU des métriques avec Amazon CloudWatch. -
Optimisez le code, le fonctionnement du réseau et les paramètres des accélérateurs matériels pour veiller à ce que le matériel sous-jacent soit pleinement utilisé.
-
Utilisez les bibliothèques et les GPU pilotes les plus performants les plus récents.
-
Utilisez l'automatisation pour libérer GPU des instances lorsqu'elles ne sont pas utilisées.
Ressources
Documents connexes :
Vidéos connexes :
Exemples connexes :