Modèles matériels
Recherchez des possibilités de réduire les impacts en matière de durabilité de la charge de travail en modifiant vos pratiques de gestion du matériel. Réduisez la quantité de matériel nécessaire à allouer et à déployer, et sélectionnez le matériel le plus efficace pour votre charge de travail individuelle.
La question suivante est axée sur les considérations relatives à la durabilité :
SUS 5 : Comment vos pratiques de gestion et d'utilisation du matériel soutiennent-elles vos objectifs en matière de durabilité ? |
---|
Recherchez des possibilités de réduire les impacts en matière de durabilité de la charge de travail en modifiant vos pratiques de gestion du matériel. Réduisez la quantité de matériel nécessaire à allouer et à déployer, et sélectionnez le matériel le plus efficace pour votre charge de travail individuelle. |
Utiliser la quantité minimale de matériel pour répondre à vos besoins : en utilisant les fonctionnalités du cloud, vous pouvez apporter régulièrement des modifications à vos mises en œuvre de charges de travail. Mettez à jour les composants déployés à mesure que vos besoins évoluent.
Utiliser les types d'instance ayant le moins d'impact : contrôlez de façon continue le lancement de nouveaux types d'instances et profitez d'améliorations de l'efficacité énergétique, y compris les types d'instances conçus pour soutenir des charges de travail spécifiques comme l'entraînement et l'inférence du machine learning et le transcodage vidéo.
Utiliser des services gérés : les services gérés permettent de déléguer la responsabilité liée au maintien d'une utilisation moyenne élevée et à l'optimisation de la durabilité du matériel déployé à AWS. Utilisez des services gérés pour distribuer l'impact de la durabilité du service sur tous les locataires du service, ce qui réduit votre contribution individuelle.
Optimiser l'utilisation des unités GPU : les unités de traitement graphique (GPU) peuvent constituer une source de consommation énergétique élevée, et de nombreuses charges de travail de GPU sont très variables, comme le rendu, le transcodage, ainsi que l'entraînement et la modélisation du machine learning. Exécutez uniquement les instances GPU pendant le temps nécessaire et mettez-les hors service grâce à l'automatisation lorsque ce n'est plus le cas afin de réduire les ressources consommées.