Hardware y servicios
Haga cambios en sus prácticas de administración de hardware como forma de reducir el impacto en la sostenibilidad de las cargas de trabajo. Minimice la cantidad de hardware necesario para aprovisionar e implementar y seleccione el hardware y los servicios más eficaces para su carga de trabajo individual.
La siguiente pregunta se centra en estas consideraciones de sostenibilidad:
SUS 5: ¿Cómo selecciona y usa el hardware y los servicios en la nube de su arquitectura para lograr sus objetivos de sostenibilidad? |
---|
Haga cambios en sus prácticas de administración de hardware como forma de reducir el impacto en la sostenibilidad de las cargas de trabajo. Minimice la cantidad de hardware necesario para aprovisionar e implementar y seleccione el hardware y los servicios más eficaces para su carga de trabajo individual. |
Uso de la mínima cantidad de hardware para satisfacer sus necesidades: use las capacidades de la nube para hacer cambios frecuentes en las implementaciones de la carga de trabajo. Actualice los componentes implementados a medida que cambian sus necesidades.
Uso de los tipos de instancia con menor impacto: supervise de forma continuada el lanzamiento de nuevos tipos de instancia y aproveche las mejoras de la eficiencia energética; se incluyen los tipos de instancia diseñados para admitir cargas de trabajo específicas, como el entrenamiento y la inferencia en machine learning y la transcodificación de video.
Uso de servicios administrados: los servicios administrados traspasan a AWS la responsabilidad de mantener un uso medio elevado y de optimizar la sostenibilidad del hardware implementado. Use servicios administrados para distribuir el impacto en la sostenibilidad del servicio entre todos los inquilinos del mismo, lo que reduce su contribución individual.
Optimización del uso de las GPU: las unidades de procesamiento gráfico (GPU) pueden originar un alto consumo energético y muchas de las cargas de trabajo de GPU son sumamente variables, como la representación, la transcodificación y el entrenamiento y modelado de machine learning. Ejecute las instancias de GPU solo durante el tiempo que sea necesario y retírelas mediante automatización cuando no se requieran para minimizar los recursos consumidos.