Patrones de hardware - AWS Well-Architected Framework

Patrones de hardware

Realice cambios en sus prácticas de administración de hardware como forma de reducir el impacto en la sostenibilidad de las cargas de trabajo. Minimice la cantidad de hardware necesario para aprovisionar e implementar y seleccione el hardware más eficaz para su carga de trabajo individual.

Las siguientes preguntas se centran en las consideraciones para la sostenibilidad:

SUS 5 ¿Cómo respaldan sus prácticas de uso y de administración de hardware sus objetivos de sostenibilidad?

Realice cambios en sus prácticas de administración de hardware como forma de reducir el impacto en la sostenibilidad de las cargas de trabajo. Minimice la cantidad de hardware necesario para aprovisionar e implementar y seleccione el hardware más eficaz para su carga de trabajo individual.

Usar la cantidad mínima de hardware para cubrir sus necesidades: use las capacidades de la nube para hacer cambios frecuentes en las implementaciones de su carga de trabajo. Actualice los componentes implementados a medida que cambian sus necesidades.

Usar tipos de instancia con el menor impacto: supervise de forma continuada el lanzamiento de nuevos tipos de instancia y aproveche las mejoras de la eficiencia energética; se incluyen los tipos de instancia diseñados para admitir cargas de trabajo específicas, como el entrenamiento y la inferencia en machine learning y la transcodificación de vídeo.

Usar los servicios administrados: los servicios administrados traspasan a AWS la responsabilidad del mantenimiento de un uso medio elevado y la optimización de la sostenibilidad del hardware implementado. Use servicios administrados para distribuir el impacto en la sostenibilidad del servicio entre todos los inquilinos del mismo, lo que reduce su contribución individual.

Optimizar el uso de las unidades de procesamiento gráfico (GPU): las GPU pueden ser el origen de un consumo de alta potencia y muchas de las cargas de trabajo de GPU son sumamente variables, como la representación, la transcodificación, el entrenamiento y el modelado de machine learning. Ejecute las instancias de GPU solo durante el tiempo que sea necesario y retírelas mediante automatización cuando no se requieran para minimizar los recursos consumidos.