Ayude a mejorar esta página
Para contribuir a esta guía del usuario, elija el enlace Edit this page on GitHub que se encuentra en el panel derecho de cada página.
Existen formas de mejorar su experiencia con el machine learning en EKS. Las siguientes páginas de esta sección le ayudarán a:
-
Comprender sus opciones para utilizar ML en EKS y
-
Ayudar en la preparación del entorno de EKS y ML.
En particular, esto le ayudará a:
-
Elegir AMI: AWS ofrece múltiples AMI personalizadas para ejecutar cargas de trabajo de ML en EKS. Consulte Ejecución de contenedores acelerados por GPU (Linux en EC2) y Ejecución de contenedores acelerados por GPU (Windows en EC2 G-Series).
-
Personalizar las AMI: puede modificar aún más las AMI personalizadas de AWS para agregar otro software y controladores necesarios para sus casos de uso particulares. Consulte Creación de nodos autoadministrados con bloques de capacidad para ML.
-
Reservar GPU: dada la demanda de GPU, para asegurarse de que las GPU que necesita estén disponibles cuando las necesite, puede reservarlas con antelación. Consulte Limitación para que los pods no se programen en nodos específicos.
-
Agregar EFA: agregue Elastic Fabric Adapter para mejorar el rendimiento de la red en las comunicaciones entre nodos del clúster. Consulte Impartición de formación en machine learning en Amazon EKS con Elastic Fabric Adapter.
-
Utilizar cargas de trabajo de AWS Inferentia: cree un clúster de EKS con instancias Inf1 de Amazon EC2. Consulte Uso de instancias de AWS Inferentia con Amazon EKS para machine learning.
Temas
Ejecución de contenedores acelerados por GPU (Windows en EC2 G-Series)
Creación de un grupo de nodos administrados con bloques de capacidad para ML
Creación de nodos autoadministrados con bloques de capacidad para ML
Limitación para que los pods no se programen en nodos específicos
Impartición de formación en machine learning en Amazon EKS con Elastic Fabric Adapter
Uso de instancias de AWS Inferentia con Amazon EKS para machine learning