Ayude a mejorar esta página
Para contribuir a esta guía del usuario, elija el enlace Edit this page on GitHub que se encuentra en el panel derecho de cada página.
Cómo probar los tutoriales para implementar cargas de trabajo de machine learning en EKS
Si está interesado en configurar plataformas y marcos de machine learning en EKS, explore los tutoriales que se describen en esta página. Estos tutoriales abarcan desde patrones para aprovechar al máximo los procesadores de la GPU hasta la elección de herramientas de modelado o la creación de marcos de trabajo para sectores especializados.
Cree plataformas de IA generativa en EKS
Ejecute marcos especializados de IA generativa en EKS
Maximice el rendimiento de la GPU NVIDIA para ML en EKS
-
Implemente el uso compartido de GPU para utilizar de forma eficiente las GPU NVIDIA en los clústeres de EKS:
-
Utilice GPU de múltiples instancias (MIG) y microservicios NIM para ejecutar más pods por GPU en los clústeres de EKS:
-
Aproveche los microservicios NIM de NVIDIA para optimizar las cargas de trabajo de inferencia mediante microservicios optimizados para implementar modelos de IA a escala:
Parte 1: Implementación de aplicaciones de IA generativa con NIM de NVIDIA en Amazon EKS
-
Cómo escalar un modelo de lenguaje de gran tamaño con NIM de NVIDIA en Amazon EKS con Karpenter
-
Cree e implemente un sistema de machine learning escalable en Kubernetes con Kubeflow en AWS
Ejecución de cargas de trabajo de codificación de video en EKS
Aceleración de la carga de imágenes para cargas de trabajo de inferencia
Testimonios sobre ML en EKS
Supervisión de las cargas de trabajo de ML
Anuncios sobre ML en EKS
-
Nuevo: instancias de EC2 (G5) con GPUs NVIDIA A10G Tensor Core
-
Nuevo: instancias P4 de EC2 equipadas con GPU para machine learning y HPC
-
Las instancias P5e de Amazon EC2 se encuentran disponibles de manera general
-
Establecimiento de un centro de excelencia de inteligencia artificial y machine learning