Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Se recomienda una instancia de GPU para la mayoría de los fines de aprendizaje profundo. El entrenamiento de modelos nuevos es más rápido en una instancia de GPU que en una instancia de CPU. Puede escalar de forma sublineal si tiene instancias de varias GPU o si utiliza la formación distribuida en muchas instancias con ellas. GPUs
Los tipos de instancia que se muestran a continuación admiten DLAMI. Para obtener información sobre las opciones de tipos de instancias de GPU y sus usos, consulta y selecciona EC2 Computación
nota
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación.
-
Las instancias Amazon EC2 P5e
tienen hasta 8 NVIDIA Tesla H200. GPUs -
Las instancias Amazon EC2 P5
tienen hasta 8 NVIDIA Tesla GPUs H100. -
Las instancias Amazon EC2 P4
tienen hasta 8 NVIDIA Tesla GPUs A100. Las instancias Amazon EC2 P3
tienen hasta 8 NVIDIA Tesla GPUs V100. -
Las instancias Amazon EC2 G3
tienen hasta 4 NVIDIA Tesla GPUs M60. -
Las instancias Amazon EC2 G4
tienen hasta 4 NVIDIA GPUs T4. -
Las instancias Amazon EC2 G5
tienen hasta 8 NVIDIA GPUs A10G. -
Las instancias Amazon EC2 G6
tienen hasta 8 NVIDIA GPUs L4. -
Las instancias Amazon EC2 G6e
tienen hasta 8 NVIDIA L40S Tensor Core. GPUs -
Las instancias Amazon EC2 G5g
tienen procesadores Graviton2 basados en ARM64 AWS .
Las instancias de DLAMI proporcionan herramientas para supervisar y optimizar los procesos de la GPU. Para obtener más información sobre la supervisión de los procesos de GPU, consulte Monitorización y optimización de GPU.
Para ver tutoriales específicos sobre cómo trabajar con instancias G5G, consulte El ARM64 DLAMI.
Tema siguiente
Instancias de CPU recomendadas