

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Instancias de GPU recomendadas
<a name="gpu"></a>

Se recomienda una instancia de GPU para la mayoría de los fines de aprendizaje profundo. El entrenamiento de modelos nuevos es más rápido en una instancia de GPU que en una instancia de CPU. Puede escalar de forma sublineal si tiene instancias de varias GPU o si utiliza la formación distribuida en muchas instancias con ellas. GPUs 

Los tipos de instancia que se muestran a continuación admiten DLAMI. **Para obtener información sobre las opciones de tipos de instancias de GPU y sus usos, consulta y selecciona [EC2 Computación](https://aws.amazon.com/ec2/instance-types/) acelerada.**

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 8 NVIDIA Blackwell B200. GPUs
+ [Las instancias Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 8 NVIDIA Blackwell B300. GPUs
+ [Las instancias Amazon EC2 P6e- GB2 00](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 4 NVIDIA GB2 Blackwell 00. GPUs
+ [Las instancias Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) tienen hasta 8 NVIDIA Tesla H200. GPUs
+ [Las instancias Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) tienen hasta 8 NVIDIA Tesla GPUs H100.
+ [Las instancias Amazon EC2 P4](https://aws.amazon.com/ec2/instance-types/p4/) tienen hasta 8 NVIDIA Tesla GPUs A100.
+ [Las instancias Amazon EC2 P3](https://aws.amazon.com/ec2/instance-types/p3/) tienen hasta 8 NVIDIA Tesla GPUs V100.
+ [Las instancias Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) tienen hasta 4 NVIDIA Tesla GPUs M60.
+ [Las instancias Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) tienen hasta 4 NVIDIA GPUs T4.
+ [Las instancias Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) tienen hasta 8 NVIDIA GPUs A10G.
+ [Las instancias Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) tienen hasta 8 NVIDIA GPUs L4.
+ [Las instancias Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) tienen hasta 8 NVIDIA L40S Tensor Core. GPUs
+ [Las instancias Amazon EC2 G5g](https://aws.amazon.com/ec2/instance-types/g5g/) [tienen procesadores Graviton2 basados en ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Las instancias de DLAMI proporcionan herramientas para supervisar y optimizar los procesos de la GPU. Para obtener más información sobre la supervisión de los procesos de GPU, consulte [Monitorización y optimización de GPU](tutorial-gpu.md).

Para ver tutoriales específicos sobre cómo trabajar con instancias G5G, consulte [El ARM64 DLAMI](tutorial-arm64.md).

**Tema siguiente**  
[Instancias de CPU recomendadas](cpu.md)