

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Instâncias de GPU recomendadas
<a name="gpu"></a>

Recomendamos uma instância de GPU para a maioria dos objetivos de aprendizado profundo. O treinamento de novos modelos é mais rápido em uma instância de GPU do que em uma instância de CPU. Você pode escalar sublinearmente quando tiver instâncias com várias GPUs ou se usar treinamento distribuído em várias instâncias com. GPUs 

Os tipos de instância a seguir são compatíveis com a DLAMI. Para obter informações sobre as opções de tipo de instância de GPU e seus usos, consulte [instância](https://aws.amazon.com/ec2/instance-types/) e selecione **Computação acelerada**.

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ As [instâncias Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) têm até 8 NVIDIA Blackwell B200. GPUs
+ As [instâncias Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) têm até 8 NVIDIA Blackwell B300. GPUs
+ As [instâncias Amazon EC2 GB2 P6-00](https://aws.amazon.com/ec2/instance-types/p6/) têm até 4 NVIDIA Blackwell 00. GB2 GPUs
+ [As instâncias Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) têm até 8 NVIDIA Tesla H200. GPUs
+ [As instâncias Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) têm até 8 NVIDIA Tesla H100. GPUs
+ [As instâncias EC2 P4 da Amazon](https://aws.amazon.com/ec2/instance-types/p4/) têm até 8 NVIDIA Tesla A100. GPUs
+ [As instâncias EC2 P3 da Amazon](https://aws.amazon.com/ec2/instance-types/p3/) têm até 8 NVIDIA Tesla V100. GPUs
+ [As instâncias Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) têm até 4 NVIDIA Tesla M60. GPUs
+ [As instâncias Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) têm até 4 NVIDIA T4. GPUs
+ [As instâncias Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) têm até 8 NVIDIA A10G. GPUs
+ [As instâncias Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) têm até 8 NVIDIA L4. GPUs
+ [As instâncias Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) têm até 8 NVIDIA L40S Tensor Core. GPUs
+ [As instâncias Amazon EC2 G5g têm processadores Graviton2](https://aws.amazon.com/ec2/instance-types/g5g/) [baseados em ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

As instâncias da DLAMI oferecem ferramentas para monitorar e otimizar seus processos da GPU. Para obter mais informações sobre o monitoramento dos processos da GPU, consulte [Monitoramento e otimização de GPU](tutorial-gpu.md).

Para ver tutoriais específicos sobre como trabalhar com instâncias G5g, consulte [O ARM64 DLAMI](tutorial-arm64.md).

**A seguir**  
[Instâncias de CPU recomendadas](cpu.md)