As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Instâncias de GPU recomendadas
Recomendamos uma instância de GPU para a maioria dos objetivos de aprendizado profundo. O treinamento de novos modelos é mais rápido em uma instância de GPU do que em uma instância de CPU. Você pode escalar sublinearmente quando tiver instâncias com várias GPUs ou se usar treinamento distribuído em várias instâncias com. GPUs
Os tipos de instância a seguir são compatíveis com a DLAMI. Para obter informações sobre as opções de tipo de instância de GPU e seus usos, consulte instância
nota
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação.
-
As instâncias Amazon EC2 P5e
têm até 8 NVIDIA Tesla H200. GPUs -
As instâncias Amazon EC2 P5
têm até 8 NVIDIA Tesla H100. GPUs -
As instâncias EC2 P4 da Amazon
têm até 8 NVIDIA Tesla A100. GPUs As instâncias EC2 P3 da Amazon
têm até 8 NVIDIA Tesla V100. GPUs -
As instâncias Amazon EC2 G3
têm até 4 NVIDIA Tesla M60. GPUs -
As instâncias Amazon EC2 G4
têm até 4 NVIDIA T4. GPUs -
As instâncias Amazon EC2 G5
têm até 8 NVIDIA A10G. GPUs -
As instâncias Amazon EC2 G6
têm até 8 NVIDIA L4. GPUs -
As instâncias Amazon EC2 G6e
têm até 8 NVIDIA L40S Tensor Core. GPUs -
As instâncias Amazon EC2 G5g têm processadores Graviton2
baseados em ARM64 AWS .
As instâncias da DLAMI oferecem ferramentas para monitorar e otimizar seus processos da GPU. Para obter mais informações sobre o monitoramento dos processos da GPU, consulte Monitoramento e otimização de GPU.
Para ver tutoriais específicos sobre como trabalhar com instâncias G5g, consulte O ARM64 DLAMI.
A seguir
Instâncias de CPU recomendadas