

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Escolher o tipo de instância de DLAMI
<a name="instance-select"></a>

Em geral, considere o seguinte ao escolher um tipo de instância para uma DLAMI.
+ Se você é novo no aprendizado profundo, uma instância com uma única GPU pode atender às suas necessidades.
+ Caso se preocupe com o orçamento, é possível usar instâncias somente de CPU.
+ Se você deseja otimizar o alto desempenho e a eficiência de custos para inferência de modelos de aprendizado profundo, pode usar instâncias com chips AWS Inferentia.
+ Se você está procurando uma instância de GPU de alto desempenho com uma arquitetura de CPU baseada em Arm64, é possível usar o tipo de instância G5g.
+  Se você estiver interessado em executar um modelo pré-treinado para inferência e previsões, você pode anexar um [Amazon Elastic Inference à sua instância da Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html). EC2 O Amazon Elastic Inference fornece acesso a um acelerador com uma fração de uma GPU.
+ Para serviços de inferência de alto volume, uma única instância de CPU com muita memória, ou um cluster dessas instâncias, pode ser uma solução melhor. 
+  Se estiver usando um modelo grande com muitos dados ou um tamanho de lote amplo, você precisará de uma instância maior com mais memória. Você também pode distribuir seu modelo para um cluster de GPUs. Usar uma instância com menos memória talvez seja a melhor solução se você diminuir o tamanho do lote. Isso pode afetar sua precisão e velocidade de treinamento.
+  Se você estiver interessado em executar aplicativos de machine learning usando NVIDIA Collective Communications Library (NCCL) que exigem altos níveis de comunicação entre nós em escala, talvez você queira usar o [Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html).

Para obter mais detalhes sobre instâncias, consulte [de instância](https://aws.amazon.com/ec2/instance-types/).

Os tópicos a seguir fornecem informações sobre as considerações relacionadas aos tipos de instância. 

**Importante**  
O Deep Learning AMIs inclui drivers, software ou kits de ferramentas desenvolvidos, de propriedade ou fornecidos pela NVIDIA Corporation. Você concorda em usar esses drivers, software ou kits de ferramentas da NVIDIA somente em EC2 instâncias da Amazon que incluam hardware da NVIDIA.

**Topics**
+ [

## Definição de preço para a DLAMI
](#pricing)
+ [

## Disponibilidade de regiões da DLAMI
](#region)
+ [

# Instâncias de GPU recomendadas
](gpu.md)
+ [

# Instâncias de CPU recomendadas
](cpu.md)
+ [

# Instâncias recomendadas do Inferentia
](inferentia.md)
+ [

# Instâncias recomendadas do Trainium
](trainium.md)

## Definição de preço para a DLAMI
<a name="pricing"></a>

As estruturas de aprendizado profundo incluídas na DLAMI são gratuitas, e cada uma tem suas próprias licenças de código aberto. Embora o software incluído no DLAMI seja gratuito, você ainda precisa pagar pelo hardware subjacente da instância Amazon EC2 .

Alguns tipos de EC2 instância da Amazon são rotulados como gratuitos. É possível executar a DLAMI em uma dessas instâncias gratuitas. Isso significa que isso é totalmente gratuito quando você usa essa capacidade de instância. Se você precisar de uma instância mais poderosa com mais núcleos de CPU, mais espaço em disco, mais RAM ou uma ou mais GPUs, precisará de uma instância que não esteja na classe de instância de nível gratuito.

Para obter mais informações sobre opções e preços de instâncias, consulte [ EC2 Preços da Amazon](https://aws.amazon.com/ec2/pricing/).

## Disponibilidade de regiões da DLAMI
<a name="region"></a>

Cada região oferece suporte a uma variedade diferente de tipos de instância e, geralmente, um tipo de instância tem um custo ligeiramente diferente em regiões diferentes. DLAMIs não estão disponíveis em todas as regiões, mas é possível copiar DLAMIs para a região de sua escolha. Para obter mais informações, consulte [Copiar uma AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html). Observe a lista de seleções de regiões e escolha a que esteja próxima de você ou de seus clientes. Se você planeja usar mais de uma DLAMI e potencialmente criar um cluster, use a mesma região para todos os nós do cluster.

Para obter mais informações sobre regiões, acesse [Amazon EC2 Service Endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region).

**A seguir**  
[Instâncias de GPU recomendadas](gpu.md)

# Instâncias de GPU recomendadas
<a name="gpu"></a>

Recomendamos uma instância de GPU para a maioria dos objetivos de aprendizado profundo. O treinamento de novos modelos é mais rápido em uma instância de GPU do que em uma instância de CPU. Você pode escalar sublinearmente quando tiver instâncias com várias GPUs ou se usar treinamento distribuído em várias instâncias com. GPUs 

Os tipos de instância a seguir são compatíveis com a DLAMI. Para obter informações sobre as opções de tipo de instância de GPU e seus usos, consulte [instância](https://aws.amazon.com/ec2/instance-types/) e selecione **Computação acelerada**.

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ As [instâncias Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) têm até 8 NVIDIA Blackwell B200. GPUs
+ As [instâncias Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) têm até 8 NVIDIA Blackwell B300. GPUs
+ As [instâncias Amazon EC2 GB2 P6-00](https://aws.amazon.com/ec2/instance-types/p6/) têm até 4 NVIDIA Blackwell 00. GB2 GPUs
+ [As instâncias Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) têm até 8 NVIDIA Tesla H200. GPUs
+ [As instâncias Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) têm até 8 NVIDIA Tesla H100. GPUs
+ [As instâncias EC2 P4 da Amazon](https://aws.amazon.com/ec2/instance-types/p4/) têm até 8 NVIDIA Tesla A100. GPUs
+ [As instâncias EC2 P3 da Amazon](https://aws.amazon.com/ec2/instance-types/p3/) têm até 8 NVIDIA Tesla V100. GPUs
+ [As instâncias Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) têm até 4 NVIDIA Tesla M60. GPUs
+ [As instâncias Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) têm até 4 NVIDIA T4. GPUs
+ [As instâncias Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) têm até 8 NVIDIA A10G. GPUs
+ [As instâncias Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) têm até 8 NVIDIA L4. GPUs
+ [As instâncias Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) têm até 8 NVIDIA L40S Tensor Core. GPUs
+ [As instâncias Amazon EC2 G5g têm processadores Graviton2](https://aws.amazon.com/ec2/instance-types/g5g/) [baseados em ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

As instâncias da DLAMI oferecem ferramentas para monitorar e otimizar seus processos da GPU. Para obter mais informações sobre o monitoramento dos processos da GPU, consulte [Monitoramento e otimização de GPU](tutorial-gpu.md).

Para ver tutoriais específicos sobre como trabalhar com instâncias G5g, consulte [O ARM64 DLAMI](tutorial-arm64.md).

**A seguir**  
[Instâncias de CPU recomendadas](cpu.md)

# Instâncias de CPU recomendadas
<a name="cpu"></a>

Independentemente de você ter um orçamento, estar aprendendo sobre o deep learning ou apenas querer executar um serviço de previsão, você tem muitas opções acessíveis na categoria de CPU. Alguns frameworks usam a biblioteca MKL DNN da Intel, que acelera o treinamento e a inferência em tipos de instância de CPU C5 (não disponíveis em todas as regiões). Para obter informações sobre os tipos de instância de CPU, consulte [de instância](https://aws.amazon.com/ec2/instance-types/) e selecione **Otimizado para computação.**

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ [As instâncias Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) têm até 72 Intel v. CPUs As instâncias C5 se destacam em modelagem científica, processamento em lote, análise distribuída, computação de alto desempenho (HPC) e inferência de aprendizado profundo e de máquina.

**A seguir**  
[Instâncias recomendadas do Inferentia](inferentia.md)

# Instâncias recomendadas do Inferentia
<a name="inferentia"></a>

AWS As instâncias de inferência são projetadas para fornecer alto desempenho e economia para cargas de trabalho de inferência de modelos de aprendizado profundo. Especificamente, os tipos de instância Inf2 usam chips AWS Inferentia e o [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que é integrado a estruturas populares de aprendizado de máquina, como e. TensorFlow PyTorch

Os clientes podem usar instâncias Inf2 para executar aplicativos de inferência de machine learning em grande escala, como pesquisa, mecanismos de recomendação, visão computacional, reconhecimento de fala, processamento de linguagem natural, personalização e detecção de fraudes, com o menor custo na nuvem.

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ [As instâncias Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) têm até 16 chips AWS Inferentia e 100 Gbps de taxa de transferência de rede.

Para obter mais informações sobre como começar a usar a AWS inferência DLAMIs, consulte[O chip de AWS inferência com DLAMI](tutorial-inferentia.md).

**A seguir**  
[Instâncias recomendadas do Trainium](trainium.md)

# Instâncias recomendadas do Trainium
<a name="trainium"></a>

AWS As instâncias Trainium são projetadas para fornecer alto desempenho e economia para cargas de trabalho de inferência de modelos de aprendizado profundo. Especificamente, os tipos de instância Trn1 usam chips AWS Trainium e o [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que é integrado a estruturas populares de aprendizado de máquina, como e. TensorFlow PyTorch

Os clientes podem usar instâncias Trn1 para executar aplicativos de inferência de machine learning em grande escala, como pesquisa, mecanismos de recomendação, visão computacional, reconhecimento de fala, processamento de linguagem natural, personalização e detecção de fraudes, com o menor custo na nuvem.

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ [As instâncias Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) têm até 16 chips AWS Trainium e 100 Gbps de taxa de transferência de rede.