

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Conceitos básicos da DLAMI
<a name="getting-started"></a>

Este guia inclui dicas de como selecionar a DLAMI correta para você com a seleção de um tipo de instância que se adequa a seu caso de uso e a seu orçamento, e [Informações relacionadas sobre a DLAMI](resources.md) que descreve configurações personalizadas que podem ser de seu interesse.

Se você está começando a usar AWS ou usar a Amazon EC2, comece com [AMI de aprendizado profundo com Conda](overview-conda.md) o. Se você está familiarizado com a Amazon EC2 e outros AWS serviços, como Amazon EMR, Amazon EFS ou Amazon S3, e está interessado em integrar esses serviços para projetos que precisam de treinamento distribuído ou inferência, [Informações relacionadas sobre a DLAMI](resources.md) confira se um deles se adequa ao seu caso de uso. 

Recomendamos que você confira [Escolher uma DLAMI](choose-dlami.md) para ter uma ideia do tipo de instância que pode ser melhor para seu aplicativo.

**Próxima etapa**  
[Escolher uma DLAMI](choose-dlami.md)

# Escolher uma DLAMI
<a name="choose-dlami"></a>

Oferecemos uma variedade de opções de DLAMI, conforme mencionado nas [Notas de versão da DLAMI com GPU](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu). Para ajudar você a selecionar a DLAMI correta para seu caso de uso, agrupamos as imagens pelo tipo de hardware ou pela funcionalidade para a qual elas foram desenvolvidas. Nossos agrupamentos de alto nível são:
+ **Tipo de DLAMI**: base, de framework único, multiframework (DLAMI do Conda)
+ **Arquitetura de computação:** [AWS Graviton](https://aws.amazon.com/ec2/graviton/) baseado em x86, baseado em Arm64
+ **Tipo de processador:** [GPU](https://docs.aws.amazon.com/dlami/latest/devguide/gpu), [CPU](https://docs.aws.amazon.com/dlami/latest/devguide/cpu), [Inferentia](https://docs.aws.amazon.com/dlami/latest/devguide/inferentia), [Trainium](https://docs.aws.amazon.com/dlami/latest/devguide/trainium)
+ **SDK:** [CUDA](https://developer.nvidia.com/cuda-toolkit), [AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/get-started.html)
+ **Sistema operacional:** Amazon Linux, Ubuntu

O restante dos tópicos deste guia ajudam você a obter mais informações e detalhes. 

**Topics**
+ [

# Instalações do CUDA e associações da estrutura
](overview-cuda.md)
+ [

# AMI de deep learning base
](overview-base.md)
+ [

# AMI de aprendizado profundo com Conda
](overview-conda.md)
+ [

# Opções de arquitetura de DLAMI
](overview-architecture.md)
+ [

# Opções do sistema operacional da DLAMI
](overview-os.md)

**A seguir**  
[AMI de aprendizado profundo com Conda](overview-conda.md)

# Instalações do CUDA e associações da estrutura
<a name="overview-cuda"></a>

O aprendizado profundo é de última geração, e cada estrutura oferece versões "estáveis". Essas versões estáveis podem não funcionar com a implementação e os recursos mais recentes do CUDA ou do cuDNN. O caso de uso e os recursos necessários podem ajudar você a escolher uma estrutura. Se você não tiver certeza, use a AMI de aprendizado profundo mais recente com o Conda. Ela tem binários `pip` oficiais para todos os frameworks com CUDA, usando a versão mais recente compatível com cada framework. Se você quiser as versões mais recentes e personalizar seu ambiente de aprendizado profundo, use a AMI base de deep learning.

Consulte o nosso guia em [Estabilidade e candidatos a lançamento](overview-conda.md#overview-conda-stability) para obter mais orientações.

## Escolher uma DLAMI com o CUDA
<a name="cuda-choose"></a>

A [AMI de deep learning base](overview-base.md) tem todas as séries de versões CUDA disponíveis.

A [AMI de aprendizado profundo com Conda](overview-conda.md) tem todas as séries de versões CUDA disponíveis.

**nota**  
Não incluímos mais os ambientes Conda MXNet, CNTK, Caffe, Caffe2, Theano, Chainer ou Keras nas AMIs de deep learning da AWS.

Para obter números de versão específicos da estrutura, consulte [Notas de AMIs lançamento do Deep Learning](appendix-ami-release-notes.md)

Escolha este tipo de DLAMI ou saiba mais sobre as diferentes DLAMIs com a opção **a seguir**.

Escolha uma das versões do CUDA e analise a lista completa das DLAMIs que têm essa versão no **Apêndice**, ou saiba mais sobre as diferentes DLAMIs com a opção **a seguir**.

**A seguir**  
[AMI de deep learning base](overview-base.md)

## Tópicos relacionados
<a name="cuda-related"></a>
+ Para obter instruções sobre como alternar entre as versões do CUDA, consulte o tutorial [Uso da AMI base de aprendizado profundo](tutorial-base.md).

# AMI de deep learning base
<a name="overview-base"></a>

A AMI do deep learning base é como uma tela vazia para aprendizado profundo. Ela vem com tudo o que você precisa até o ponto da instalação de uma determinada estrutura e tem sua escolha de versões do CUDA. 

## Por que escolher a DLAMI base
<a name="base-why"></a>

Esse grupo de AMIs é útil para colaboradores de projeto que desejam usar um projeto de deep learning e criar o mais recente. É para alguém que deseja implementar seu próprio ambiente com a confiança de que o software NVIDIA mais recente está instalado e funcionando para que possa concentrar-se em escolher as estruturas e versões que deseja instalar. 

Escolha este tipo de DLAMI ou saiba mais sobre as diferentes DLAMIs com a opção **a seguir**.

**A seguir**  
[DLAMI com o Conda](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## Tópicos relacionados
<a name="base-related"></a>
+ [Uso da AMI de deep learning base](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# AMI de aprendizado profundo com Conda
<a name="overview-conda"></a>

A DLAMI Conda usa ambientes virtuais do `conda`, disponíveis em DLAMIs de vários frameworks ou de framework único. Esses ambientes são configurados para manter as instalações de estruturas diferentes separadas e simplificar a alternância entre estruturas. Isso é ótimo para aprendizado e testes com todas as estruturas que a DLAMI tem para oferecer. A maioria dos usuários acreditam que a nova AMI de deep learning com Conda é perfeita para eles. 

Elas serão atualizadas frequentemente com as versões mais recentes das estruturas, e terão o software e os drivers de GPU mais recentes. Em geral, ela é referenciada como *a* AMIs de deep learning da AWS na maioria dos documentos. Essas DLAMIs são compatíveis com os sistemas operacionais Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2 e Amazon Linux 2023. O suporte a sistemas operacionais depende do suporte do sistema operacional upstream.

## Estabilidade e candidatos a lançamento
<a name="overview-conda-stability"></a>

As AMIs do Conda usam binários otimizados dos lançamentos formais mais recentes de cada estrutura. Versões "release candidate" e recursos experimentais não devem ser esperados. As otimizações dependem do suporte que a estrutura oferece para tecnologias de aceleração como a DNN MKL da Intel, que acelera o treinamento e a inferência em tipos de instância de CPU C4 e C5. Os binários também estão compilados para oferecer suporte aos conjuntos de instrução Intel avançados, incluindo, entre outros, AVX, AVX-2, SSE4.1 e SSE4.2. Essas operações de vetor de aceleração e de ponto de flutuação nas arquiteturas de Intel CPU. Além disso, para tipos de instância de GPU, o CUDA e o cuDNN são atualizados com qualquer versão compatível com o release oficial mais recente. 

A AMI de deep learning com Conda instala automaticamente a versão mais otimizada da estrutura para sua instância do Amazon EC2 após a primeira ativação da estrutura. Para obter mais informações, consulte [Uso da AMI de aprendizado profundo com Conda](tutorial-conda.md). 

Se você deseja realizar a instalação da origem usando opções de compilação personalizadas ou otimizadas, a de [AMI de deep learning base](overview-base.md)s pode ser a melhor opção para você.

## Defasagem do Python 2
<a name="overview-conda-python2"></a>

A comunidade de código aberto Python encerrou oficialmente o suporte para Python 2 em 1 de janeiro de 2020. As comunidades TensorFlow e PyTorch anunciaram que as versões TensorFlow 2.1 e PyTorch 1.4 são as últimas compatíveis com Python 2. As versões anteriores da DLAMI (v26, v25 etc.) que contêm ambientes Python 2 Conda continuarão disponíveis. No entanto, fornecemos atualizações para os ambientes Python 2 Conda em versões da DLAMI publicadas anteriormente somente se houver correções de segurança publicadas pela comunidade de código aberto para essas versões. As DLAMIs com as versões mais recentes das estruturas TensorFlow e PyTorch não contêm os ambientes Python 2 do Conda.

## CUDA Support
<a name="overview-conda-cuda"></a>

Os números de versão específicos do CUDA podem ser encontrados nas [notas de versão da DLAMI da GPU](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu).

**A seguir**  
[Opções de arquitetura de DLAMI](overview-architecture.md)

## Tópicos relacionados
<a name="conda-related"></a>
+ Para ver um tutorial sobre como usar uma AMI de aprendizado profundo com Conda, consulte o tutorial do [Uso da AMI de aprendizado profundo com Conda](tutorial-conda.md).

# Opções de arquitetura de DLAMI
<a name="overview-architecture"></a>

As AMIs de deep learning da AWS são oferecidas com arquiteturas do [AWS Graviton2](https://aws.amazon.com/ec2/graviton/) baseadas em x86 ou Arm64.

Para ter mais informações sobre como começar a usar a DLAMI para GPU ARM64, consulte [O ARM64 DLAMI](tutorial-arm64.md). Para obter mais detalhes sobre os tipos de instância disponíveis, consulte [Escolher o tipo de instância de DLAMI](instance-select.md).

**A seguir**  
[Opções do sistema operacional da DLAMI](overview-os.md)

# Opções do sistema operacional da DLAMI
<a name="overview-os"></a>

As DLAMIs são oferecidas nos seguintes sistemas operacionais.
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

Há versões mais antigas dos sistemas operacionais disponíveis em DLAMIs descontinuadas. Para obter mais informações sobre a suspensão de uso da DLAMI, consulte [Descontinuação da DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)

Antes de escolher uma DLAMI, avalie o tipo de instância que você precisa e identifique sua região da AWS.

**A seguir**  
[Escolher o tipo de instância de DLAMI](instance-select.md)

# Escolher o tipo de instância de DLAMI
<a name="instance-select"></a>

Em geral, considere o seguinte ao escolher um tipo de instância para uma DLAMI.
+ Se você é novo no aprendizado profundo, uma instância com uma única GPU pode atender às suas necessidades.
+ Caso se preocupe com o orçamento, é possível usar instâncias somente de CPU.
+ Se você deseja otimizar o alto desempenho e a eficiência de custos para inferência de modelos de aprendizado profundo, pode usar instâncias com chips AWS Inferentia.
+ Se você está procurando uma instância de GPU de alto desempenho com uma arquitetura de CPU baseada em Arm64, é possível usar o tipo de instância G5g.
+  Se você estiver interessado em executar um modelo pré-treinado para inferência e previsões, você pode anexar um [Amazon Elastic Inference à sua instância da Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html). EC2 O Amazon Elastic Inference fornece acesso a um acelerador com uma fração de uma GPU.
+ Para serviços de inferência de alto volume, uma única instância de CPU com muita memória, ou um cluster dessas instâncias, pode ser uma solução melhor. 
+  Se estiver usando um modelo grande com muitos dados ou um tamanho de lote amplo, você precisará de uma instância maior com mais memória. Você também pode distribuir seu modelo para um cluster de GPUs. Usar uma instância com menos memória talvez seja a melhor solução se você diminuir o tamanho do lote. Isso pode afetar sua precisão e velocidade de treinamento.
+  Se você estiver interessado em executar aplicativos de machine learning usando NVIDIA Collective Communications Library (NCCL) que exigem altos níveis de comunicação entre nós em escala, talvez você queira usar o [Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html).

Para obter mais detalhes sobre instâncias, consulte [de instância](https://aws.amazon.com/ec2/instance-types/).

Os tópicos a seguir fornecem informações sobre as considerações relacionadas aos tipos de instância. 

**Importante**  
O Deep Learning AMIs inclui drivers, software ou kits de ferramentas desenvolvidos, de propriedade ou fornecidos pela NVIDIA Corporation. Você concorda em usar esses drivers, software ou kits de ferramentas da NVIDIA somente em EC2 instâncias da Amazon que incluam hardware da NVIDIA.

**Topics**
+ [

## Definição de preço para a DLAMI
](#pricing)
+ [

## Disponibilidade de regiões da DLAMI
](#region)
+ [

# Instâncias de GPU recomendadas
](gpu.md)
+ [

# Instâncias de CPU recomendadas
](cpu.md)
+ [

# Instâncias recomendadas do Inferentia
](inferentia.md)
+ [

# Instâncias recomendadas do Trainium
](trainium.md)

## Definição de preço para a DLAMI
<a name="pricing"></a>

As estruturas de aprendizado profundo incluídas na DLAMI são gratuitas, e cada uma tem suas próprias licenças de código aberto. Embora o software incluído no DLAMI seja gratuito, você ainda precisa pagar pelo hardware subjacente da instância Amazon EC2 .

Alguns tipos de EC2 instância da Amazon são rotulados como gratuitos. É possível executar a DLAMI em uma dessas instâncias gratuitas. Isso significa que isso é totalmente gratuito quando você usa essa capacidade de instância. Se você precisar de uma instância mais poderosa com mais núcleos de CPU, mais espaço em disco, mais RAM ou uma ou mais GPUs, precisará de uma instância que não esteja na classe de instância de nível gratuito.

Para obter mais informações sobre opções e preços de instâncias, consulte [ EC2 Preços da Amazon](https://aws.amazon.com/ec2/pricing/).

## Disponibilidade de regiões da DLAMI
<a name="region"></a>

Cada região oferece suporte a uma variedade diferente de tipos de instância e, geralmente, um tipo de instância tem um custo ligeiramente diferente em regiões diferentes. DLAMIs não estão disponíveis em todas as regiões, mas é possível copiar DLAMIs para a região de sua escolha. Para obter mais informações, consulte [Copiar uma AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html). Observe a lista de seleções de regiões e escolha a que esteja próxima de você ou de seus clientes. Se você planeja usar mais de uma DLAMI e potencialmente criar um cluster, use a mesma região para todos os nós do cluster.

Para obter mais informações sobre regiões, acesse [Amazon EC2 Service Endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region).

**A seguir**  
[Instâncias de GPU recomendadas](gpu.md)

# Instâncias de GPU recomendadas
<a name="gpu"></a>

Recomendamos uma instância de GPU para a maioria dos objetivos de aprendizado profundo. O treinamento de novos modelos é mais rápido em uma instância de GPU do que em uma instância de CPU. Você pode escalar sublinearmente quando tiver instâncias com várias GPUs ou se usar treinamento distribuído em várias instâncias com. GPUs 

Os tipos de instância a seguir são compatíveis com a DLAMI. Para obter informações sobre as opções de tipo de instância de GPU e seus usos, consulte [instância](https://aws.amazon.com/ec2/instance-types/) e selecione **Computação acelerada**.

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ As [instâncias Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) têm até 8 NVIDIA Blackwell B200. GPUs
+ As [instâncias Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) têm até 8 NVIDIA Blackwell B300. GPUs
+ As [instâncias Amazon EC2 GB2 P6-00](https://aws.amazon.com/ec2/instance-types/p6/) têm até 4 NVIDIA Blackwell 00. GB2 GPUs
+ [As instâncias Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) têm até 8 NVIDIA Tesla H200. GPUs
+ [As instâncias Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) têm até 8 NVIDIA Tesla H100. GPUs
+ [As instâncias EC2 P4 da Amazon](https://aws.amazon.com/ec2/instance-types/p4/) têm até 8 NVIDIA Tesla A100. GPUs
+ [As instâncias EC2 P3 da Amazon](https://aws.amazon.com/ec2/instance-types/p3/) têm até 8 NVIDIA Tesla V100. GPUs
+ [As instâncias Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) têm até 4 NVIDIA Tesla M60. GPUs
+ [As instâncias Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) têm até 4 NVIDIA T4. GPUs
+ [As instâncias Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) têm até 8 NVIDIA A10G. GPUs
+ [As instâncias Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) têm até 8 NVIDIA L4. GPUs
+ [As instâncias Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) têm até 8 NVIDIA L40S Tensor Core. GPUs
+ [As instâncias Amazon EC2 G5g têm processadores Graviton2](https://aws.amazon.com/ec2/instance-types/g5g/) [baseados em ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

As instâncias da DLAMI oferecem ferramentas para monitorar e otimizar seus processos da GPU. Para obter mais informações sobre o monitoramento dos processos da GPU, consulte [Monitoramento e otimização de GPU](tutorial-gpu.md).

Para ver tutoriais específicos sobre como trabalhar com instâncias G5g, consulte [O ARM64 DLAMI](tutorial-arm64.md).

**A seguir**  
[Instâncias de CPU recomendadas](cpu.md)

# Instâncias de CPU recomendadas
<a name="cpu"></a>

Independentemente de você ter um orçamento, estar aprendendo sobre o deep learning ou apenas querer executar um serviço de previsão, você tem muitas opções acessíveis na categoria de CPU. Alguns frameworks usam a biblioteca MKL DNN da Intel, que acelera o treinamento e a inferência em tipos de instância de CPU C5 (não disponíveis em todas as regiões). Para obter informações sobre os tipos de instância de CPU, consulte [de instância](https://aws.amazon.com/ec2/instance-types/) e selecione **Otimizado para computação.**

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ [As instâncias Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) têm até 72 Intel v. CPUs As instâncias C5 se destacam em modelagem científica, processamento em lote, análise distribuída, computação de alto desempenho (HPC) e inferência de aprendizado profundo e de máquina.

**A seguir**  
[Instâncias recomendadas do Inferentia](inferentia.md)

# Instâncias recomendadas do Inferentia
<a name="inferentia"></a>

AWS As instâncias de inferência são projetadas para fornecer alto desempenho e economia para cargas de trabalho de inferência de modelos de aprendizado profundo. Especificamente, os tipos de instância Inf2 usam chips AWS Inferentia e o [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que é integrado a estruturas populares de aprendizado de máquina, como e. TensorFlow PyTorch

Os clientes podem usar instâncias Inf2 para executar aplicativos de inferência de machine learning em grande escala, como pesquisa, mecanismos de recomendação, visão computacional, reconhecimento de fala, processamento de linguagem natural, personalização e detecção de fraudes, com o menor custo na nuvem.

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ [As instâncias Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) têm até 16 chips AWS Inferentia e 100 Gbps de taxa de transferência de rede.

Para obter mais informações sobre como começar a usar a AWS inferência DLAMIs, consulte[O chip de AWS inferência com DLAMI](tutorial-inferentia.md).

**A seguir**  
[Instâncias recomendadas do Trainium](trainium.md)

# Instâncias recomendadas do Trainium
<a name="trainium"></a>

AWS As instâncias Trainium são projetadas para fornecer alto desempenho e economia para cargas de trabalho de inferência de modelos de aprendizado profundo. Especificamente, os tipos de instância Trn1 usam chips AWS Trainium e o [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que é integrado a estruturas populares de aprendizado de máquina, como e. TensorFlow PyTorch

Os clientes podem usar instâncias Trn1 para executar aplicativos de inferência de machine learning em grande escala, como pesquisa, mecanismos de recomendação, visão computacional, reconhecimento de fala, processamento de linguagem natural, personalização e detecção de fraudes, com o menor custo na nuvem.

**nota**  
O tamanho do modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, escolha outro tipo de instância com memória suficiente para a aplicação. 
+ [As instâncias Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) têm até 16 chips AWS Trainium e 100 Gbps de taxa de transferência de rede.

# Usando o Deep Learning AMIs com o EC2 Image Builder
<a name="using-dlami-with-image-builder"></a>

AWS O Deep Learning AMIs (DLAMIs) agora está disponível como imagens gerenciadas pela Amazon no serviço [EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html). Essa integração simplifica o uso de DLAMIs imagens básicas e garante que a versão mais recente seja usada a qualquer momento.

## Disponível DLAMIs
<a name="available-dlamis"></a>

As seguintes imagens DLAMIs estão disponíveis como imagens gerenciadas pela Amazon, encontradas na **seção Imagens** do serviço:
+ [AMI básica com CUDA único (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [AMI básica com CUDA único (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 AMI básica com CUDA único (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 AMI básica com CUDA único (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[AMI x86 da Amazon Managed Deep Learning Base\]](http://docs.aws.amazon.com/pt_br/dlami/latest/devguide/images/deep-learning-base.png)


![\[ARM64 AMI da base gerenciada de aprendizado profundo da Amazon\]](http://docs.aws.amazon.com/pt_br/dlami/latest/devguide/images/deep-learning-arm.png)


## Usando DLAMIs como imagem base
<a name="using-dlamis-base-image"></a>

DLAMIs pode ser usado como imagem base durante a criação da receita de imagem.

1. Acesse o console do Image Builder

1. Selecione **receitas de imagem**

1. Selecione **Criar receita de imagem**

1. Na seção **Imagem base**, selecione **Início rápido (gerenciado pela Amazon)**

1. No menu suspenso, escolha um dos disponíveis DLAMIs com base na sua seleção de **Sistema Operacional (SO) de Imagem**
   + Se o **Amazon Linux** estiver selecionado:
     + AMI de base de aprendizado profundo com CUDA único Amazon Linux 2023
     + AMI de ARM64 base de aprendizado profundo com CUDA único Amazon Linux 2023  
![\[Criação de receitas do Image Builder para Amazon Linux\]](http://docs.aws.amazon.com/pt_br/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + Se o **Ubuntu** estiver selecionado:
     + AMI de base de aprendizado profundo com CUDA único Ubuntu 22-04
     + AMI de ARM64 base de aprendizado profundo com CUDA único Ubuntu 22-04  
![\[Criação de receitas do Image Builder para Ubuntu\]](http://docs.aws.amazon.com/pt_br/dlami/latest/devguide/images/image-recipe-creation-ul22.png)