

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Introducción a las DLAMI
<a name="getting-started"></a>

Esta guía incluye consejos sobre cómo elegir la DLAMI más adecuada, seleccionar el tipo de instancia apropiada para su caso de uso y presupuesto, y [Información acerca de las DLAMI](resources.md) que describen configuraciones personalizadas que pueden resultar interesantes.

Si eres nuevo en el uso AWS o uso de Amazon EC2, comienza con[AMI de aprendizaje profundo con Conda](overview-conda.md). Si está familiarizado con Amazon EC2 y otros AWS servicios, como Amazon EMR, Amazon EFS o Amazon S3, y está interesado en integrar esos servicios para proyectos que necesitan formación o inferencia distribuida, compruebe si alguno se adapta [Información acerca de las DLAMI](resources.md) a su caso de uso. 

Le recomendamos que consulte [Elección de la DLAMI](choose-dlami.md) para que se haga una idea del tipo de instancia que mejor se adapta a su aplicación.

**Siguiente paso**  
[Elección de la DLAMI](choose-dlami.md)

# Elección de la DLAMI
<a name="choose-dlami"></a>

Ofrecemos toda una gama de opciones de DLAMI, tal y como se menciona en las [notas de la versión de las DLAMI de GPU](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu). Para ayudarle a seleccionar la DLAMI correcta para su caso, agrupamos las imágenes por el tipo de hardware o la funcionalidad para la que se desarrollaron. Nuestras agrupaciones principales son:
+ **Tipo de DLAMI**: CUDA base, marco único o marco múltiple (DLAMI con Conda)
+ **Arquitectura de computación:** [AWS Graviton](https://aws.amazon.com/ec2/graviton/) basado en x86 o basado en Arm64
+ **Tipo de procesador:** [GPU](https://docs.aws.amazon.com/dlami/latest/devguide/gpu), [CPU](https://docs.aws.amazon.com/dlami/latest/devguide/cpu), [Inferentia](https://docs.aws.amazon.com/dlami/latest/devguide/inferentia) y [Trainium](https://docs.aws.amazon.com/dlami/latest/devguide/trainium)
+ **SDK**: [CUDA](https://developer.nvidia.com/cuda-toolkit), [AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/get-started.html)
+ **SO:** Amazon Linux, Ubuntu

En el resto de los temas de esta guía encontrará más detalles. 

**Topics**
+ [

# Instalaciones de CUDA y enlaces de marco de trabajo
](overview-cuda.md)
+ [

# AMI base de aprendizaje profundo
](overview-base.md)
+ [

# AMI de aprendizaje profundo con Conda
](overview-conda.md)
+ [

# Opciones de arquitectura para DLAMI
](overview-architecture.md)
+ [

# Opciones de sistema operativo para la DLAMI
](overview-os.md)

**Tema siguiente**  
[AMI de aprendizaje profundo con Conda](overview-conda.md)

# Instalaciones de CUDA y enlaces de marco de trabajo
<a name="overview-cuda"></a>

Mientras que el aprendizaje profundo es algo bastante novedoso, todos los marcos de trabajo ofrecen versiones "estables". Es posible que estas versiones estables no funcionen con las implementaciones y características más recientes de CUDA o cuDNN. Su caso de uso y las características que necesita pueden ayudarle a elegir un marco. Si no está seguro, utilice la última AMI de aprendizaje profundo con Conda. Tiene binarios `pip` oficiales de todos los marcos con CUDA, que utilizan la versión más reciente compatible con cada plataforma. Si desea obtener las versiones más recientes y personalizar su entorno de aprendizaje profundo, utilice la AMI base de aprendizaje profundo.

Eche un vistazo a nuestra guía sobre [Comparación de Stable y Release Candidates](overview-conda.md#overview-conda-stability) para obtener más información.

## Elija una DLAMI con CUDA
<a name="cuda-choose"></a>

[AMI base de aprendizaje profundo](overview-base.md) tiene todas las series de versiones CUDA disponibles

[AMI de aprendizaje profundo con Conda](overview-conda.md) tiene todas las series de versiones CUDA disponibles

**nota**  
En la AWS Deep Learning AMIs, ya no se incluyen los entornos MXNet, CNTK, Caffe, Caffe2, Theano, Chainer o Keras Conda.

Para obtener números de versión específicos, consulte las [Notas de la AMIs versión de Deep Learning](appendix-ami-release-notes.md).

Elija este tipo de DLAMI u obtenga más información sobre las distintas DLAMI mediante la opción **Tema siguiente**.

Elija una de las versiones de CUDA y consulte en el **Apéndice** la lista completa de las DLAMI que tengan esa versión, u obtenga más información sobre las distintas DLAMI en el tema indicado en la sección **Tema siguiente**.

**Tema siguiente**  
[AMI base de aprendizaje profundo](overview-base.md)

## Temas relacionados
<a name="cuda-related"></a>
+ Para obtener instrucciones sobre cómo cambiar de versión de CUDA, consulte el tutorial [Uso de la AMI base de aprendizaje profundo](tutorial-base.md).

# AMI base de aprendizaje profundo
<a name="overview-base"></a>

La AMI base de aprendizaje profundo es como un lienzo vacío para el aprendizaje profundo. Incluye todo lo que se necesita hasta el momento de la instalación de un marco de trabajo determinado, e incluye las versiones de CUDA que haya elegido. 

## Por qué elegir la DLAMI base
<a name="base-why"></a>

Este grupo de AMI es útil para los colaboradores de proyectos que desean adaptar un proyecto de aprendizaje profundo y compilar la versión más reciente. Está pensado para quienes desean actualizar su propio entorno con la confianza de que tienen instalado y en funcionamiento el software más reciente de NVIDIA, y desean centrarse en seleccionar los marcos de trabajo y las versiones que quieren instalar. 

Elija este tipo de DLAMI u obtenga más información sobre las distintas DLAMI mediante la opción **Tema siguiente**.

**Tema siguiente**  
[DLAMI con Conda](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## Temas relacionados
<a name="base-related"></a>
+ [Uso de la AMI base de aprendizaje profundo](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# AMI de aprendizaje profundo con Conda
<a name="overview-conda"></a>

La DLAMI de Conda utiliza entornos virtuales de `conda` que están presentes disponibles en DLAMI de un solo marco o de varios marcos. Estos entornos están configurados para mantener separadas las instalaciones de los distintos marcos de trabajo y agilizar el paso de un marco a otro. Esto resulta ideal para aprender y experimentar con todos los marcos de trabajo que ofrece la DLAMI. La mayoría de los usuarios descubrirán que la nueva AMI de aprendizaje profundo con Conda es perfecta para ellos. 

Se actualizan a menudo con las versiones más recientes de los marcos de trabajo, y disponen del software y los controladores de GPU más recientes. Se las denominará en general con *la* AWS Deep Learning AMIs en la mayoría de los documentos. Estas DLAMI son compatibles con los sistemas operativos Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2 y Amazon Linux 2023. La compatibilidad de los sistemas operativos depende de la compatibilidad con el sistema operativo anterior.

## Comparación de Stable y Release Candidates
<a name="overview-conda-stability"></a>

Las AMI de Conda utilizan archivos binarios optimizados para las versiones formales más recientes de cada marco de trabajo. No se esperan "release candidates" ni funciones experimentales. Las optimizaciones dependen de la compatibilidad del marco de trabajo para tecnologías de aceleración como MKL DNN de Intel, que acelerarán el entrenamiento y la inferencia en los tipos de instancias de CPU C5 y C4. Los archivos binarios también se compilan para permitir conjuntos de instrucciones de Intel avanzados, incluidos, entre otros, AVX, AVX-2, SSE4.1 y SSE4.2. Estas instrucciones aceleran las operaciones con vectores y puntos flotantes en las arquitecturas de CPU de Intel. Además, para los tipos de instancias de GPU, se actualizan la CUDA y cuDNN con la versión que sea compatible con la última versión oficial. 

La AMI de aprendizaje profundo con Conda instala automáticamente la versión más optimizada del marco de trabajo para su instancia de Amazon EC2 tras la primera activación del marco de trabajo. Para obtener más información, consulta [Uso de la AMI de aprendizaje profundo con Conda](tutorial-conda.md). 

Si desea instalar desde el código fuente mediante opciones de compilación personalizadas u optimizadas, las [AMI base de aprendizaje profundo](overview-base.md) podrían ser una opción más adecuada para usted.

## Retirada de Python 2
<a name="overview-conda-python2"></a>

La comunidad de código abierto de Python finalizó oficialmente la compatibilidad con Python 2 el 1 de enero de 2020. Las comunidades de TensorFlow y PyTorch han anunciado que las versiones TensorFlow 2.1 y PyTorch 1.4 son las últimas compatibles con Python 2. Las versiones anteriores de la DLAMI (v26, v25, etc.) que contienen Python 2 Conda siguen estando disponibles. Sin embargo, proporcionamos actualizaciones para los entornos Conda de Python 2 en las versiones de DLAMI publicadas anteriormente solo si la comunidad de código abierto ha publicado correcciones de seguridad para esas versiones. Las versiones de DLAMI con las últimas versiones de los marcos TensorFlow y PyTorch no contienen los entornos Conda de Python 2.

## Compatibilidad con CUDA
<a name="overview-conda-cuda"></a>

Los números de versión específicos de CUDA se encuentran en las notas de la versión de [GPU DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu).

**Tema siguiente**  
[Opciones de arquitectura para DLAMI](overview-architecture.md)

## Temas relacionados
<a name="conda-related"></a>
+ Para ver un tutorial sobre el uso de una AMI de aprendizaje profundo con Conda, consulte el tutorial de [Uso de la AMI de aprendizaje profundo con Conda](tutorial-conda.md).

# Opciones de arquitectura para DLAMI
<a name="overview-architecture"></a>

Las AWS Deep Learning AMIs se ofrecen con arquitecturas de [AWS Graviton2](https://aws.amazon.com/ec2/graviton/) basadas en x86 o Arm64.

Para obtener más información acerca de la DLAMI de la GPU de ARM64, consulte [El ARM64 DLAMI](tutorial-arm64.md). Para obtener más información sobre los tipos de instancias disponibles, consulte [Elección de un tipo de instancia de DLAMI](instance-select.md).

**Tema siguiente**  
[Opciones de sistema operativo para la DLAMI](overview-os.md)

# Opciones de sistema operativo para la DLAMI
<a name="overview-os"></a>

Las DLAMI se ofrecen en los siguientes sistemas operativos.
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

Las versiones anteriores de los sistemas operativos están disponibles en las DLAMI obsoletas. Para obtener más información sobre la obsolescencia de DLAMI, consulte [Deprecations for DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)

Antes de elegir una DLAMI, evalúe qué tipo de instancia necesita e identifique su región de AWS.

**Tema siguiente**  
[Elección de un tipo de instancia de DLAMI](instance-select.md)

# Elección de un tipo de instancia de DLAMI
<a name="instance-select"></a>

En general, tenga en cuenta lo siguiente al escoger un tipo de instancia para una DLAMI.
+ Si acaba de llegar al mundo del aprendizaje profundo, una instancia con una sola GPU podría ser suficiente para sus necesidades.
+ Si le preocupa su presupuesto, puede usar instancias que solo funcionen con CPU.
+ Si busca optimizar el alto rendimiento y la rentabilidad para la inferencia de modelos de aprendizaje profundo, puede utilizar instancias con chips AWS Inferentia.
+ Si busca una instancia de GPU de alto rendimiento con una arquitectura de CPU basada en Arm64, puede usar el tipo de instancia de G5g.
+  Si está interesado en ejecutar un modelo previamente entrenado para inferencias y predicciones, puede adjuntar una [Amazon Elastic Inference a su instancia de Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html). EC2 Amazon Elastic Inference le da acceso a un acelerador con una fracción de GPU.
+ Para los servicios de inferencia de gran volumen, una única instancia de CPU con mucha memoria, o un clúster de dichas instancias, podría ser una mejor solución. 
+  Si está utilizando un modelo de gran tamaño con muchos datos o un tamaño de lote elevado, necesitará una instancia más grande con más memoria. También puede distribuir su modelo en un clúster de. GPUs El uso de una instancia con menos memoria puede ser una solución más adecuada para usted si disminuye el tamaño del lote. Sin embargo, puede afectar a la precisión y a la velocidad de entrenamiento.
+  Si desea ejecutar aplicaciones de machine learning con la Biblioteca de comunicación colectiva de NVIDIA (NCCL) que requieran un alto nivel de comunicaciones entre nodos a escala, puede utilizar [ Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html).

Para obtener más información sobre las instancias, consulte [de instancias](https://aws.amazon.com/ec2/instance-types/).

Los siguientes temas proporcionan información acerca de las consideraciones del tipo de instancia. 

**importante**  
El aprendizaje profundo AMIs incluye controladores, software o kits de herramientas desarrollados, propiedad o proporcionados por NVIDIA Corporation. Aceptas utilizar estos controladores, software o kits de herramientas de NVIDIA únicamente en EC2 instancias de Amazon que incluyan hardware de NVIDIA.

**Topics**
+ [

## Precios de la DLAMI
](#pricing)
+ [

## Disponibilidad en las regiones de DLAMI
](#region)
+ [

# Instancias de GPU recomendadas
](gpu.md)
+ [

# Instancias de CPU recomendadas
](cpu.md)
+ [

# Instancias de Inferentia recomendadas
](inferentia.md)
+ [

# Instancias de Trainium recomendadas
](trainium.md)

## Precios de la DLAMI
<a name="pricing"></a>

Los marcos de trabajo de aprendizaje profundo incluidos en la DLAMI son gratuitos, y cada uno tiene sus propias licencias de código abierto. Aunque el software incluido en la DLAMI es gratuito, tendrá que pagar por el hardware de la instancia de Amazon EC2 subyacente.

Algunos tipos de EC2 instancias de Amazon están etiquetados como gratuitos. Es posible ejecutar la DLAMI en una de estas instancias gratuitas. Esto significa que usar DLAMI es totalmente gratis cuando solo se usa la capacidad de dicha instancia. Si necesitas una instancia más potente con más núcleos de CPU, más espacio en disco, más RAM o una o más GPUs, entonces necesitas una instancia que no pertenezca a la clase de instancias de nivel libre.

Para obtener más información sobre la elección de instancias y los precios, consulta [ EC2 los precios de Amazon](https://aws.amazon.com/ec2/pricing/).

## Disponibilidad en las regiones de DLAMI
<a name="region"></a>

Cada región admite una gama diferente de tipos de instancias y, a menudo, un tipo de instancia tiene un costo ligeramente diferente en las diferentes regiones. DLAMIs no están disponibles en todas las regiones, pero es posible DLAMIs copiarlas en la región que prefieras. Para obtener más información, consulte [Copiar una DLAMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html). Fíjese en la lista de selección de regiones y asegúrese de que elige una región que esté cerca de usted o de sus clientes. Si tiene previsto utilizar más de una DLAMI y posiblemente crear un clúster, asegúrese de utilizar la misma región para todos los nodos del clúster.

Para obtener más información sobre las regiones, visita los [puntos de conexión de Amazon EC2 de EC2 ](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region) .

**Tema siguiente**  
[Instancias de GPU recomendadas](gpu.md)

# Instancias de GPU recomendadas
<a name="gpu"></a>

Se recomienda una instancia de GPU para la mayoría de los fines de aprendizaje profundo. El entrenamiento de modelos nuevos es más rápido en una instancia de GPU que en una instancia de CPU. Puede escalar de forma sublineal si tiene instancias de varias GPU o si utiliza la formación distribuida en muchas instancias con ellas. GPUs 

Los tipos de instancia que se muestran a continuación admiten DLAMI. **Para obtener información sobre las opciones de tipos de instancias de GPU y sus usos, consulta y selecciona [EC2 Computación](https://aws.amazon.com/ec2/instance-types/) acelerada.**

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 8 NVIDIA Blackwell B200. GPUs
+ [Las instancias Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 8 NVIDIA Blackwell B300. GPUs
+ [Las instancias Amazon EC2 P6e- GB2 00](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 4 NVIDIA GB2 Blackwell 00. GPUs
+ [Las instancias Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) tienen hasta 8 NVIDIA Tesla H200. GPUs
+ [Las instancias Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) tienen hasta 8 NVIDIA Tesla GPUs H100.
+ [Las instancias Amazon EC2 P4](https://aws.amazon.com/ec2/instance-types/p4/) tienen hasta 8 NVIDIA Tesla GPUs A100.
+ [Las instancias Amazon EC2 P3](https://aws.amazon.com/ec2/instance-types/p3/) tienen hasta 8 NVIDIA Tesla GPUs V100.
+ [Las instancias Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) tienen hasta 4 NVIDIA Tesla GPUs M60.
+ [Las instancias Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) tienen hasta 4 NVIDIA GPUs T4.
+ [Las instancias Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) tienen hasta 8 NVIDIA GPUs A10G.
+ [Las instancias Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) tienen hasta 8 NVIDIA GPUs L4.
+ [Las instancias Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) tienen hasta 8 NVIDIA L40S Tensor Core. GPUs
+ [Las instancias Amazon EC2 G5g](https://aws.amazon.com/ec2/instance-types/g5g/) [tienen procesadores Graviton2 basados en ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Las instancias de DLAMI proporcionan herramientas para supervisar y optimizar los procesos de la GPU. Para obtener más información sobre la supervisión de los procesos de GPU, consulte [Monitorización y optimización de GPU](tutorial-gpu.md).

Para ver tutoriales específicos sobre cómo trabajar con instancias G5G, consulte [El ARM64 DLAMI](tutorial-arm64.md).

**Tema siguiente**  
[Instancias de CPU recomendadas](cpu.md)

# Instancias de CPU recomendadas
<a name="cpu"></a>

Dispone de muchas opciones asequibles en la categoría de CPU, tanto si cuenta con un presupuesto ajustado, quiere aprender sobre el aprendizaje profundo o desea ejecutar una servicio de predicción. Algunos marcos de trabajo aprovechan los MKL DNN de Intel, que aceleran el entrenamiento y la inferencia en los tipos de instancias de CPU C5 (no disponibles en todas las regiones). **Para obtener información sobre los tipos de instancias de CPU, consulte Tipos de .**

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) tienen hasta 72 procesadores Intel vCPUs. Las instancias C5 se destacan en el modelado científico, el procesamiento por lotes, el análisis distribuido, la computación de alto rendimiento (HPC) y la inferencia de aprendizaje profundo y automático.

**Tema siguiente**  
[Instancias de Inferentia recomendadas](inferentia.md)

# Instancias de Inferentia recomendadas
<a name="inferentia"></a>

AWS Las instancias de Inferentia están diseñadas para proporcionar un alto rendimiento y rentabilidad para las cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias de Inf2 utilizan chips AWS Inferentia y el [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que está integrado con los marcos de aprendizaje automático más populares, como y. TensorFlow PyTorch

Los clientes pueden usar las instancias de Inf2 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) tienen hasta 16 chips AWS Inferentia y 100 Gbps de rendimiento de red.

Para obtener más información sobre cómo empezar a utilizar Inferentia, consulte.AWS DLAMIs [El chip AWS Inferentia con DLAMI](tutorial-inferentia.md)

**Tema siguiente**  
[Instancias de Trainium recomendadas](trainium.md)

# Instancias de Trainium recomendadas
<a name="trainium"></a>

AWS Las instancias de Trainium están diseñadas para proporcionar un alto rendimiento y rentabilidad para las cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias Trn1 utilizan chips AWS Trainium y el [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que está integrado con los marcos de aprendizaje automático más populares, como y. TensorFlow PyTorch

Los clientes pueden usar las instancias de Trn1 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) tienen hasta 16 chips AWS Trainium y 100 Gbps de rendimiento de red.

# Uso del aprendizaje profundo AMIs con EC2 Image Builder
<a name="using-dlami-with-image-builder"></a>

AWS Deep Learning AMIs (DLAMIs) ahora está disponible como imágenes gestionadas por Amazon en el servicio [EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html). Esta integración simplifica el uso de DLAMIs imágenes base y garantiza que se utilice la última versión en todo momento.

## Disponible DLAMIs
<a name="available-dlamis"></a>

Las siguientes imágenes DLAMIs están disponibles como imágenes gestionadas por Amazon y se encuentran en la **sección Imágenes** del servicio:
+ [AMI básica con CUDA único (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [AMI básica con CUDA único (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 AMI básica con CUDA único (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 AMI básica con CUDA único (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[AMI X86 de Amazon Managed Deep Learning Base\]](http://docs.aws.amazon.com/es_es/dlami/latest/devguide/images/deep-learning-base.png)


![\[Base de aprendizaje profundo gestionada por Amazon ( ARM64 AMI)\]](http://docs.aws.amazon.com/es_es/dlami/latest/devguide/images/deep-learning-arm.png)


## DLAMIs Utilización como imagen base
<a name="using-dlamis-base-image"></a>

DLAMIs se puede utilizar como imagen base durante la creación de una receta de imagen.

1. Ir a la consola de Image Builder

1. Seleccione **Recetas de imágenes**

1. Selecciona **Crear receta de imagen**

1. En la sección **Imagen base**, selecciona **Inicio rápido (gestionado por Amazon)**

1. En el menú desplegable, selecciona uno de los disponibles en DLAMIs función del **sistema operativo (SO) de imagen** que hayas seleccionado
   + Si se selecciona **Amazon Linux**:
     + Base de aprendizaje profundo (AMI) con CUDA única Amazon Linux 2023
     +  ARM64 Base de aprendizaje profundo (AMI) con CUDA única Amazon Linux 2023  
![\[Creación de recetas de Image Builder para Amazon Linux\]](http://docs.aws.amazon.com/es_es/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + Si se selecciona **Ubuntu**:
     + AMI de base de aprendizaje profundo con CUDA único Ubuntu 22-04
     + AMI de ARM64 base de aprendizaje profundo con CUDA único Ubuntu 22-04  
![\[Creación de recetas de Image Builder para Ubuntu\]](http://docs.aws.amazon.com/es_es/dlami/latest/devguide/images/image-recipe-creation-ul22.png)