

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Elección de un tipo de instancia de DLAMI
<a name="instance-select"></a>

En general, tenga en cuenta lo siguiente al escoger un tipo de instancia para una DLAMI.
+ Si acaba de llegar al mundo del aprendizaje profundo, una instancia con una sola GPU podría ser suficiente para sus necesidades.
+ Si le preocupa su presupuesto, puede usar instancias que solo funcionen con CPU.
+ Si busca optimizar el alto rendimiento y la rentabilidad para la inferencia de modelos de aprendizaje profundo, puede utilizar instancias con chips AWS Inferentia.
+ Si busca una instancia de GPU de alto rendimiento con una arquitectura de CPU basada en Arm64, puede usar el tipo de instancia de G5g.
+  Si está interesado en ejecutar un modelo previamente entrenado para inferencias y predicciones, puede adjuntar una [Amazon Elastic Inference a su instancia de Amazon](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html). EC2 Amazon Elastic Inference le da acceso a un acelerador con una fracción de GPU.
+ Para los servicios de inferencia de gran volumen, una única instancia de CPU con mucha memoria, o un clúster de dichas instancias, podría ser una mejor solución. 
+  Si está utilizando un modelo de gran tamaño con muchos datos o un tamaño de lote elevado, necesitará una instancia más grande con más memoria. También puede distribuir su modelo en un clúster de. GPUs El uso de una instancia con menos memoria puede ser una solución más adecuada para usted si disminuye el tamaño del lote. Sin embargo, puede afectar a la precisión y a la velocidad de entrenamiento.
+  Si desea ejecutar aplicaciones de machine learning con la Biblioteca de comunicación colectiva de NVIDIA (NCCL) que requieran un alto nivel de comunicaciones entre nodos a escala, puede utilizar [ Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html).

Para obtener más información sobre las instancias, consulte [de instancias](https://aws.amazon.com/ec2/instance-types/).

Los siguientes temas proporcionan información acerca de las consideraciones del tipo de instancia. 

**importante**  
El aprendizaje profundo AMIs incluye controladores, software o kits de herramientas desarrollados, propiedad o proporcionados por NVIDIA Corporation. Aceptas utilizar estos controladores, software o kits de herramientas de NVIDIA únicamente en EC2 instancias de Amazon que incluyan hardware de NVIDIA.

**Topics**
+ [Precios de la DLAMI](#pricing)
+ [Disponibilidad en las regiones de DLAMI](#region)
+ [Instancias de GPU recomendadas](gpu.md)
+ [Instancias de CPU recomendadas](cpu.md)
+ [Instancias de Inferentia recomendadas](inferentia.md)
+ [Instancias de Trainium recomendadas](trainium.md)

## Precios de la DLAMI
<a name="pricing"></a>

Los marcos de trabajo de aprendizaje profundo incluidos en la DLAMI son gratuitos, y cada uno tiene sus propias licencias de código abierto. Aunque el software incluido en la DLAMI es gratuito, tendrá que pagar por el hardware de la instancia de Amazon EC2 subyacente.

Algunos tipos de EC2 instancias de Amazon están etiquetados como gratuitos. Es posible ejecutar la DLAMI en una de estas instancias gratuitas. Esto significa que usar DLAMI es totalmente gratis cuando solo se usa la capacidad de dicha instancia. Si necesitas una instancia más potente con más núcleos de CPU, más espacio en disco, más RAM o una o más GPUs, entonces necesitas una instancia que no pertenezca a la clase de instancias de nivel libre.

Para obtener más información sobre la elección de instancias y los precios, consulta [ EC2 los precios de Amazon](https://aws.amazon.com/ec2/pricing/).

## Disponibilidad en las regiones de DLAMI
<a name="region"></a>

Cada región admite una gama diferente de tipos de instancias y, a menudo, un tipo de instancia tiene un costo ligeramente diferente en las diferentes regiones. DLAMIs no están disponibles en todas las regiones, pero es posible DLAMIs copiarlas en la región que prefieras. Para obtener más información, consulte [Copiar una DLAMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html). Fíjese en la lista de selección de regiones y asegúrese de que elige una región que esté cerca de usted o de sus clientes. Si tiene previsto utilizar más de una DLAMI y posiblemente crear un clúster, asegúrese de utilizar la misma región para todos los nodos del clúster.

Para obtener más información sobre las regiones, visita los [puntos de conexión de Amazon EC2 de EC2 ](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region) .

**Tema siguiente**  
[Instancias de GPU recomendadas](gpu.md)

# Instancias de GPU recomendadas
<a name="gpu"></a>

Se recomienda una instancia de GPU para la mayoría de los fines de aprendizaje profundo. El entrenamiento de modelos nuevos es más rápido en una instancia de GPU que en una instancia de CPU. Puede escalar de forma sublineal si tiene instancias de varias GPU o si utiliza la formación distribuida en muchas instancias con ellas. GPUs 

Los tipos de instancia que se muestran a continuación admiten DLAMI. **Para obtener información sobre las opciones de tipos de instancias de GPU y sus usos, consulta y selecciona [EC2 Computación](https://aws.amazon.com/ec2/instance-types/) acelerada.**

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 P6-B200](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 8 NVIDIA Blackwell B200. GPUs
+ [Las instancias Amazon EC2 P6-B300](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 8 NVIDIA Blackwell B300. GPUs
+ [Las instancias Amazon EC2 P6e- GB2 00](https://aws.amazon.com/ec2/instance-types/p6/) tienen hasta 4 NVIDIA GB2 Blackwell 00. GPUs
+ [Las instancias Amazon EC2 P5e](https://aws.amazon.com/ec2/instance-types/p5/) tienen hasta 8 NVIDIA Tesla H200. GPUs
+ [Las instancias Amazon EC2 P5](https://aws.amazon.com/ec2/instance-types/p5/) tienen hasta 8 NVIDIA Tesla GPUs H100.
+ [Las instancias Amazon EC2 P4](https://aws.amazon.com/ec2/instance-types/p4/) tienen hasta 8 NVIDIA Tesla GPUs A100.
+ [Las instancias Amazon EC2 P3](https://aws.amazon.com/ec2/instance-types/p3/) tienen hasta 8 NVIDIA Tesla GPUs V100.
+ [Las instancias Amazon EC2 G3](https://aws.amazon.com/ec2/instance-types/g3/) tienen hasta 4 NVIDIA Tesla GPUs M60.
+ [Las instancias Amazon EC2 G4](https://aws.amazon.com/ec2/instance-types/g4/) tienen hasta 4 NVIDIA GPUs T4.
+ [Las instancias Amazon EC2 G5](https://aws.amazon.com/ec2/instance-types/g5/) tienen hasta 8 NVIDIA GPUs A10G.
+ [Las instancias Amazon EC2 G6](https://aws.amazon.com/ec2/instance-types/g6/) tienen hasta 8 NVIDIA GPUs L4.
+ [Las instancias Amazon EC2 G6e](https://aws.amazon.com/ec2/instance-types/g6e/) tienen hasta 8 NVIDIA L40S Tensor Core. GPUs
+ [Las instancias Amazon EC2 G5g](https://aws.amazon.com/ec2/instance-types/g5g/) [tienen procesadores Graviton2 basados en ARM64 AWS.](https://aws.amazon.com/ec2/graviton/)

Las instancias de DLAMI proporcionan herramientas para supervisar y optimizar los procesos de la GPU. Para obtener más información sobre la supervisión de los procesos de GPU, consulte [Monitorización y optimización de GPU](tutorial-gpu.md).

Para ver tutoriales específicos sobre cómo trabajar con instancias G5G, consulte [El ARM64 DLAMI](tutorial-arm64.md).

**Tema siguiente**  
[Instancias de CPU recomendadas](cpu.md)

# Instancias de CPU recomendadas
<a name="cpu"></a>

Dispone de muchas opciones asequibles en la categoría de CPU, tanto si cuenta con un presupuesto ajustado, quiere aprender sobre el aprendizaje profundo o desea ejecutar una servicio de predicción. Algunos marcos de trabajo aprovechan los MKL DNN de Intel, que aceleran el entrenamiento y la inferencia en los tipos de instancias de CPU C5 (no disponibles en todas las regiones). **Para obtener información sobre los tipos de instancias de CPU, consulte Tipos de .**

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 C5](https://aws.amazon.com/ec2/instance-types/c5/) tienen hasta 72 procesadores Intel vCPUs. Las instancias C5 se destacan en el modelado científico, el procesamiento por lotes, el análisis distribuido, la computación de alto rendimiento (HPC) y la inferencia de aprendizaje profundo y automático.

**Tema siguiente**  
[Instancias de Inferentia recomendadas](inferentia.md)

# Instancias de Inferentia recomendadas
<a name="inferentia"></a>

AWS Las instancias de Inferentia están diseñadas para proporcionar un alto rendimiento y rentabilidad para las cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias de Inf2 utilizan chips AWS Inferentia y el [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que está integrado con los marcos de aprendizaje automático más populares, como y. TensorFlow PyTorch

Los clientes pueden usar las instancias de Inf2 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 Inf2](https://aws.amazon.com/ec2/instance-types/inf2/) tienen hasta 16 chips AWS Inferentia y 100 Gbps de rendimiento de red.

Para obtener más información sobre cómo empezar a utilizar Inferentia, consulte.AWS DLAMIs [El chip AWS Inferentia con DLAMI](tutorial-inferentia.md)

**Tema siguiente**  
[Instancias de Trainium recomendadas](trainium.md)

# Instancias de Trainium recomendadas
<a name="trainium"></a>

AWS Las instancias de Trainium están diseñadas para proporcionar un alto rendimiento y rentabilidad para las cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias Trn1 utilizan chips AWS Trainium y el [SDK AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/), que está integrado con los marcos de aprendizaje automático más populares, como y. TensorFlow PyTorch

Los clientes pueden usar las instancias de Trn1 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.

**nota**  
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación. 
+ [Las instancias Amazon EC2 Trn1](https://aws.amazon.com/ec2/instance-types/trn1/) tienen hasta 16 chips AWS Trainium y 100 Gbps de rendimiento de red.