Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Elección de un tipo de instancia de DLAMI

Modo de enfoque
Elección de un tipo de instancia de DLAMI - AWS Deep Learning AMIs

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

En general, tenga en cuenta lo siguiente al escoger un tipo de instancia para una DLAMI.

  • Si acaba de llegar al mundo del aprendizaje profundo, una instancia con una sola GPU podría ser suficiente para sus necesidades.

  • Si le preocupa su presupuesto, puede usar instancias que solo funcionen con CPU.

  • Si busca optimizar el alto rendimiento y la rentabilidad para la inferencia de modelos de aprendizaje profundo, puede utilizar instancias con chips AWS Inferentia.

  • Si busca una instancia de GPU de alto rendimiento con una arquitectura de CPU basada en Arm64, puede usar el tipo de instancia de G5g.

  • Si está interesado en ejecutar un modelo previamente entrenado para inferencias y predicciones, puede adjuntar una Amazon Elastic Inference a su instancia de Amazon. EC2 Amazon Elastic Inference le da acceso a un acelerador con una fracción de GPU.

  • Para los servicios de inferencia de gran volumen, una única instancia de CPU con mucha memoria, o un clúster de dichas instancias, podría ser una mejor solución.

  • Si está utilizando un modelo de gran tamaño con muchos datos o un tamaño de lote elevado, necesitará una instancia más grande con más memoria. También puede distribuir su modelo en un clúster de. GPUs El uso de una instancia con menos memoria puede ser una solución más adecuada para usted si disminuye el tamaño del lote. Sin embargo, puede afectar a la precisión y a la velocidad de entrenamiento.

  • Si desea ejecutar aplicaciones de machine learning con la Biblioteca de comunicación colectiva de NVIDIA (NCCL) que requieran un alto nivel de comunicaciones entre nodos a escala, puede utilizar Elastic Fabric Adapter (EFA).

Para obtener más información sobre las instancias, consulte de instancias.

Los siguientes temas proporcionan información acerca de las consideraciones del tipo de instancia.

importante

El aprendizaje profundo AMIs incluye controladores, software o kits de herramientas desarrollados, propiedad o proporcionados por NVIDIA Corporation. Aceptas utilizar estos controladores, software o kits de herramientas de NVIDIA únicamente en EC2 instancias de Amazon que incluyan hardware de NVIDIA.

Precios de la DLAMI

Los marcos de trabajo de aprendizaje profundo incluidos en la DLAMI son gratuitos, y cada uno tiene sus propias licencias de código abierto. Aunque el software incluido en la DLAMI es gratuito, tendrá que pagar por el hardware de la instancia de Amazon EC2 subyacente.

Algunos tipos de EC2 instancias de Amazon están etiquetados como gratuitos. Es posible ejecutar la DLAMI en una de estas instancias gratuitas. Esto significa que usar DLAMI es totalmente gratis cuando solo se usa la capacidad de dicha instancia. Si necesitas una instancia más potente con más núcleos de CPU, más espacio en disco, más RAM o una o más GPUs, entonces necesitas una instancia que no pertenezca a la clase de instancias de nivel libre.

Para obtener más información sobre la elección de instancias y los precios, consulta EC2 los precios de Amazon.

Disponibilidad en las regiones de DLAMI

Cada región admite una gama diferente de tipos de instancias y, a menudo, un tipo de instancia tiene un costo ligeramente diferente en las diferentes regiones. DLAMIs no están disponibles en todas las regiones, pero es posible DLAMIs copiarlas en la región que prefieras. Para obtener más información, consulte Copiar una DLAMI. Fíjese en la lista de selección de regiones y asegúrese de que elige una región que esté cerca de usted o de sus clientes. Si tiene previsto utilizar más de una DLAMI y posiblemente crear un clúster, asegúrese de utilizar la misma región para todos los nodos del clúster.

Para obtener más información sobre las regiones, visita los puntos de conexión de Amazon EC2 de EC2 .

Tema siguiente

Instancias de GPU recomendadas

Tema siguiente:

GPU

Tema anterior:

SO

En esta página

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.