Biblioteca de paralelismo de SageMaker modelos v1.x (Archivada) - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Biblioteca de paralelismo de SageMaker modelos v1.x (Archivada)

importante

El 19 de diciembre de 2023, se lanzará la versión 2 de la biblioteca de paralelismo de SageMaker modelos (SMP). A favor de la biblioteca SMP v2, las capacidades de SMP v1 ya no se admiten en futuras versiones. La sección y los temas siguientes están archivados y son específicos para el uso de la biblioteca SMP v1. Para obtener información sobre el uso de la biblioteca SMP v2, consulte. SageMaker biblioteca de paralelismo de modelos v2

Usa la biblioteca SageMaker de modelos paralelos de Amazon para entrenar modelos de aprendizaje profundo (DL) de gran tamaño que son difíciles de entrenar debido a las limitaciones de memoria de la GPU. La biblioteca divide un modelo de forma automática y eficiente en varias GPU e instancias. Con la biblioteca, puede lograr una precisión de predicción objetivo más rápido mediante el entrenamiento eficiente de modelos DL más grandes con miles de millones o billones de parámetros.

Puedes usar la biblioteca para particionar automáticamente tus propios PyTorch modelos TensorFlow y los tuyos en varias GPU y varios nodos con cambios de código mínimos. Puedes acceder a la API de la biblioteca a través del SDK de SageMaker Python.

Utilice las siguientes secciones para obtener más información sobre el paralelismo de modelos y la biblioteca de modelos SageMaker paralelos. La documentación de las API de esta biblioteca se encuentra en las API de entrenamiento distribuidas de la documentación del SDK de SageMaker Python v2.199.0.