Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

SageMaker biblioteca de paralelismo de modelos v2

Modo de enfoque
SageMaker biblioteca de paralelismo de modelos v2 - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

nota

Desde el lanzamiento de la versión 2.0.0 de la biblioteca de paralelismo de SageMaker modelos (SMP) el 19 de diciembre de 2023, esta documentación se ha renovado para la biblioteca SMP v2. Para ver las versiones anteriores de la biblioteca de SMP, consulte Biblioteca de paralelismo de SageMaker modelos v1.x (Archivada).

La biblioteca de paralelismo de modelos de SageMaker IA de Amazon es una capacidad de la SageMaker IA que permite un entrenamiento optimizado a gran escala y de alto rendimiento en instancias de cómputo aceleradas por SageMaker IA. Las Características principales de la biblioteca de paralelismo de SageMaker modelos v2 incluyen técnicas y optimizaciones para acelerar y simplificar el entrenamiento de modelos grandes, como paralelismo híbrido de datos particionados, paralelismo de tensores, puntos de comprobación de activación y descarga de activaciones. Puede utilizar la biblioteca SMP para acelerar el entrenamiento y el ajuste de modelos de lenguaje de gran tamaño (LLMs), modelos de visión a gran escala () y modelos básicos (LVMsFMs) con cientos de miles de millones de parámetros.

La biblioteca de paralelismo de SageMaker modelos v2 (SMP v2) alinea los métodos APIs y la biblioteca con el paralelismo de datos PyTorch totalmente fragmentado (FSDP) de código abierto, lo que permite optimizar el rendimiento del SMP con cambios mínimos en el código. Con SMP v2, puede mejorar el rendimiento computacional del entrenamiento de un modelo grande en IA al incorporar sus guiones de entrenamiento del FSDP a la IA. state-of-the-art SageMaker PyTorch SageMaker

Puedes usar SMP v2 para los trabajos de SageMaker formación generales y para distribuir las cargas de trabajo de formación en clústeres. Amazon SageMaker HyperPod

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.