

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Ejecute un trabajo de formación SageMaker distribuido con Model Paralelism
<a name="model-parallel-use-api"></a>

Aprenda a ejecutar un trabajo de entrenamiento en paralelo con un modelo con su propio script de entrenamiento utilizando el SDK de SageMaker Python con la biblioteca de paralelismo de SageMaker modelos.

Existen tres casos de uso para ejecutar un trabajo de formación. SageMaker 

1. Puede utilizar uno de los contenedores de aprendizaje AWS profundo prediseñados para y. TensorFlow PyTorch Le recomendamos esta opción si es la primera vez que utiliza la biblioteca de paralelismo de modelos. Para encontrar un tutorial sobre cómo ejecutar un trabajo de formación en paralelo con SageMaker modelos, consulte los cuadernos de ejemplo de [PyTorch entrenamiento con la biblioteca de paralelismo de modelos de Amazon SageMaker AI](https://github.com/aws/amazon-sagemaker-examples/tree/main/training/distributed_training/pytorch/model_parallel).

1. Puede ampliar los contenedores prediseñados para gestionar cualquier requisito funcional adicional de su algoritmo o modelo que no sea compatible con la imagen de Docker prediseñada SageMaker . Para ver un ejemplo de cómo ampliar un contenedor prediseñado, consulte [Ampliar una contenedor precompilado](prebuilt-containers-extend.md).

1. [Puedes adaptar tu propio contenedor de Docker para que funcione con la SageMaker IA mediante el kit de herramientas de formación. SageMaker ](https://github.com/aws/sagemaker-training-toolkit) Para ver un ejemplo, consulte [Adaptación de su propio contenedor de entrenamiento](https://docs.aws.amazon.com/sagemaker/latest/dg/adapt-training-container.html).

Para ver las opciones 2 y 3 de la lista anterior, consulte [Amplíe un contenedor Docker prediseñado que contiene SageMaker la biblioteca paralela de modelos distribuidos](model-parallel-sm-sdk.md#model-parallel-customize-container) para obtener información sobre cómo instalar la biblioteca de paralelismo de modelos en un contenedor de Docker ampliado o personalizado. 

En todos los casos, debe iniciar su trabajo de formación configurando un `PyTorch` estimador SageMaker `TensorFlow` o un estimador para activar la biblioteca. Para obtener más información, consulte los temas siguientes.

**Topics**
+ [Paso 1: modifique su propio script de entrenamiento utilizando SageMaker la biblioteca paralela de modelos distribuidos](model-parallel-customize-training-script.md)
+ [Paso 2: Inicie un trabajo de formación con el SDK de SageMaker Python](model-parallel-sm-sdk.md)