Compilador SageMaker de formación de Amazon - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Compilador SageMaker de formación de Amazon

importante

Amazon Web Services (AWS) anuncia que no habrá nuevas versiones o versiones de SageMaker Training Compiler. Puede seguir utilizando SageMaker Training Compiler a través de los AWS Deep Learning Containers (DLCs) existentes para SageMaker formación. Es importante tener en cuenta que, si bien los existentes DLCs permanecen accesibles, ya no recibirán parches ni actualizaciones de ellos AWS, de acuerdo con la Política de soporte de AWS Deep Learning Containers Framework.

Utilice Amazon SageMaker Training Compiler para entrenar modelos de aprendizaje profundo (DL) más rápido en GPU instancias escalables administradas por SageMaker.

¿Qué es SageMaker Training Compiler?

Los modelos de aprendizaje tate-of-the-art profundo (DL) consisten en redes neuronales complejas de varios niveles con miles de millones de parámetros que pueden tardar miles de GPU horas en entrenarse. La optimización de estos modelos en la infraestructura de entrenamiento requiere un amplio conocimiento de la DL y de la ingeniería de sistemas, lo que supone todo un reto incluso en casos de uso limitados. Si bien existen compiladores de código abierto que optimizan el proceso de formación en aprendizaje remoto, pueden carecer de la flexibilidad necesaria para integrar marcos de aprendizaje continuo con algunos tipos de hardware, como las instancias. GPU

SageMaker Training Compiler es una capacidad SageMaker que permite realizar estas hard-to-implement optimizaciones para reducir el tiempo de entrenamiento en las instancias. GPU El compilador optimiza los modelos de aprendizaje automático para acelerar el entrenamiento mediante un uso más eficiente de las instancias de aprendizaje SageMaker automático (ML). GPU SageMaker El compilador de formación está disponible sin coste adicional SageMaker y puede ayudar a reducir el tiempo total facturable, ya que acelera la formación.

Un diagrama conceptual de cómo funciona SageMaker Training Compiler con. SageMaker

SageMaker Training Compiler está integrado en AWS Deep Learning Containers (DLCs). Con el compilador de SageMaker formación habilitado AWS DLCs, puede compilar y optimizar los trabajos de formación en las GPU instancias con cambios mínimos en el código. Incorpore sus modelos de aprendizaje profundo SageMaker y habilite SageMaker Training Compiler para acelerar la velocidad de su trabajo de formación en instancias de aprendizaje automático para acelerar la SageMaker computación.

Cómo funciona

SageMaker Training Compiler convierte los modelos DL de su representación lingüística de alto nivel en instrucciones optimizadas para el hardware. Específicamente, SageMaker Training Compiler aplica optimizaciones a nivel de gráficos, optimizaciones a nivel de flujo de datos y optimizaciones de backend para producir un modelo optimizado que utilice los recursos de hardware de manera eficiente. Como resultado, puede entrenar sus modelos más rápido que si los entrena sin compilarlos.

La activación de Training Compiler para su trabajo de formación consiste en un proceso de dos pasos: SageMaker

  1. Traiga su propio script de aprendizaje continuo y, si es necesario, adáptelo para compilarlo y entrenarlo con SageMaker Training Compiler. Para obtener más información, consulte Usar un modelo de aprendizaje profundo propio.

  2. Cree un objeto SageMaker estimador con el parámetro de configuración del compilador mediante Python. SageMaker SDK

    1. Para activar SageMaker Training Compiler, añádelo compiler_config=TrainingCompilerConfig() a la clase de estimador. SageMaker

    2. Ajuste los hiperparámetros (batch_sizeylearning_rate) para maximizar el beneficio que SageMaker proporciona Training Compiler.

      La compilación mediante SageMaker Training Compiler cambia el espacio de memoria del modelo. Por lo general, esto se manifiesta como una reducción en la utilización de la memoria y el consiguiente aumento del tamaño de lote más grande que cabe en el. GPU En algunos casos, el compilador promueve el almacenamiento en caché de forma inteligente, lo que reduce el tamaño de lote más grande que cabe en el. GPU Tenga en cuenta que si desea cambiar el tamaño del lote, debe ajustar la tasa de entrenamiento de forma adecuada.

      Para obtener una referencia sobre los modelos batch_size probados para los más populares, consulte Modelos probados.

      Al ajustar el tamaño del lote, también hay que ajustar learning_rate adecuadamente. Para conocer las prácticas recomendadas para ajustar la tasa de entrenamiento junto con el cambio en el tamaño del lote, consulte SageMaker Recomendaciones y consideraciones sobre Training Compiler.

    3. Al ejecutar el método de estimator.fit() clase, SageMaker compila su modelo e inicia el trabajo de formación.

    Para obtener instrucciones acerca de cómo iniciar un trabajo de entrenamiento, consulte Habilite el compilador SageMaker de formación.

SageMaker Training Compiler no altera el modelo entrenado final, al mismo tiempo que le permite acelerar el trabajo de entrenamiento al utilizar la GPU memoria de manera más eficiente y ajustar un tamaño de lote mayor por iteración. El modelo de entrenamiento final del trabajo de entrenamiento acelerado por el compilador es idéntico al del trabajo de entrenamiento normal.

sugerencia

SageMaker Training Compiler solo compila modelos de aprendizaje continuo para entrenarlos en instancias compatibles GPU gestionadas por. SageMaker Para compilar su modelo con fines de inferencia e implementarlo para que se ejecute en cualquier lugar de la nube y en la periferia, utilice SageMaker el compilador Neo.