Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Ejemplos y más información: usar algoritmo o modelo propio
Los siguientes cuadernos de Jupyter y la información adicional muestran cómo utilizar sus propios algoritmos o modelos previamente entrenados desde una instancia de Amazon Notebook. SageMaker Para obtener enlaces a los GitHub repositorios con los Dockerfiles prediseñados para los PyTorch marcos, Chainer y Chainer TensorFlow MXNet, así como instrucciones sobre el uso de los AWS SDK for Python (Boto3) estimadores para ejecutar sus propios algoritmos de entrenamiento en AI Learner y sus propios modelos en SageMaker el alojamiento de IA, consulte SageMaker Imágenes de Docker de SageMaker IA prediseñadas para aprendizaje profundo
Configuración
-
Crea una instancia de bloc de notas. SageMaker Para obtener instrucciones sobre cómo crear y obtener acceso a instancias de cuaderno de Jupyter, consulte Instancias de Amazon SageMaker Notebook.
-
Abra la instancia de cuaderno creada.
-
Selecciona la pestaña de ejemplos de SageMaker IA para ver una lista de todos los cuadernos de ejemplos de SageMaker IA.
-
Abre los cuadernos de muestra desde la sección Funcionalidad avanzada de tu bloc de notas o desde los GitHub enlaces proporcionados. Para abrir un bloc de notas, elija su pestaña Usar y, a continuación, elija Crear copia.
Alojar modelos entrenados en Scikit-learn
Para aprender a alojar modelos entrenados en Scikit-learn para hacer predicciones en SageMaker IA inyectándolos en XGBoost contenedores y medias k propios, consulta los siguientes ejemplos de cuadernos.
Modelos Package TensorFlow y Scikit-learn para su uso en IA SageMaker
Para aprender a empaquetar los algoritmos que ha desarrollado y los marcos de scikit-learn para su entrenamiento TensorFlow e implementación en el entorno de la SageMaker IA, consulte los siguientes cuadernos. Muestran cómo crear, registrar e implementar sus propios contenedores de Docker mediante los Dockerfiles.
Entrena e implementa una red neuronal en IA SageMaker
Para aprender a entrenar una red neuronal de forma local utilizando MXNet o TensorFlow, después, crear un punto final a partir del modelo entrenado e implementarlo en la SageMaker IA, consulta los siguientes cuadernos. El MXNet modelo está entrenado para reconocer números manuscritos del conjunto de datos del MNIST. El TensorFlow modelo está entrenado para clasificar los iris.
Entrenamiento en modo canalización
Para obtener información sobre cómo utilizar un Dockerfile para crear un contenedor que llame a train.py script
y utilice un modo de canalización para entrenar de forma personalizada un algoritmo, consulte el siguiente cuaderno. En modo de canalización, los datos de entrada se transfieren al algoritmo mientras se capacita. Esto puede reducir el tiempo de capacitación en comparación con el uso del modo de archivo.
Aportar el modelo R propio
Para aprender a añadir una imagen R personalizada para crear y entrenar un modelo en un cuaderno AWS SMS
, consulte la siguiente entrada del blog. Esta entrada de blog utiliza un ejemplo de Dockerfile R de una biblioteca de ejemplos de imágenes personalizadas de SageMaker AI Studio Classic
Amplíe una imagen de PyTorch contenedor prediseñada
Para saber cómo ampliar una imagen de PyTorch contenedor de SageMaker IA prediseñada cuando el algoritmo o el modelo tienen requisitos funcionales adicionales que la imagen de Docker prediseñada no admite, consulta el siguiente cuaderno.
Para obtener más información sobre cómo extender un contenedor, consulte Extender un contenedor precompilado.
Entrenar y depurar los trabajos de entrenamiento en un contenedor personalizado
Para aprender a entrenar y depurar trabajos de entrenamiento con SageMaker Debugger, consulte el siguiente cuaderno. Un script de entrenamiento proporcionado en este ejemplo utiliza el modelo TensorFlow Keras ResNet 50 y el CIFAR1 conjunto de datos 0. Se crea un contenedor personalizado de Docker con el script de entrenamiento y se envía a Amazon ECR. Mientras se ejecuta el trabajo de entrenamiento, Debugger recopila los resultados de los tensores e identifica los problemas de depuración. Con las herramientas de la biblioteca del cliente smdebug
, puede configurar un objeto de prueba smdebug
que invoque el trabajo de entrenamiento y la información de depuración, comprobar el estado de las reglas de entrenamiento y depuración y recuperar los tensores guardados en un bucket de Amazon S3 para analizar los problemas de entrenamiento.