Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Exemples et informations supplémentaires : utilisez votre propre algorithme ou modèle
Les blocs-notes Jupyter suivants et les informations supplémentaires indiquent comment utiliser vos propres algorithmes ou des modèles préentraînés à partir d'une instance de bloc-notes Amazon. SageMaker Pour obtenir des liens vers les GitHub référentiels contenant les Dockerfiles prédéfinis pour TensorFlow MXnet, Chainer et les PyTorch frameworks, ainsi que des instructions sur l'utilisation des AWS SDK for Python (Boto3) estimateurs pour exécuter vos propres algorithmes d'entraînement sur Learner et vos propres modèles sur SageMaker l'hébergement, voir SageMaker Images SageMaker Docker prédéfinies pour le deep learning
Configuration
-
Créez une instance de SageMaker bloc-notes. Pour obtenir les instructions permettant de créer des instances de bloc-notes Jupyter et d'y accéder, consultez Instances Amazon SageMaker Notebook.
-
Ouvrez l'instance de blocs-notes que vous avez créée.
-
Cliquez sur l'onglet SageMaker Exemples pour obtenir la liste de tous les blocs-notes d' SageMakerexemple.
-
Ouvrez les exemples de blocs-notes depuis la section Fonctionnalités avancées de votre instance de bloc-notes ou GitHub en utilisant les liens fournis. Pour ouvrir un bloc-notes, choisissez l'onglet Use (Utiliser) correspondant, puis Create copy (Créer une copie).
Hébergement de modèles entraînés dans Scikit-learn
Pour savoir comment héberger des modèles formés à Scikit-learn pour faire des prédictions en les SageMaker injectant dans des conteneurs k-means et XGBoost propriétaires, consultez les exemples de blocs-notes suivants.
Package TensorFlow et modèles Scikit-learn à utiliser dans SageMaker
Pour savoir comment empaqueter les algorithmes que vous avez développés dans TensorFlow les frameworks Scikit-Learn pour la formation et le déploiement dans l' SageMaker environnement, consultez les blocs-notes suivants. Ils vous expliquent comment créer, enregistrer et déployer vos propres conteneurs Docker à l'aide de Dockerfiles.
Entraînez et déployez un réseau neuronal sur SageMaker
Pour savoir comment entraîner un réseau neuronal localement à l'aide de MXnet ou TensorFlow, puis créer un point de terminaison à partir du modèle entraîné et le déployer SageMaker, consultez les blocs-notes suivants. Le modèle MXNet est formé à reconnaître les nombres manuscrits à partir de l'ensemble de données MNIST. Le TensorFlow modèle est formé pour classer les iris.
Entraînement en mode Pipe
Pour apprendre à utiliser un fichier Dockerfile pour générer un conteneur qui appelle le train.py script
et qui utilise le mode Pipe pour entraîner de façon personnalisée un algorithme, consultez le bloc-notes suivant. En mode Pipe, les données d'entrée sont transférées à l'algorithme pendant sa formation. Cela peut diminuer la durée de l'entraînement par rapport à l'utilisation du mode File.
Apport de votre propre modèle R
Pour découvrir comment utiliser l'ajout d'une image R personnalisée pour créer et entraîner un modèle dans un bloc-notes AWS SMS
, consultez le billet de blog suivant. Ce billet de blog utilise un exemple de Dockerfile R issu d'une bibliothèque d'exemples d'images personnalisés SageMaker Studio Classic
Extension d'une image de PyTorch conteneur prédéfinie
Pour savoir comment étendre une image de SageMaker PyTorch conteneur prédéfinie lorsque vous avez des exigences fonctionnelles supplémentaires pour votre algorithme ou votre modèle que l'image Docker prédéfinie ne prend pas en charge, consultez le bloc-notes suivant.
Pour plus d'informations sur l'extension d'un conteneur, consultez Extension d'un conteneur préconçu.
Entraînement et débogage des tâches d'entraînement sur un conteneur personnalisé
Pour savoir comment entraîner et déboguer des tâches de formation à l'aide de SageMaker Debugger, consultez le bloc-notes suivant. Un script d'entraînement fourni dans cet exemple utilise le modèle TensorFlow Keras ResNet 50 et le jeu de données CIFAR10. Un conteneur personnalisé Docker est créé avec le script d'entraînement, puis transmis à Amazon ECR. Pendant que la tâche d'entraînement s'exécute, Debugger collecte les sorties des tenseurs et identifie les problèmes de débogage. Avec les outils de la bibliothèque client smdebug
, vous pouvez définir un objet test smdebug
qui appelle la tâche d'entraînement et les informations de débogage, vérifie l'état de l'entraînement et de la règle de débogage, et récupère les tenseurs enregistrés dans un compartiment Amazon S3 afin d'analyser les problèmes d'entraînement.