Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Beispiele und weitere Informationen: Verwenden Sie Ihren eigenen Algorithmus oder Ihr eigenes Modell
Die folgenden Jupyter-Notebooks und hinzugefügten Informationen zeigen, wie Sie Ihre eigenen Algorithmen oder vortrainierten Modelle aus einer Amazon- SageMaker Notebook-Instance verwenden. Links zu den GitHub Repositorys mit den vorgefertigten Dockerfiles für die Frameworks TensorFlow, MXNet , Chainer und PyTorch sowie Anweisungen zur Verwendung der AWS SDK for Python (Boto3) Schätzer zur Ausführung Ihrer eigenen Trainingsalgorithmen auf SageMaker Learner und Ihrer eigenen Modelle beim SageMaker Hosting finden Sie unter . Vorgefertigte SageMaker Docker-Images für Deep Learning
Aufstellen
-
Erstellen Sie eine SageMaker Notebook-Instance. Anweisungen zum Erstellen von Jupyter-Notebook-Instances und zum Zugriff darauf finden Sie unter Amazon SageMaker Notebook-Instances.
-
Öffnen Sie die Notebook-Instance, die Sie erstellt haben.
-
Wählen Sie die Registerkarte SageMaker Beispiele für eine Liste aller SageMaker Beispiel-Notebooks aus.
-
Öffnen Sie die Beispiel-Notebooks im Abschnitt Erweiterte Funktionen in Ihrer Notebook-Instance oder von GitHub über die bereitgestellten Links. Zum Öffnen eines Notebooks wählen Sie die Registerkarte Use (Verwenden) und dann Create copy (Kopie erstellen).
Hosten Sie Modelle, die in Scikit-Learn geschult wurden
Informationen zum Hosten von Modellen, die in Scikit-learn für Prognosen in trainiert wurden, SageMaker indem sie in k-Means und XGBoost-Container von Erstanbietern eingefügt werden, finden Sie in den folgenden Beispielnotizbüchern.
Pakete TensorFlow und Scikit-learn-Modelle zur Verwendung in SageMaker
Weitere Informationen zum Verpacken von Algorithmen, die Sie in - TensorFlow und scikit-learn-Frameworks für Training und Bereitstellung in der SageMaker Umgebung entwickelt haben, finden Sie in den folgenden Notebooks. Sie zeigen Ihnen, wie Sie Ihre eigenen Docker-Container mithilfe von Dockerfiles erstellen, registrieren und bereitstellen können.
Trainieren und Bereitstellen eines neuronalen Netzwerks in SageMaker
Informationen zum lokalen Trainieren eines neuronalen Netzwerks mit MXNet oder TensorFlow, zum Erstellen eines Endpunkts aus dem trainierten Modell und zum Bereitstellen dieses Netzwerks auf finden SageMakerSie in den folgenden Notebooks. Das MXNet-Modell ist geschult, um handschriftliche Zahlen aus dem MNIST-Dataset zu erkennen. Das TensorFlow Modell ist darauf geschult, Irises zu klassifizieren.
Schulen mit Pipe-Modus
Um zu erfahren, wie Sie eine Dockerfile zum Erstellen eines Containers verwenden, der das train.py script
aufruft und den Pipe-Modus zur benutzerdefinierten Schulung eines Algorithmus verwendet, beachten Sie das folgende Notebook. Im Pipe-Modus werden die Eingabedaten während der Schulung auf den Algorithmus übertragen. Dadurch kann sich die Schulungszeit im Vergleich zum Dateimodus verkürzen.
Bringen Sie Ihr eigenes R Modell
Wie man ein benutzerdefiniertes R-Image hinzufügt, um ein Modell in einem AWS SMS
Notebook zu erstellen und zu schulen, erfahren Sie im folgenden Blogbeitrag. In diesem Blogbeitrag wird ein Beispiel für ein R Dockerfile aus einer Bibliothek von SageMaker Studio Classic Custom Image Samples
Erweitern eines vordefinierten PyTorch Container-Images
Informationen zum Erweitern eines vorgefertigten SageMaker PyTorch Container-Images, wenn Sie zusätzliche funktionale Anforderungen an Ihren Algorithmus oder Ihr Modell haben, die das vorgefertigte Docker-Image nicht unterstützt, finden Sie im folgenden Notebook.
Weitere Informationen zum Erweitern eines Containers finden Sie unter Erweitern eines vorgefertigten Containers.
Schulen und debuggen Sie Schulungsaufträge in einem benutzerdefinierten Container
Weitere Informationen zum Trainieren und Debuggen von Schulungsaufträgen mit SageMaker Debugger finden Sie im folgenden Notebook. Ein in diesem Beispiel bereitgestelltes Trainingsskript verwendet das TensorFlow Keras- ResNet 50-Modell und den CIFAR10-Datensatz. Ein benutzerdefinierter Docker-Container wird mit dem Schulungsskript erstellt und an Amazon ECR übertragen. Während der Schulungsauftrag ausgeführt wird, sammelt der Debugger die Tensorausgaben und identifiziert Debugging-Probleme. Mit den smdebug
Client-Bibliothek-Tools können Sie ein smdebug
Testobjekt einrichten, das den Schulungsauftrag und die Debugging-Informationen aufruft, den Status der Schulungs- und Debugger-Regeln überprüfen und in einem Amazon S3-Bucket gespeicherte Tensoren abrufen, um Schulungsprobleme zu analysieren.