Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Unterstützte Frameworks und Algorithmen
Die folgende Tabelle zeigt SageMaker KI-Frameworks und Algorithmen für maschinelles Lernen, die von Debugger unterstützt werden.
SageMaker AI-supported frameworks and algorithms | Debugging output tensors |
---|---|
AWS TensorFlow Deep-Learning-Container |
|
AWS PyTorch Deep-Learning-Container 1.5.0 |
|
AWS MXNet Deep-Learning-Container |
|
1.0-1, 1.2-1, 1.3-1 |
|
Benutzerdefinierte Trainingscontainer (verfügbar für TensorFlow, PyTorch MXNet, und XGBoost mit manueller Hook-Registrierung) |
-
Ausgabetensoren debuggen – Verfolgen und debuggen Sie Modellparameter wie Gewichte, Gradienten, Verzerrungen und Skalarwerte Ihres Trainingsjobs. Verfügbare Deep-Learning-Frameworks sind Apache MXNet TensorFlow PyTorch,, und XGBoost.
Wichtig
Für das TensorFlow Framework mit Keras lehnt SageMaker Debugger die Unterstützung von Debugging-Modellen ab, die mit den
tf.keras
Modulen von 2.6 und höher erstellt wurden. TensorFlow Dies ist auf wichtige Änderungen zurückzuführen, die in der Versionshinweise zu 2.6.0 angekündigt wurden. TensorFlowAnweisungen zum Aktualisieren Ihres Training-Scripts finden Sie unter Passen Sie Ihr Trainingsskript TensorFlow an. Wichtig
Ab PyTorch Version 1.12.0 und höher verbietet SageMaker Debugger die Unterstützung von Debugging-Modellen ohne Codeänderung.
Dies ist auf grundlegende Änderungen zurückzuführen, die dazu führen SageMaker , dass der Debugger die Funktionalität beeinträchtigt.
torch.jit
Anweisungen zum Aktualisieren Ihres Training-Scripts finden Sie unter Passen Sie Ihr PyTorch Trainingsskript an.
Wenn das Framework oder der Algorithmus, den Sie trainieren und debuggen möchten, nicht in der Tabelle aufgeführt ist, gehen Sie zum AWS Diskussionsforum
AWS-Regionen
Amazon SageMaker Debugger ist in allen Regionen verfügbar, in denen Amazon SageMaker AI im Einsatz ist, mit Ausnahme der folgenden Region.
Asien-Pazifik (Jakarta):
ap-southeast-3
Um herauszufinden, ob Amazon SageMaker AI in Ihrem Betrieb ist AWS-Region, besuchen Sie AWS Regional Services
Verwenden Sie den Debugger mit benutzerdefinierten Trainingscontainern
Bringen Sie Ihre Schulungscontainer in die SageMaker KI und gewinnen Sie mithilfe von Debugger Einblicke in Ihre Schulungsaufgaben. Maximieren Sie Ihre Arbeitseffizienz, indem Sie Ihr Modell auf EC2 Amazon-Instances mithilfe der Überwachungs- und Debugging-Funktionen optimieren.
Weitere Informationen dazu, wie Sie Ihren Trainingscontainer mit der sagemaker-debugger
Client-Bibliothek erstellen, in die Amazon Elastic Container Registry (Amazon ECR) übertragen und überwachen und debuggen können, finden Sie unter Verwenden Sie Debugger mit benutzerdefinierten Trainingscontainern.
Open-Source-Repositorys für Debugger GitHub
Debugger APIs werden über das SageMaker Python-SDK bereitgestellt und sind darauf ausgelegt, Debugger-Hook- und Regelkonfigurationen für die SageMaker KI CreateTrainingJob- und DescribeTrainingJobAPI-Operationen zu erstellen. Die sagemaker-debugger
Client-Bibliothek bietet Tools zum Registrieren von Hooks und zum Zugreifen auf die Trainingsdaten über ihr Test-Feature sowie über ihre flexiblen und leistungsstarken API-Operationen. Es unterstützt die Frameworks für maschinelles Lernen TensorFlow PyTorch MXNet,, und XGBoost auf Python 3.6 und höher.
Direkte Ressourcen zum Debugger und zu sagemaker-debugger
API-Vorgängen finden Sie in den folgenden Blogbeiträgen:
Wenn Sie das SDK for Java zur Durchführung von SageMaker Trainingsaufgaben verwenden und den Debugger konfigurieren möchten APIs, finden Sie in den folgenden Referenzen weitere Informationen: