Unterstützte Frameworks und Algorithmen - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Unterstützte Frameworks und Algorithmen

Die folgende Tabelle zeigt Frameworks und Algorithmen für SageMaker maschinelles Lernen, die von Debugger unterstützt werden.

SageMaker-supported frameworks and algorithms Debugging output tensors

TensorFlow

AWS TensorFlow Deep-Learning-Container 1.15.4 oder höher

PyTorch

AWS PyTorch Deep-Learning-Container 1.5.0 oder höher

MXNet

AWS MXNetDeep-Learning-Container 1.6.0 oder höher

XGBoost

1.0-1, 1.2-1, 1.3-1

SageMaker generischer Schätzer

Benutzerdefinierte Trainingscontainer (verfügbar für TensorFlow, PyTorchMXNet, und XGBoost mit manueller Hook-Registrierung)

  • Ausgabetensoren debuggen – Verfolgen und debuggen Sie Modellparameter wie Gewichte, Gradienten, Verzerrungen und Skalarwerte Ihres Trainingsjobs. Verfügbare Deep-Learning-Frameworks sind Apache MXNet TensorFlow PyTorch,, undXGBoost.

    Wichtig

    Für das TensorFlow Framework mit Keras lehnt SageMaker Debugger die Unterstützung von Debugging-Modellen ab, die mit den tf.keras Modulen von 2.6 und höher erstellt wurden. TensorFlow Dies ist auf wichtige Änderungen zurückzuführen, die in der Versionshinweise zu 2.6.0 angekündigt wurden. TensorFlow Anweisungen zum Aktualisieren Ihres Training-Scripts finden Sie unter Passen Sie Ihr Trainingsskript TensorFlow an.

    Wichtig

    Ab PyTorch Version 1.12.0 und höher verbietet SageMaker Debugger die Unterstützung von Debugging-Modellen ohne Codeänderung.

    Dies ist auf grundlegende Änderungen zurückzuführen, die dazu führen SageMaker , dass der Debugger die Funktionalität beeinträchtigt. torch.jit Anweisungen zum Aktualisieren Ihres Training-Scripts finden Sie unter Passen Sie Ihr PyTorch Trainingsskript an.

Wenn das Framework oder der Algorithmus, den Sie trainieren und debuggen möchten, nicht in der Tabelle aufgeführt ist, gehen Sie zum AWS Diskussionsforum und hinterlassen Sie Feedback zum SageMaker Debugger.

AWS-Regionen

Amazon SageMaker Debugger ist in allen Regionen verfügbar, in denen Amazon SageMaker aktiv ist, mit Ausnahme der folgenden Region.

  • Asien-Pazifik (Jakarta): ap-southeast-3

Informationen darüber, ob Amazon in Ihrem Land verfügbar SageMaker ist AWS-Region, finden Sie unter AWS Regional Services.

Verwenden Sie den Debugger mit benutzerdefinierten Trainingscontainern

Bringen Sie Ihre Schulungscontainer mit SageMaker und gewinnen Sie mithilfe von Debugger Einblicke in Ihre Schulungsjobs. Maximieren Sie Ihre Arbeitseffizienz, indem Sie Ihr Modell auf EC2 Amazon-Instances mithilfe der Überwachungs- und Debugging-Funktionen optimieren.

Weitere Informationen darüber, wie Sie Ihren Trainingscontainer mit der sagemaker-debugger Client-Bibliothek erstellen, ihn in die Amazon Elastic Container Registry (AmazonECR) übertragen und überwachen und debuggen können, finden Sie unterVerwenden Sie Debugger mit benutzerdefinierten Trainingscontainern.

Debugger — Open-Source-Repositorys GitHub

Debugger APIs werden über SageMaker Python bereitgestellt SDK und sind darauf ausgelegt, Debugger-Hook- und Regelkonfigurationen für die SageMaker CreateTrainingJobAND-Operationen zu erstellen. DescribeTrainingJobAPI Die sagemaker-debugger Client-Bibliothek bietet Tools zum Registrieren von Hooks und zum Zugreifen auf die Trainingsdaten über ihre Testfunktion, alles dank ihrer flexiblen und leistungsstarken API Funktionen. Es unterstützt die Frameworks für maschinelles Lernen TensorFlow PyTorchMXNet,, und XGBoost auf Python 3.6 und höher.

Direkte Ressourcen zum Debugger und zu den sagemaker-debugger API Vorgängen finden Sie unter den folgenden Links:

Wenn Sie den SDK für Java zur Durchführung von SageMaker Trainingsaufgaben verwenden und den Debugger konfigurieren möchtenAPIs, finden Sie in den folgenden Referenzen weitere Informationen: