Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
PyTorch Trainingsjobs mit dem SageMaker Training Compiler ausführen
Sie können jede der SageMaker KI-Schnittstellen verwenden, um einen Trainingsjob mit SageMaker Training Compiler auszuführen: Amazon SageMaker Studio Classic, Amazon SageMaker Notebook-Instances und AWS Command Line Interface. AWS SDK for Python (Boto3)
Verwenden des SageMaker Python-SDK
SageMaker Training Compiler for PyTorch ist in den Klassen SageMaker AI PyTorch
HuggingFace
compiler_config
Parameter zu den SageMaker AI-Schätzern hinzu. Importieren Sie die TrainingCompilerConfig
-Klasse und übergeben Sie eine Instance davon an den compiler_config
-Parameter. Die folgenden Codebeispiele zeigen die Struktur von SageMaker AI-Estimator-Klassen mit aktiviertem SageMaker Training Compiler.
Tipp
Um mit vorgefertigten Modellen von PyTorch oder Transformers zu beginnen, versuchen Sie, die in der Referenztabelle unter angegebenen Batchgrößen zu verwenden. Getestete Modelle
Anmerkung
Die native PyTorch Unterstützung ist im SageMaker Python SDK v2.121.0 und höher verfügbar. Stellen Sie sicher, dass Sie das SageMaker Python-SDK entsprechend aktualisieren.
Anmerkung
Ab PyTorch Version 1.12.0 sind SageMaker Training Compiler-Container für PyTorch verfügbar. Beachten Sie, dass die SageMaker Training Compiler-Container für nicht im Lieferumfang von Hugging Face Transformers enthalten PyTorch sind. Wenn Sie die Bibliothek im Container installieren müssen, stellen Sie sicher, dass Sie die requirements.txt
Datei im Quellverzeichnis hinzufügen, wenn Sie einen Trainingsjob einreichen.
Verwenden Sie für PyTorch Version 1.11.0 und früher die vorherigen Versionen der SageMaker Training Compiler-Container für Hugging Face und. PyTorch
Eine vollständige Liste der Framework-Versionen und der entsprechenden Container-Informationen finden Sie unter Unterstützte Frameworks.
Weitere Informationen, die zu Ihrem Anwendungsfall passen, finden Sie unter einer der folgenden Optionen.
Die folgende Liste enthält die Mindestanzahl von Parametern, die für die Ausführung eines SageMaker Trainingsjobs mit dem Compiler erforderlich sind.
Anmerkung
Wenn Sie den SageMaker AI Hugging Face Estimator verwenden, müssen Sie die compiler_config
Parameter,, und angeben transformers_version
pytorch_version
hyperparameters
, um den Training Compiler zu aktivieren SageMaker . Sie können image_uri
nicht verwenden, um die unter Unterstützte Frameworks aufgelisteten integrierten Deep-Learning-Container für den Trainingscompiler manuell anzugeben.
-
entry_point
(str) – Erforderlich. Geben Sie den Dateinamen Ihres Trainingsskripts an.Anmerkung
Um ein verteiltes Training mit SageMaker Training Compiler und PyTorch Version 1.10.2 und früheren Versionen auszuführen, geben Sie für diesen Parameter den Dateinamen eines Launcher-Skripts an. Das Launcher-Skript sollte so vorbereitet sein, dass es Ihr Trainingsskript umschließt und die verteilte Trainingsumgebung konfiguriert. Weitere Informationen finden Sie in den folgenden Notebook-Beispielen:
-
source_dir
(str) – Optional. Fügen Sie dies hinzu, wenn Sie zusätzliche Pakete installieren müssen. Um Pakete zu installieren, müssen Sie einerequirements.txt
Datei in diesem Verzeichnis vorbereiten. -
instance_count
(int) – Erforderlich. Geben Sie die Anzahl der Instances an. -
instance_type
(str) – Erforderlich. Geben Sie den Instance-Typ an. -
transformers_version
(str) — Nur erforderlich, wenn der SageMaker AI Hugging Face Estimator verwendet wird. Geben Sie die Hugging Face Transformers-Bibliotheksversion an, die vom SageMaker Training Compiler unterstützt wird. Die verfügbaren Versionen finden Sie unter Unterstützte Frameworks. -
framework_version
oderpytorch_version
(str) – Erforderlich. Geben Sie die vom Training PyTorch Compiler unterstützte SageMaker Version an. Die verfügbaren Versionen finden Sie unter Unterstützte Frameworks.Anmerkung
Wenn Sie den SageMaker AI Hugging Face Estimator verwenden, müssen Sie sowohl als auch angeben.
transformers_version
pytorch_version
-
hyperparameters
(dict) – Optional. Geben Sie Hyperparameter für den Trainingsjob an, z. B.n_gpus
batch_size
, undlearning_rate
. Wenn Sie SageMaker Training Compiler aktivieren, probieren Sie größere Batchgrößen aus und passen Sie die Lernrate entsprechend an. Fallstudien zur Verwendung des Compilers und zur Anpassung der Batchgrößen zur Verbesserung der Trainingsgeschwindigkeit finden Sie unter Getestete Modelle und SageMaker Beispiel für Notizbücher und Blogs zum Training Compiler.Anmerkung
Um ein verteiltes Training mit SageMaker Training Compiler und PyTorch Version 1.10.2 und früheren Versionen durchzuführen, müssen Sie einen zusätzlichen Parameter hinzufügen
"training_script"
, um Ihr Trainingsskript zu spezifizieren, wie im vorherigen Codebeispiel gezeigt. -
compiler_config
(TrainingCompilerConfig Objekt) — Erforderlich, um den SageMaker Training Compiler zu aktivieren. Fügen Sie diesen Parameter hinzu, um den SageMaker Training Compiler zu aktivieren. Nachfolgend sind die Parameter für die KlasseTrainingCompilerConfig
aufgeführt.-
enabled
(bool) – Optional. Geben SieTrue
oder anFalse
, um den SageMaker Training Compiler ein- oder auszuschalten. Der Standardwert istTrue
. -
debug
(bool) – Optional. Um detailliertere Trainingsprotokolle von Ihren Compiler-beschleunigten Trainingsaufträgen zu erhalten, ändern Sie es zuTrue
. Die zusätzliche Protokollierung kann jedoch den Aufwand erhöhen und den kompilierten Trainingsjob verlangsamen. Der Standardwert istFalse
.
-
-
distribution
(dict) – Fakultativ. Um einen verteilten Trainingsjob mit SageMaker Training Compiler auszuführen, fügen Sie hinzu.distribution = { 'pytorchxla' : { 'enabled': True }}
Warnung
Wenn Sie den SageMaker Debugger aktivieren, kann dies die Leistung von SageMaker Training Compiler beeinträchtigen. Es wird empfohlen, den Debugger zu deaktivieren, wenn SageMaker Training Compiler ausgeführt wird, um sicherzustellen, dass die Leistung nicht beeinträchtigt wird. Weitere Informationen finden Sie unter Überlegungen. Um die Debugger-Funktionen auszuschalten, fügen Sie dem Schätzer die folgenden beiden Argumente hinzu:
disable_profiler=True, debugger_hook_config=False
Wenn der Trainingsjob mit dem Compiler erfolgreich gestartet wurde, erhalten Sie während der Job-Initialisierungsphase die folgenden Protokolle:
-
Mit
TrainingCompilerConfig(debug=False)
Found configuration for Training Compiler Configuring SM Training Compiler...
-
Mit
TrainingCompilerConfig(debug=True)
Found configuration for Training Compiler Configuring SM Training Compiler... Training Compiler set to debug mode
Verwendung des SageMaker CreateTrainingJob
AI-API-Vorgangs
SageMaker Die Konfigurationsoptionen des Training Compilers müssen im HyperParameters
Feld AlgorithmSpecification
und in der Anforderungssyntax für den CreateTrainingJob
API-Vorgang angegeben werden.
"AlgorithmSpecification": { "TrainingImage": "
<sagemaker-training-compiler-enabled-dlc-image>
" }, "HyperParameters": { "sagemaker_training_compiler_enabled": "true", "sagemaker_training_compiler_debug_mode": "false", "sagemaker_pytorch_xla_multi_worker_enabled": "false" // set to "true" for distributed training }
Eine vollständige Liste der Deep-Learning-Container-Images URIs , für die SageMaker Training Compiler implementiert wurde, finden Sie unter. Unterstützte Frameworks