Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
(Archivierte) SageMaker Modellparallelismus-Bibliothek v1.x
Wichtig
Am 19. Dezember 2023 wurde die SageMaker Modellparallelismus-Bibliothek (SMP) v2 veröffentlicht. Zugunsten der SMP-Bibliothek v2 werden die Funktionen von SMP v1 in future Versionen nicht mehr unterstützt. Der folgende Abschnitt und die folgenden Themen sind archiviert und beziehen sich speziell auf die Verwendung der SMP-Bibliothek v1. Informationen zur Verwendung der SMP-Bibliothek v2 finden Sie unter. Erfahren Sie mehr über die SageMaker Modellparallelismusbibliothek v2
Verwenden Sie die Modellparallelbibliothek SageMaker von Amazon, um große Deep-Learning-Modelle (DL) zu trainieren, die aufgrund von GPU-Speicherbeschränkungen schwer zu trainieren sind. Die Bibliothek teilt ein Modell automatisch und effizient auf mehrere GPUs und Instances auf. Mithilfe der Bibliothek können Sie schneller eine Zielvorhersagegenauigkeit erreichen, indem Sie größere DL-Modelle mit Milliarden oder Billionen von Parametern effizient trainieren.
Sie können die Bibliothek verwenden, um Ihre eigenen PyTorch Modelle TensorFlow und Modelle mit minimalen Codeänderungen automatisch auf mehrere GPUs und mehrere Knoten zu partitionieren. Sie können über das SageMaker Python-SDK auf die API der Bibliothek zugreifen.
In den folgenden Abschnitten erfahren Sie mehr über Modellparallelität und die SageMaker Modellparallelbibliothek. Die API-Dokumentation dieser Bibliothek befindet sich unter Distributed Training APIs
Themen
- Einführung in die Modell-Parallelität
- Unterstützte Frameworks und AWS-Regionen
- Kernfunktionen der SageMaker Model Parallelism Library
- Führen Sie einen SageMaker verteilten Trainingsjob mit Modellparallelität aus
- Überprüfung und Feinabstimmung eines Modells mit Modellparallelität
- Beispiele für die Amazon SageMaker Model Parallelism Library v1
- SageMaker Bewährte Methoden für verteilte Modellparallelität
- Tipps und Fallstricke der SageMaker Distributed Model Parallelism Library
- Parallele Problembehebung bei Modellen