Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Wichtig
Am 19. Dezember 2023 wurde die SageMaker Modellparallelismus-Bibliothek (SMP) v2 veröffentlicht. Zugunsten der SMP-Bibliothek v2 werden die Funktionen von SMP v1 in future Versionen nicht mehr unterstützt. Der folgende Abschnitt und die folgenden Themen sind archiviert und beziehen sich ausschließlich auf die Verwendung der SMP-Bibliothek v1. Informationen zur Verwendung der SMP-Bibliothek v2 finden Sie unter. SageMaker Modellparallelitätsbibliothek v2
Verwenden Sie die Modellparallelbibliothek von Amazon SageMaker AI, um große Deep-Learning-Modelle (DL) zu trainieren, die aufgrund von GPU-Speicherbeschränkungen schwer zu trainieren sind. Die Bibliothek teilt ein Modell automatisch und effizient auf mehrere GPUs AND-Instanzen auf. Mithilfe der Bibliothek können Sie schneller eine Zielvorhersagegenauigkeit erreichen, indem Sie größere DL-Modelle mit Milliarden oder Billionen von Parametern effizient trainieren.
Sie können die Bibliothek verwenden, um Ihre eigenen PyTorch Modelle TensorFlow und Modelle mit minimalen Codeänderungen automatisch auf mehrere Knoten zu partitionieren. GPUs Sie können über das SageMaker Python-SDK auf die API der Bibliothek zugreifen.
In den folgenden Abschnitten erfahren Sie mehr über Modellparallelität und die SageMaker Modellparallelbibliothek. Die API-Dokumentation dieser Bibliothek befindet sich unter Distributed Training APIs
Themen
Führen Sie einen SageMaker verteilten Trainingsjob mit Modellparallelität aus
Überprüfung und Feinabstimmung eines Modells mit Modellparallelität
Beispiele für die Amazon SageMaker AI-Modellparallelismusbibliothek v1
SageMaker Bewährte Methoden für verteilte Modellparallelität
Tipps und Fallstricke zur Konfiguration der SageMaker Distributed Model Parallelism Library