(Archivierte) SageMaker Modellparallelismus-Bibliothek v1.x - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

(Archivierte) SageMaker Modellparallelismus-Bibliothek v1.x

Wichtig

Am 19. Dezember 2023 wurde die SageMaker Modellparallelismus-Bibliothek (SMP) v2 veröffentlicht. Zugunsten der SMP-Bibliothek v2 werden die Funktionen von SMP v1 in future Versionen nicht mehr unterstützt. Der folgende Abschnitt und die folgenden Themen sind archiviert und beziehen sich speziell auf die Verwendung der SMP-Bibliothek v1. Informationen zur Verwendung der SMP-Bibliothek v2 finden Sie unter. Erfahren Sie mehr über die SageMaker Modellparallelismusbibliothek v2

Verwenden Sie die Modellparallelbibliothek SageMaker von Amazon, um große Deep-Learning-Modelle (DL) zu trainieren, die aufgrund von GPU-Speicherbeschränkungen schwer zu trainieren sind. Die Bibliothek teilt ein Modell automatisch und effizient auf mehrere GPUs und Instances auf. Mithilfe der Bibliothek können Sie schneller eine Zielvorhersagegenauigkeit erreichen, indem Sie größere DL-Modelle mit Milliarden oder Billionen von Parametern effizient trainieren.

Sie können die Bibliothek verwenden, um Ihre eigenen PyTorch Modelle TensorFlow und Modelle mit minimalen Codeänderungen automatisch auf mehrere GPUs und mehrere Knoten zu partitionieren. Sie können über das SageMaker Python-SDK auf die API der Bibliothek zugreifen.

In den folgenden Abschnitten erfahren Sie mehr über Modellparallelität und die SageMaker Modellparallelbibliothek. Die API-Dokumentation dieser Bibliothek befindet sich unter Distributed Training APIs in der SageMaker Python SDK v2.199.0-Dokumentation.