Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

(Archivierte) SageMaker Modellparallelismus-Bibliothek v1.x

Fokusmodus
(Archivierte) SageMaker Modellparallelismus-Bibliothek v1.x - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Wichtig

Am 19. Dezember 2023 wurde die SageMaker Modellparallelismus-Bibliothek (SMP) v2 veröffentlicht. Zugunsten der SMP-Bibliothek v2 werden die Funktionen von SMP v1 in future Versionen nicht mehr unterstützt. Der folgende Abschnitt und die folgenden Themen sind archiviert und beziehen sich ausschließlich auf die Verwendung der SMP-Bibliothek v1. Informationen zur Verwendung der SMP-Bibliothek v2 finden Sie unter. SageMaker Modellparallelitätsbibliothek v2

Verwenden Sie die Modellparallelbibliothek von Amazon SageMaker AI, um große Deep-Learning-Modelle (DL) zu trainieren, die aufgrund von GPU-Speicherbeschränkungen schwer zu trainieren sind. Die Bibliothek teilt ein Modell automatisch und effizient auf mehrere GPUs AND-Instanzen auf. Mithilfe der Bibliothek können Sie schneller eine Zielvorhersagegenauigkeit erreichen, indem Sie größere DL-Modelle mit Milliarden oder Billionen von Parametern effizient trainieren.

Sie können die Bibliothek verwenden, um Ihre eigenen PyTorch Modelle TensorFlow und Modelle mit minimalen Codeänderungen automatisch auf mehrere Knoten zu partitionieren. GPUs Sie können über das SageMaker Python-SDK auf die API der Bibliothek zugreifen.

In den folgenden Abschnitten erfahren Sie mehr über Modellparallelität und die SageMaker Modellparallelbibliothek. Die API-Dokumentation dieser Bibliothek befindet sich unter Distributed Training APIs in der SageMaker Python SDK v2.199.0-Dokumentation.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.