Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Kontext-Parallelität

Fokusmodus
Kontext-Parallelität - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Kontextparallelität ist eine Art von Modellparallelität, bei der die Modellaktivierungen entlang der Sequenzdimension aufgeteilt werden. Im Gegensatz zu anderen Techniken der Sequenzparallelität, die nur das UND partitionieren, partitioniert die Kontextparallelität die Netzwerkeingänge LayerNorm und RMSNorm alle dazwischenliegenden Aktivierungen entlang der Sequenzdimension.

SMP v2 ist in Transformer Engine integriert, um Kontextparallelität zu gewährleisten, und kann in Verbindung mit FSDP und SMP verwendet werden. PyTorch Tensor-Parallelität Sie können alle drei Parallelitäten gleichzeitig für das Modelltraining aktivieren. Kontext-Parallelität ist vorteilhaft für Trainingsmodelle mit großen Aktivierungsgrößen und langen Sequenzlängen. Sie beschleunigt die Berechnung von Aufmerksamkeitswerten und Aufmerksamkeitsergebnissen, da jedes Gerät nur einen Teil der Werte und Ergebnisse entlang der Sequenzdimension berechnen kann. Die Tensorparallelität beschleunigt zwar auch die Berechnung durch Partitionierung entlang der verborgenen Dimension, doch der Vorteil der Kontextparallelität ist größer, da die Rechenanforderungen quadratisch mit der Sequenzdimension steigen.

Hugging Face Transformer-Modelle, die mit der SMP-Kontextparallelität kompatibel sind

SMP v2 bietet derzeit Unterstützung für Kontext-Parallelität für die folgenden Hugging Face Face-Transformatormodelle.

Kontext-Parallelität konfigurieren

Legen Sie einen ganzzahligen Wert für den context_parallel_degree Parameter fest, der die Anzahl der GPUs in Ihrem Cluster gleichmäßig verteilt. Wenn Sie beispielsweise über eine 8-GPU-Instanz verfügen, verwenden Sie 2, 4 oder 8 für. context_parallel_degree Wir empfehlen, mit einem kleinen context_parallel_degree Wert zu beginnen und ihn schrittweise zu erhöhen, bis das Modell mit der erforderlichen Länge der Eingabesequenz in den GPU-Speicher passt.

Die folgenden Codefragmente zeigen, wie Sie das SMP-Initialisierungsmodul torch.sagemaker.init() zu Ihrem Trainingsskript hinzufügen und das SMP-Konfigurationswörterbuch im JSON-Format für den Trainingsjob-Launcher einrichten. Dabei folgen Sie dem unter beschriebenen zweistufigen Prozess. Verwenden Sie die SageMaker Modellparallelitätsbibliothek v2 Sie müssen keine Änderungen an Ihrem Modell oder Ihrer FSDP-Konfiguration vornehmen. PyTorch PyTorch Weitere Informationen zum Parameter context_parallel_degree erhalten Sie unter Konfigurationsparameter für die Kernfunktion von SMP v2.

In deinem Trainingsskript

Initialisieren Sie im Rahmen von Schritt 1 Ihr Skript mit, um SMP v2 torch.sagemaker.init() zu aktivieren und Ihr Modell mit der torch.sagemaker.transform API zu verpacken.

Ab SMP v2.6.0 können Sie das Argument verwenden, cp_comm_type um zu bestimmen, welche Implementierung der Kontextparallelität verwendet werden soll. Die SMP-Bibliothek unterstützt derzeit zwei Implementierungen: und. p2p all_gather Die p2p Implementierung verwendet peer-to-peer Send-Receive-Aufrufe zur Akkumulation von Schlüsselwerten während der Aufmerksamkeitsimplementierung und wird asynchron ausgeführt, sodass Überschneidungen mit Rechenleistung möglich sind. all_gatherDie Implementierung verwendet stattdessen die kollektive Operation und wird synchron ausgeführtAllGather.

import torch.sagemaker as tsm tsm.init() from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_config(..) model = tsm.transform(model, cp_comm_type="p2p")

SMP-Konfiguration

Fügen Sie im Rahmen von Schritt 2 den folgenden Parameter zum SMP-Konfigurationswörterbuch für den SageMaker PyTorch Schätzer hinzu.

{ ..., # other SMP config parameters "context_parallel_degree": 2 }
DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.