Libreria di parallelismo dei SageMaker modelli (archiviata) v1.x - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Libreria di parallelismo dei SageMaker modelli (archiviata) v1.x

Importante

A partire dal 19 dicembre 2023, viene rilasciata la libreria di parallelismo dei SageMaker modelli (SMP) v2. A favore della libreria SMP v2, le funzionalità SMP v1 non sono più supportate nelle versioni future. La sezione e gli argomenti seguenti sono archiviati e riguardano specificamente l'uso della libreria SMP v1. Per informazioni sull'uso della libreria SMP v2, vedere. SageMaker libreria di parallelismo dei modelli v2

Usa la libreria parallela SageMaker di modelli di Amazon per addestrare modelli di deep learning (DL) di grandi dimensioni che sono difficili da addestrare a causa delle limitazioni della memoria della GPU. La libreria suddivide automaticamente ed efficacemente un modello su più GPU e istanze. Utilizzando la libreria, puoi raggiungere più rapidamente l'obiettivo di precisione di previsione addestrando in modo efficiente modelli DL più grandi con miliardi o trilioni di parametri.

Puoi utilizzare la libreria per partizionare automaticamente i tuoi PyTorch modelli su più GPU TensorFlow e più nodi con modifiche minime al codice. Puoi accedere all'API della libreria tramite SageMaker Python SDK.

Utilizza le seguenti sezioni per saperne di più sul parallelismo dei modelli e sulla libreria di modelli SageMaker paralleli. La documentazione API di questa libreria si trova in Distributed Training APIs nella documentazione SageMaker Python SDK v2.199.0.