Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
SageMaker note di rilascio della libreria di parallelismo dei dati
Consultate le seguenti note di rilascio per tenere traccia degli ultimi aggiornamenti per la libreria SageMaker Distributed Data Parallelism (SMDDP).
La libreria di parallelismo dei dati SageMaker distribuiti v2.3.0
Data: 11 giugno 2024
Nuove funzionalità
-
Aggiunto il supporto per la PyTorch v2.3.0 con CUDA v12.1 e Python v3.11.
-
È stato aggiunto PyTorch il supporto per Lightning v2.2.5. Questo è integrato nel contenitore del SageMaker framework per la versione 2.3.0. PyTorch
-
È stata aggiunta la convalida del tipo di istanza durante l'importazione per impedire il caricamento della libreria SMDDP su tipi di istanza non supportati. Per un elenco dei tipi di istanza compatibili con la libreria SMDDP, vedere. Framework e tipi di Regioni AWS istanze supportati
Integrazione in SageMaker Framework Containers
Questa versione della libreria SMDDP viene migrata al seguente SageMaker Framework Container.
-
PyTorch v2.3.0
763104351884.dkr.ecr.
<region>
.amazonaws.com/pytorch-training:2.3.0-gpu-py311-cu121-ubuntu20.04-sagemaker
Per un elenco completo delle versioni della libreria SMDDP e dei contenitori predefiniti, vedere. Framework e tipi di Regioni AWS istanze supportati
File binario di questa versione
È possibile scaricare o installare la libreria utilizzando il seguente URL.
https://smdataparallel.s3.amazonaws.com/binary/pytorch/2.3.0/cu121/2024-05-23/smdistributed_dataparallel-2.3.0-cp311-cp311-linux_x86_64.whl
Altre modifiche
-
La libreria SMDDP v2.2.0 è integrata nel contenitore del SageMaker framework per la v2.2.0. PyTorch
La libreria di parallelismo dei dati distribuiti v2.2.0 SageMaker
Data: 4 marzo 2024
Nuove funzionalità
-
Aggiunto il supporto per la PyTorch v2.2.0 con CUDA v12.1.
Integrazione in contenitori Docker distribuiti dalla libreria Model Parallelism (SMP SageMaker )
Questa versione della libreria SMDDP è migrata a. La libreria di SageMaker parallelismo dei modelli v2.2.0
658645717510.dkr.ecr.
<region>
.amazonaws.com/smdistributed-modelparallel:2.2.0-gpu-py310-cu121
Per le regioni in cui sono disponibili le immagini SMP Docker, vedi. Regioni AWS
File binario di questa versione
È possibile scaricare o installare la libreria utilizzando il seguente URL.
https://smdataparallel.s3.amazonaws.com/binary/pytorch/2.2.0/cu121/2024-03-04/smdistributed_dataparallel-2.2.0-cp310-cp310-linux_x86_64.whl
La libreria di parallelismo dei dati SageMaker distribuiti v2.1.0
Data: 1 marzo 2024
Nuove funzionalità
-
Aggiunto il supporto per la PyTorch v2.1.0 con CUDA v12.1.
Correzioni di bug
-
Risolto il problema di perdita di memoria della CPU in. SMDDP v2.0.1
Integrazione in SageMaker Framework Containers
-
PyTorch v2.1.0
763104351884.dkr.ecr.
<region>
.amazonaws.com/pytorch-training:2.1.0-gpu-py310-cu121-ubuntu20.04-sagemaker
Integrazione in contenitori Docker distribuiti dalla libreria SageMaker Model Parallelism (SMP)
Questa versione della libreria SMDDP è migrata a. La libreria di SageMaker parallelismo dei modelli v2.1.0
658645717510.dkr.ecr.
<region>
.amazonaws.com/smdistributed-modelparallel:2.1.2-gpu-py310-cu121
Per le regioni in cui sono disponibili le immagini SMP Docker, vedi. Regioni AWS
File binario di questa versione
È possibile scaricare o installare la libreria utilizzando il seguente URL.
https://smdataparallel.s3.amazonaws.com/binary/pytorch/2.1.0/cu121/2024-02-04/smdistributed_dataparallel-2.1.0-cp310-cp310-linux_x86_64.whl
La libreria di parallelismo dei dati SageMaker distribuiti v2.0.1
Data: 7 dicembre 2023
Nuove funzionalità
-
Aggiunta una nuova implementazione SMDDP del funzionamento
AllGather
collettivo ottimizzato per le risorse di AWS calcolo e l'infrastruttura di rete. Per ulteriori informazioni, consulta Operazione AllGather collettiva SMDDP. -
L'operazione
AllGather
collettiva SMDDP è compatibile con FSDP e. PyTorch DeepSpeed Per ulteriori informazioni, consulta Usa la SMDDP libreria nel tuo script di allenamento PyTorch . -
È stato aggiunto il supporto per la versione 2.0.1 PyTorch
Problemi noti
-
Esiste un problema di perdita di memoria della CPU a causa di un aumento graduale della memoria della CPU durante l'allenamento con
AllReduce
SMDDP in modalità DDP.
SageMaker Integrazione in Framework Containers
-
PyTorch v2.0.1
763104351884.dkr.ecr.
<region>
.amazonaws.com/pytorch-training:2.0.1-gpu-py310-cu118-ubuntu20.04-sagemaker
File binario di questa versione
È possibile scaricare o installare la libreria utilizzando il seguente URL.
https://smdataparallel.s3.amazonaws.com/binary/pytorch/2.0.1/cu118/2023-12-07/smdistributed_dataparallel-2.0.2-cp310-cp310-linux_x86_64.whl
Altre modifiche
-
A partire da questa versione, la documentazione per la libreria SMDDP è completamente disponibile in questa Amazon SageMaker Developer Guide. A favore della guida completa per gli sviluppatori per SMDDP v2 contenuta nell'Amazon SageMaker Developer Guide, la documentazione per il riferimento aggiuntivo per SMDDP v1.x
nella documentazione di SageMaker Python SDK non è più supportata. Se hai ancora bisogno della documentazione SMP v1.x, consulta la seguente istantanea della documentazione nella documentazione di Python SageMaker SDK v2.212.0.