Unterstützte Frameworks und AWS-Regionen - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Unterstützte Frameworks und AWS-Regionen

Bevor Sie die SageMaker Modellparallelismus-Bibliothek verwenden, überprüfen Sie die unterstützten Frameworks und Instanztypen und stellen Sie fest, ob in Ihrem Konto genügend Kontingente vorhanden sind und. AWS AWS-Region

Anmerkung

Die neuesten Updates und Versionshinweise der Bibliothek finden Sie in den Versionshinweisen zu SageMaker Model Parallel in der SageMaker SDKPython-Dokumentation.

Unterstützte Frameworks

Die SageMaker Modellparallelitätsbibliothek unterstützt die folgenden Deep-Learning-Frameworks und ist in AWS Deep Learning Containers (DLC) verfügbar oder als Binärdatei herunterladbar.

PyTorch Versionen, die von SageMaker und der SageMaker Modellparallelismus-Bibliothek unterstützt werden

PyTorch Version SageMaker Version der Bibliothek für Modellparallelität smdistributed-modelparallelintegriertes Bild DLC URI URLder Binärdatei**
v2.0.0 smdistributed-modelparallel==v1.15.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:2.0.0-gpu-py310-cu118-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-2.0.0/build-artifacts/2023-04-14-20-14/smdistributed_modelparallel-1.15.0-cp310-cp310-linux_x86_64.whl
v1.13.1 smdistributed-modelparallel==v1.15.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.13.1-gpu-py39-cu117-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-1.13.1/build-artifacts/2023-04-17-15-49/smdistributed_modelparallel-1.15.0-cp39-cp39-linux_x86_64.whl
v1.12.1 smdistributed-modelparallel==v1.13.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.12.1-gpu-py38-cu113-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pyTorch-1.12.1/Build-Artifacts/2021-12-08-21-34/smdistributed_modelparallel-1.13.0-cp38-cp38-linux_x86_64.whl
v1.12.0 smdistributed-modelparallel==v1.11.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.12.0-gpu-py38-cu113-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-1.12.0/build-artifacts/2022-08-12-16-58/smdistributed_modelparallel-1.11.0-cp38-cp38-linux_x86_64.whl
v1.11.0 smdistributed-modelparallel==v1.10.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.11.0-gpu-py38-cu113-ubuntu20.04-sagemaker

https://sagemaker-distributed-model-parallel.s3.us-west-2.amazonaws.com/pytorch-1.11.0/build-artifacts/2022-07-11-19-23/smdistributed_modelparallel-1.10.0-cp38-cp38-linux_x86_64.whl
v1.10.2 smdistributed-modelparallel==v1.7.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.10.2-gpu-py38-cu113-ubuntu20.04-sagemaker

-
v1.10.0 smdistributed-modelparallel==v1.5.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.10.0-gpu-py38-cu113-ubuntu20.04-sagemaker

-
v1.9.1 smdistributed-modelparallel==v1.4.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.9.1-gpu-py38-cu111-ubuntu20.04

-
v1.8.1* smdistributed-modelparallel==v1.6.0

763104351884.dkr.ecr.<region>.amazonaws.com/pytorch-training:1.8.1-gpu-py36-cu111-ubuntu18.04

-
Anmerkung

Die Modellparallelismus-Bibliothek v1.6.0 und höher bietet erweiterte Funktionen für. SageMaker PyTorch Weitere Informationen finden Sie unter Kernfunktionen der SageMaker Model Parallelism Library.

** Die Binärdateien dienen URLs der Installation der SageMaker Modellparallelismus-Bibliothek in benutzerdefinierten Containern. Weitere Informationen finden Sie unter Erstellen Sie Ihren eigenen Docker-Container mit der SageMaker Distributed Model Parallel Library.

TensorFlow Versionen, die von SageMaker und der SageMaker Modellparallelismus-Bibliothek unterstützt werden

TensorFlow Version SageMaker Version der Bibliothek für Modellparallelität smdistributed-modelparallelintegriertes Bild DLC URI
v2.6.0 smdistributed-modelparallel==v1.4.0 763104351884.dkr.ecr.<region>.amazonaws.com/tensorflow-training:2.6.0-gpu-py38-cu112-ubuntu20.04
v2.5.1 smdistributed-modelparallel==v1.4.0 763104351884.dkr.ecr.<region>.amazonaws.com/tensorflow-training:2.5.1-gpu-py37-cu112-ubuntu18.04

Hugging Face Transformers-Versionen, die von SageMaker und der SageMaker Distributed Data Parallel Library unterstützt werden

Die AWS Deep Learning Containers für Hugging Face verwenden die SageMaker Training Container für PyTorch und TensorFlow als Basisimages. Die Versionen der Hugging Face Transformers-Bibliothek und die zugehörigen AND-Versionen finden Sie in den neuesten Hugging Face Containers und den vorherigen Hugging Face TensorFlow Container-Versionen. PyTorch

AWS-Regionen

Die SageMaker Datenparallelbibliothek ist überall dort verfügbar AWS-Regionen , wo die AWS Deep Learning Containers im Einsatz SageMaker sind. Weitere Informationen finden Sie unter Verfügbare Deep Learning Container-Images.

Unterstützte Instance-Typen

Die SageMaker Modellparallelismus-Bibliothek erfordert einen der folgenden ML-Instanztypen.

Instance-Typ
ml.g4dn.12xlarge
ml.p3.16xlarge
ml.p3dn.24xlarge
ml.p4d.24xlarge
ml.p4de.24xlarge

Die Spezifikationen der Instance-Typen finden Sie im Abschnitt Accelerated Computing auf der EC2Amazon-Instance-Typen-Seite. Informationen zu Instance-Preisen finden Sie unter SageMakerAmazon-Preise.

Wenn Sie auf eine Fehlermeldung gestoßen sind, die der folgenden ähnelt, folgen Sie den Anweisungen unter Eine Erhöhung des Servicekontingents für SageMaker Ressourcen beantragen.

ResourceLimitExceeded: An error occurred (ResourceLimitExceeded) when calling the CreateTrainingJob operation: The account-level service limit 'ml.p3dn.24xlarge for training job usage' is 0 Instances, with current utilization of 0 Instances and a request delta of 1 Instances. Please contact AWS support to request an increase for this limit.