本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
(已封存) SageMaker 模型平行程式庫 v1.x
重要
自 2023 年 12 月 19 日起, SageMaker 模型平行處理原則 (SMP) 程式庫第 2 版已發行。有利於 SMP 程式庫 v2,future 發行版本不再支援 SMP v1 功能。下列章節和主題已封存,並且特定於使用 SMP 程式庫 v1。如需使用 SMP 程式庫 v2 的相關資訊,請參閱了解 SageMaker 模型平行處理程式庫 v2。
使用 Amazon SageMaker 的模型 parallel 程式庫來訓練由於 GPU 記憶體限制而難以訓練的大型深度學習 (DL) 模型。程式庫會自動且有效率地將模型分割至多個 GPU 和執行個體。使用程式庫,您可以透過有效率地訓練具有數十億或數兆個參數的較大型 DL 模型,更快速的達成目標預測準確度。
您可以使用程式庫,在多個 GPU TensorFlow 和多個節點之間自動分割您自己的 PyTorch 模型和模型,只需最少的程式碼變更即可。您可以透過 SageMaker Python SDK 存取程式庫的 API。
您可以使用以下各節來進一步瞭解模型 parallel 處理原則和 SageMaker 模型平行程式庫。這個程式庫的 API 文件位於 SageMaker Python SDK v2.19 9.0 文件中的分散式訓練 API