

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# (存檔) SageMaker 模型平行化程式庫 v1.x
<a name="model-parallel"></a>

**重要**  
自 2023 年 12 月 19 日起，SageMaker 模型平行化 (SMP) 程式庫 v2 已發行。為了支援 SMP 程式庫 v2，未來版本不再支援 SMP v1 功能。以下章節和主題已存檔，並且特定於使用 SMP 程式庫 v1。如需使用 SMP 程式庫 v2 的詳細資訊，請參閱 [SageMaker 模型平行化程式庫 v2](model-parallel-v2.md)。

使用 Amazon SageMaker AI 的模型平行化程式庫來訓練因為 GPU 記憶體限制而難以訓練的大型深度學習 (DL) 模型。程式庫會自動且有效率地將模型分割至多個 GPU 和執行個體。使用程式庫，您可以透過有效率地訓練具有數十億或數兆個參數的較大型 DL 模型，更快速的達成目標預測準確度。

您可以使用這個程式庫，只需變更最少的程式碼，即可在多個 GPU 和多個節點之間自動分割您自己的 TensorFlow 和 PyTorch 模型。您可以透過 SageMaker Python SDK 存取程式庫的 API。

您可以使用以下章節進一步瞭解模型平行化和 SageMaker 模型平行化程式庫。此程式庫的 API 文件位於 *SageMaker Python SDK v2.199.0 文件*中的[分散式訓練 API](https://sagemaker.readthedocs.io/en/v2.199.0/api/training/smd_model_parallel.html)。

**Topics**
+ [模型平行處理簡介](model-parallel-intro.md)
+ [支援的架構和 AWS 區域](distributed-model-parallel-support.md)
+ [SageMaker 模型平行化程式庫的核心功能](model-parallel-core-features.md)
+ [執行具有模型平行的 SageMaker 分散式訓練任務](model-parallel-use-api.md)
+ [對具有模型並行性的模型執行檢查點和微調](distributed-model-parallel-checkpointing-and-finetuning.md)
+ [Amazon SageMaker AI 模型平行化程式庫 v1 範例](distributed-model-parallel-examples.md)
+ [SageMaker 分散式模型平行處理最佳實務](model-parallel-best-practices.md)
+ [SageMaker 分散式模型平行化程式庫組態提示和缺陷](model-parallel-customize-tips-pitfalls.md)
+ [模型平行疑難排解](distributed-troubleshooting-model-parallel.md)