

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# (アーカイブ済み) SageMaker モデル並列処理ライブラリ v1.x
<a name="model-parallel"></a>

**重要**  
2023 年 12 月 19 日に、SageMaker モデル並列処理 (SMP) ライブラリ v2 がリリースされました。SMP v1 の機能は今後のリリースではサポートされなくなります。代わりに SMP ライブラリ v2 をご利用ください。以下のセクションとトピックはアーカイブ済みであり、SMP ライブラリ v1 の使用に特化した内容です。SMP ライブラリ v2 の使用方法については、「[SageMaker モデル並列処理ライブラリ v2](model-parallel-v2.md)」を参照してください。

Amazon SageMaker AI のモデル並列ライブラリを使用して、GPU メモリの制限によりトレーニングが困難な大規模な深層学習 (DL) モデルをトレーニングします。ライブラリは、モデルを複数の GPU およびインスタンス間で自動的かつ効率的に分割します。ライブラリを使用すると、数十億または数兆のパラメータを使って大規模な DL モデルを効率的にトレーニングすることで、目標予測精度をより速く達成できます。

ライブラリを使用して、最小限のコード変更で、複数の GPU および複数のノード間で、独自の TensorFlow および PyTorch モデルを自動的にパーティション化できます。ライブラリの API には、SageMaker Python SDK からアクセスできます。

以降のセクションでは、モデル並列処理と SageMaker モデル並列ライブラリについてさらに学習します。このライブラリの API ドキュメントは、*SageMaker Python SDK v2.199.0 ドキュメント*の「[Distributed Training APIs](https://sagemaker.readthedocs.io/en/v2.199.0/api/training/smd_model_parallel.html)」にあります。

**Topics**
+ [モデル並列処理の概要](model-parallel-intro.md)
+ [サポートされているフレームワークと AWS リージョン](distributed-model-parallel-support.md)
+ [SageMaker モデル並列処理ライブラリの主要機能](model-parallel-core-features.md)
+ [SageMaker 分散モデル並列トレーニングジョブの実行](model-parallel-use-api.md)
+ [モデル並列処理によるモデルのチェックポイントと微調整](distributed-model-parallel-checkpointing-and-finetuning.md)
+ [Amazon SageMaker AI モデル並列処理ライブラリ v1 の例](distributed-model-parallel-examples.md)
+ [SageMaker 分散モデル並列処理のベストプラクティス](model-parallel-best-practices.md)
+ [SageMaker 分散モデル並列処理ライブラリ設定のヒントと落とし穴](model-parallel-customize-tips-pitfalls.md)
+ [モデル並列のトラブルシューティング](distributed-troubleshooting-model-parallel.md)