

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# SageMaker モデル並列処理ライブラリ v2
<a name="model-parallel-v2"></a>

**注記**  
2023 年 12 月 19 日に SageMaker モデル並列処理 (SMP) ライブラリ v2.0.0 がリリースされたことを受け、このドキュメントも SMP ライブラリ v2 に合わせて更新されています。以前のバージョンの SMP ライブラリについては、「[(アーカイブ済み) SageMaker モデル並列処理ライブラリ v1.x](model-parallel.md)」を参照してください。

Amazon SageMaker AI モデル並列処理ライブラリは、SageMaker AI の機能の 1 つです。SageMaker AI 高速コンピューティングインスタンス上で高性能かつ最適化された大規模トレーニングの実行を実現します。[SageMaker モデル並列処理ライブラリ v2 の主要機能](model-parallel-core-features-v2.md)には、ハイブリッドシャーディングデータ並列処理、テンソル並列処理、アクティベーションチェックポイント、アクティベーションオフロードなど、大規模なモデルトレーニングを高速化し、簡素化するための手法や最適化が含まれています。SMP ライブラリを使用すると、パラメータ数が数千億の大規模言語モデル (LLM)、大規模ビジョンモデル (LVM)、基盤モデル (FM) のトレーニングとファインチューニングを高速化できます。

SageMaker モデル並列処理ライブラリ v2 (SMP v2) の API とメソッドは、オープンソースの PyTorch Fully Sharded Data Parallelism (FSDP) に対応しているため、最小限のコード変更だけで、SMP によるパフォーマンス最適化の恩恵を享受できます。SMP v2 を使用すると、PyTorch FSDP トレーニングスクリプトを SageMaker AI に持ち込んで、SageMaker AI で最先端の大規模モデルをトレーニングする際の計算性能を向上させることができます。

SMP v2 を使用して、一般的な [SageMaker トレーニング](train-model.md)ジョブや、[Amazon SageMaker HyperPod](sagemaker-hyperpod.md) クラスターでの分散トレーニングワークロードに対応できます。

**Topics**
+ [モデル並列処理の概念](model-parallel-intro-v2.md)
+ [サポートされているフレームワークと AWS リージョン](distributed-model-parallel-support-v2.md)
+ [SageMaker モデル並列処理ライブラリ v2 を使用する](model-parallel-use-api-v2.md)
+ [SageMaker モデル並列処理ライブラリ v2 の主要機能](model-parallel-core-features-v2.md)
+ [Amazon SageMaker AI モデル並列処理ライブラリ v2 の例](distributed-model-parallel-v2-examples.md)
+ [SageMaker 分散モデル並列処理のベストプラクティス](model-parallel-best-practices-v2.md)
+ [SageMaker モデル並列処理ライブラリ v2 のリファレンス](distributed-model-parallel-v2-reference.md)
+ [SageMaker モデル並列処理ライブラリのリリースノート](model-parallel-release-notes.md)
+ [(アーカイブ済み) SageMaker モデル並列処理ライブラリ v1.x](model-parallel.md)