翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker Training Compiler リリースノート
重要
Amazon Web Services (AWS) は、SageMaker Training Compiler の新しいリリースやバージョンがないことを発表しました。SageMaker Training の既存の AWS Deep Learning Containers (DLCs) を通じて、引き続き SageMaker Training Compiler を利用できます。既存の DLCs は引き続きアクセス可能ですが、 AWS Deep Learning Containers Framework サポートポリシーに従って AWS、 からパッチや更新プログラムを受け取ることはできなくなります。
Amazon SageMaker Training Compiler の最新の更新を追跡するには、次のリリースノートを参照してください。
SageMaker Training Compiler リリースノート: 2023 年 2 月 13 日
通貨の更新
PyTorch v1.13.1 のサポートが追加されました
バグ修正
-
Vision Transformer (ViT) モデルなどの一部のモデルで NAN 損失を引き起こしていた GPU の競合状態の問題を修正しました。
その他の変更
-
SageMaker Training Compiler により、
torch.optim
またはtorch_xla.amp.syncfree
(torch_xla.amp.syncfree.SGD
、torch_xla.amp.syncfree.Adam
、torch_xla.amp.syncfree.AdamW
など) の syncfree バージョンを使用するtransformers.optimization
のオプティマイザ (SGD、Adam、AdamW など) が自動的にオーバーライドされ、パフォーマンスが向上します。トレーニングスクリプト内でオプティマイザを定義しているコード行を変更する必要はありません。
深 AWS 層学習コンテナへの移行
このリリースはベンチマークテストに合格し、次の AWS Deep Learning Container に移行されます。
-
PyTorch v1.13.1
763104351884.dkr.ecr.us-west-2.amazonaws.com/pytorch-trcomp-training:1.13.1-gpu-py39-cu117-ubuntu20.04-sagemaker
Amazon SageMaker Training Compiler の事前構築されたコンテナの完全なリストを見つけるには、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。
SageMaker Training Compiler リリースノート: 2023 年 1 月 9 日
重要な変更
-
tf.keras.optimizers.Optimizer
は、TensorFlow 2.11.0 以降の新しいオプティマイザを指すようになりました。古いオプティマイザはtf.keras.optimizers.legacy
に移動しました。次のことを行うと、重要な変更によりジョブにエラーが発生する可能性があります。-
古いオプティマイザからチェックポイントをロードする。レガシーオプティマイザを使用するように切り替えることをお勧めします。
-
TensorFlow v1 を使用する。TensorFlow v2 に移行するか、TensorFlow v1 を引き続き使用する必要がある場合はレガシーオプティマイザに切り替えることをお勧めします。
オプティマイザの変更による重要な変更の詳細なリストについては、「TensorFlow GitHub リポジトリ」の「official TensorFlow v2.11.0 release notes
」を参照してください。 -
深 AWS 層学習コンテナへの移行
このリリースはベンチマークテストに合格し、次の AWS Deep Learning Container に移行されます。
-
TensorFlow v2.11.0
763104351884.dkr.ecr.
<region>
.amazonaws.com/tensorflow-training:2.11.0-gpu-py39-cu112-ubuntu20.04-sagemakerAmazon SageMaker Training Compiler の事前構築されたコンテナの完全なリストを見つけるには、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。
SageMaker Training Compiler リリースノート: 2022 年 12 月 8 日
バグ修正
-
PyTorch v1.12 以降の PyTorch トレーニングジョブのシードを修正して、異なるプロセス間でモデルの初期化に不一致がないようにしました。「PyTorch Reproducibility
」も参照してください。 -
G4dn および G5 インスタンスの PyTorch 分散型トレーニングジョブがデフォルトで PCIe
を介した通信に設定されない問題を修正しました。
既知の問題
-
Hugging Face の Vision Transformers で PyTorch/XLA API を不適切に使用すると、収束の問題が発生する可能性があります。
その他の変更
-
Hugging Face Transformers の
Trainer
クラスを使用するときは、optim
引数をadamw_torch_xla
に設定して SyncFree オプティマイザを使用していることを確認してください。詳細については、「Hugging Face Transformers Trainer クラスを使用する大規模言語モデル」を参照してください。「Hugging Face Transformers のドキュメント」の「Optimizer」も参照してください。
深 AWS 層学習コンテナへの移行
このリリースはベンチマークテストに合格し、次の AWS Deep Learning Container に移行されます。
-
PyTorch v1.12.0
763104351884.dkr.ecr.
<region>
.amazonaws.com/pytorch-trcomp-training:1.12.0-gpu-py38-cu113-ubuntu20.04-sagemakerAmazon SageMaker Training Compiler の事前構築されたコンテナの完全なリストを見つけるには、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。
SageMaker Training Compiler リリースノート: 2022 年 10 月 4 日
通貨の更新
-
TensorFlow v2.10.0 のサポートが追加されました。
その他の変更
-
TensorFlow フレームワークのテストに Transformers ライブラリを使用する Hugging Face NLP モデルが追加されました。テスト済みの Transformer モデルを検索するには、「テスト済みモデル」を参照してください。
深 AWS 層学習コンテナへの移行
このリリースはベンチマークテストに合格し、次の AWS Deep Learning Container に移行されます。
-
TensorFlow v2.10.0
763104351884.dkr.ecr.
<region>
.amazonaws.com/tensorflow-training:2.10.0-gpu-py39-cu112-ubuntu20.04-sagemakerAmazon SageMaker Training Compiler の事前構築されたコンテナの完全なリストを見つけるには、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。
SageMaker Training Compiler リリースノート: 2022 年 9 月 1 日
通貨の更新
-
Hugging Face Transformers v4.21.1 と PyTorch v1.11.0 のサポートが追加されました。
改良点
-
PyTorch を使用する Hugging Face Transformer モデル用の SageMaker Training Compiler をアクティブ化する新しい分散型トレーニングランチャーのメカニズムを実装しました。詳細については、「Run PyTorch Training Jobs with SageMaker Training Compiler for Distributed Training」を参照してください。
-
EFA と統合され、分散型トレーニングにおける集合通信が改善されました。
-
PyTorch トレーニングジョブに対する G5 インスタンスのサポートが追加されました。詳細については、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。
深 AWS 層学習コンテナへの移行
このリリースはベンチマークテストに合格し、次の AWS Deep Learning Container に移行されます。
-
HuggingFace v4.21.1 with PyTorch v1.11.0
763104351884.dkr.ecr.us-west-2.amazonaws.com/huggingface-pytorch-trcomp-training:1.11.0-transformers4.21.1-gpu-py38-cu113-ubuntu20.04
Amazon SageMaker Training Compiler の事前構築されたコンテナの完全なリストを見つけるには、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。
SageMaker Training Compiler リリースノート: 2022 年 6 月 14 日
新機能
-
TensorFlow v2.9.1 のサポートが追加されました。SageMaker Training Compiler は TensorFlow モジュール (
tf.*
) と TensorFlow Keras モジュール (tf.keras.*
) のコンパイルを完全にサポートしています。 -
TensorFlow の AWS 深層学習コンテナを拡張して作成されたカスタムコンテナのサポートを追加しました。詳細については、SageMaker Python SDK を使用して SageMaker Training Compiler を有効にする」およびSageMaker AI Framework Deep Learning Containers を拡張する」を参照してください。
-
TensorFlow トレーニングジョブに対する G5 インスタンスのサポートが追加されました。
深 AWS 層学習コンテナへの移行
このリリースはベンチマークテストに合格し、次の AWS Deep Learning Container に移行されます。
-
TensorFlow 2.9.1
763104351884.dkr.ecr.
<region>
.amazonaws.com/tensorflow-training:2.9.1-gpu-py39-cu112-ubuntu20.04-sagemakerAmazon SageMaker Training Compiler の事前構築されたコンテナの完全なリストを見つけるには、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。
SageMaker Training Compiler リリースノート: 2022 年 4 月 26 日
改良点
-
深層学習コンテナ AWS リージョン が稼働している中国リージョンを除くすべての のサポートが追加されました。 AWS
SageMaker Training Compiler リリースノート: 2022 年 4 月 12 日
通貨の更新
-
TensorFlow v2.6.3 と PyTorch v1.10.2 を使用した Hugging Face Transformers v4.17.0 のサポートを追加しました。
SageMaker Training Compiler リリースノート: 2022 年 2 月 21 日
改良点
-
ベンチマークテストを完了し、
ml.g4dn
インスタンスタイプでのトレーニングのスピードアップを確認しました。テスト済みのml
インスタンスの完全なリストを見つけるには、「サポートされるインスタンスタイプ」を参照してください。
SageMaker Training Compiler リリースノート: 2021 年 12 月 1 日
新機能
AWS re:Invent 2021 で Amazon SageMaker Training Compiler を起動しました。
深 AWS 層学習コンテナへの移行
Amazon SageMaker Training Compiler はベンチマークテストに合格し、 AWS 深層学習コンテナに移行されます。Amazon SageMaker Training Compiler の事前構築されたコンテナの完全なリストを見つけるには、「サポートされているフレームワーク AWS リージョン、インスタンスタイプ、テスト済みモデル」を参照してください。