Conda AMIを使用した深層学習 - AWS Deep Learning AMIs

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Conda AMIを使用した深層学習

Conda はconda仮想環境DLAMIを使用し、マルチフレームワークまたは単一フレームワーク のいずれかがありますDLAMIs。これらの環境は、インストールした異なるフレームワークの独立性が維持され、フレームワーク間の切り替えが合理化されるように設定されます。これは、 DLAMIが提供するすべてのフレームワークを学習し、試すのに最適です。ほとんどのユーザーは、新しい Deep Learning AMI with Conda が最適であると考えています。

フレームワークの最新バージョンで頻繁に更新され、最新のGPUドライバーとソフトウェアがあります。これらは一般的に、ほとんどのドキュメントで AWS Deep Learning AMIs と呼ばれます。これらは Ubuntu 20.04、Amazon Linux 2 オペレーティングシステムDLAMIsをサポートしています。オペレーティングシステムのサポートは、アップストリーム OS のサポートによって異なります。

安定性とリリース候補

Conda は、各フレームワークからの最新の公式リリースの最適化されたバイナリAMIsを使用します。リリース候補および実験的機能は対象外です。最適化は、Intel の MKL などのアクセラレーションテクノロジーに対するフレームワークのサポートに依存します。これによりDNN、C5 および C4 CPUインスタンスタイプのトレーニングと推論が高速化されます。バイナリは、、AVX-2AVX、SSE4.1、.SSE42 を含むがこれらに限定されない高度な Intel 命令セットをサポートするようにコンパイルされます。これにより、Intel CPUアーキテクチャでのベクトルおよび浮動小数点演算が高速化されます。さらに、GPUインスタンスタイプの場合、 CUDAと cuDNN は、最新の公式リリースがサポートするバージョンで更新されます。

Deep Learning AMI with Conda は、フレームワークの最初のアクティベーション時に、Amazon EC2インスタンスの最も最適化されたバージョンのフレームワークを自動的にインストールします。詳細については、「Conda AMIでの Deep Learning の使用」を参照してください。

カスタムまたは最適化されたビルドオプションを使用してソースからインストールする場合は、Deep Learning Base AMI の方が適しています。

Python 2 の廃止

Python オープンソースコミュニティは、Python 2 のサポートを 2020 年 1 月 1 日に正式に終了しました。 TensorFlow および PyTorch コミュニティは、Python TensorFlow 2 をサポートする最後のリリースが 2.1 および PyTorch 1.4 リリースであることを発表しました。Python 2 Conda 環境を含む の以前のリリース DLAMI (v26、v25 など) は引き続き使用できます。ただし、以前に公開されたDLAMIバージョンの Python 2 Conda 環境の更新は、それらのバージョンのオープンソースコミュニティによって公開されたセキュリティ修正がある場合にのみ行われます。DLAMI TensorFlow および PyTorch フレームワークの最新バージョンを持つ リリースには、Python 2 Conda 環境は含まれていません。

CUDA サポート

特定のCUDAバージョン番号は、GPUDLAMIリリースノート に記載されています。

次回の予定

DLAMI アーキテクチャオプション