翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
GPU インスタンスは、深層学習の大半の目的に推奨されます。新しいモデルのトレーニングは CPU インスタンス上よりも GPU インスタンス上の方が高速に実行できます。複数の GPU インスタンスがある場合や、トレーニングを複数の GPU インスタンスに分散した場合は、ほぼ直線的な拡張性を得ることができます。
以下のインスタンスタイプで DLAMI がサポートされています。GPU インスタンスタイプのオプションとその使用方法の詳細については、EC2 インスタンスタイプ
注記
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
-
Amazon EC2 P5e インスタンス
には、NVIDIA Tesla H200 GPU が最大 8 個搭載されます。 -
Amazon EC2 P5 インスタンス
には、NVIDIA Tesla H100 GPU が最大 8 個搭載されます。 -
Amazon EC2 P4 インスタンス
には、NVIDIA Tesla A100 GPU が最大 8 個搭載されます。 Amazon EC2 P3 インスタンス
には、NVIDIA Tesla V100 GPU が最大 8 個搭載されます。 -
Amazon EC2 G3 インスタンス
には、NVIDIA Tesla M60 GPU が最大 4 個搭載されます。 -
Amazon EC2 G4 インスタンス
には、NVIDIA T4 GPU が最大 4 個搭載されます。 -
Amazon EC2 G5 インスタンス
には、NVIDIA A10G GPU が最大 8 個搭載されます。 -
Amazon EC2 G6 インスタンス
には、NVIDIA L4 GPU が最大 8 個搭載されます。 -
Amazon EC2 G6e インスタンス
には、NVIDIA L40S Tensor Core GPU が最大 8 個搭載されます。 -
Amazon EC2 G5g インスタンス
には、Arm64 ベースの AWS Graviton2 プロセッサ が搭載されます。
DLAMI インスタンスでは、GPU プロセスをモニタリングおよび最適化するためのツールが提供されています。GPU プロセスのモニタリングの詳細については、GPU のモニタリングおよび最適化を参照してください。
G5g インスタンスの操作に関する具体的なチュートリアルについては、ARM64 DLAMIを参照してください。