

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 推奨 GPU インスタンス
<a name="gpu"></a>

GPU インスタンスは、深層学習の大半の目的に推奨されます。新しいモデルのトレーニングは CPU インスタンス上よりも GPU インスタンス上の方が高速に実行できます。複数の GPU インスタンスがある場合や、トレーニングを複数の GPU インスタンスに分散した場合は、ほぼ直線的な拡張性を得ることができます。

以下のインスタンスタイプで DLAMI がサポートされています。GPU インスタンスタイプのオプションとその使用方法の詳細については、[EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types/)を参照し、**高速コンピューティング**を選択してください。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 P6-B200 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、NVIDIA Blackwell B200 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P6-B300 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、最大 8 つの NVIDIA Blackwell B300 GPUs。
+ [Amazon EC2 P6e-GB200 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、NVIDIA Blackwell GB200 GPU が最大 4 個搭載されます。
+ [Amazon EC2 P5e インスタンス](https://aws.amazon.com/ec2/instance-types/p5/)には、NVIDIA Tesla H200 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P5 インスタンス](https://aws.amazon.com/ec2/instance-types/p5/)には、NVIDIA Tesla H100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P4 インスタンス](https://aws.amazon.com/ec2/instance-types/p4/)には、NVIDIA Tesla A100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P3 インスタンス](https://aws.amazon.com/ec2/instance-types/p3/)には、NVIDIA Tesla V100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 G3 インスタンス](https://aws.amazon.com/ec2/instance-types/g3/)には、NVIDIA Tesla M60 GPU が最大 4 個搭載されます。
+ [Amazon EC2 G4 インスタンス](https://aws.amazon.com/ec2/instance-types/g4/)には、NVIDIA T4 GPU が最大 4 個搭載されます。
+ [Amazon EC2 G5 インスタンス](https://aws.amazon.com/ec2/instance-types/g5/)には、NVIDIA A10G GPU が最大 8 個搭載されます。
+ [Amazon EC2 G6 インスタンス](https://aws.amazon.com/ec2/instance-types/g6/)には、NVIDIA L4 GPU が最大 8 個搭載されます。
+ [Amazon EC2 G6e インスタンス](https://aws.amazon.com/ec2/instance-types/g6e/)には、NVIDIA L40S Tensor Core GPU が最大 8 個搭載されます。
+ [Amazon EC2 G5g インスタンス](https://aws.amazon.com/ec2/instance-types/g5g/)には、Arm64 ベースの [AWS Graviton2 プロセッサ](https://aws.amazon.com/ec2/graviton/)が搭載されます。

DLAMI インスタンスでは、GPU プロセスをモニタリングおよび最適化するためのツールが提供されています。GPU プロセスのモニタリングの詳細については、[GPU のモニタリングおよび最適化](tutorial-gpu.md)を参照してください。

G5g インスタンスの操作に関する具体的なチュートリアルについては、[ARM64 DLAMI](tutorial-arm64.md)を参照してください。

**次回の予定**  
[推奨 CPU インスタンス](cpu.md)