

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# DLAMI インスタンスタイプの選択
<a name="instance-select"></a>

一般的に、DLAMI のインスタンスタイプを選択するときは、次の点を考慮してください。
+ 深層学習を初めて導入する場合は、GPU が 1 個搭載のインスタンスがニーズに合っている可能性があります。
+ 予算重視の場合は、CPU のみのインスタンスを使用できます。
+ 深層学習モデル推論の高パフォーマンスとコスト効率を最適化する場合は、AWS Inferentia チップでインスタンスを使用できます。
+ Arm64 ベースの CPU アーキテクチャを備えた高いパフォーマンスの GPU インスタンスをお探しなら、G5g インスタンスタイプを使用できます。
+  推論と予測用に事前トレーニング済みモデルを実行することに興味がある場合は、[Amazon Elastic Inference](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html) を Amazon EC2 インスタンスにアタッチできます。Amazon Elastic Inference では、GPU の一部を利用したアクセラレーターにアクセスできます。
+ 大容量の推論サービスの場合は、大容量のメモリを搭載した 1 つの CPU インスタンス、またはそのようなインスタンスのクラスターが、より適したソリューションになることがあります。
+  大量のデータまたは大きなバッチサイズを持つ大規模なモデルを使用している場合は、より多くのメモリを持つより大きなインスタンスが必要になります。モデルを GPU のクラスターに配布することもできます。バッチサイズを小さくした場合、メモリの少ないインスタンスを使用すると改善されることがあります。これは、精度とトレーニング速度に影響を与える可能性があります。
+  大規模で高レベルのノード間通信を必要とする NVIDIA Collective Communications Library (NCCL) を使用した機械学習アプリケーションの実行に関心がある場合は、[Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html) を使用できます。

インスタンスの詳細については、[EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types/)を参照してください。

次のトピックでは、インスタンスタイプに関する考慮事項について説明します。

**重要**  
ディープラーニング AMI には、ドライバ、ソフトウェアやツールキット (NVIDIA Corporation によって開発、所有あるいは提供) が含まれています。これらの NVIDIA ドライバ、ソフトウェア、ツールキットは、NVIDIA ハードウェアが含まれている Amazon EC2 インスタンスでのみ使用することにユーザーが同意するものとします。

**Topics**
+ [DLAMI の価格設定](#pricing)
+ [DLAMI で利用可能なリージョン](#region)
+ [推奨 GPU インスタンス](gpu.md)
+ [推奨 CPU インスタンス](cpu.md)
+ [推奨 Inferentia インスタンス](inferentia.md)
+ [推奨 Trainium インスタンス](trainium.md)

## DLAMI の価格設定
<a name="pricing"></a>

DLAMI に含まれている深層学習フレームワークは無料で、それぞれに独自のオープンソースライセンスが付与されています。DLAMI に含まれているソフトウェアは無料ですが、基盤となる Amazon EC2 インスタンスハードウェアの料金を支払う必要があります。

Amazon EC2 インスタンスタイプには無料とされているものがあります。そうした無料のインスタンスのいずれかで DLAMI を実行できます。これは、そのインスタンスの容量だけを使う場合は、DLAMI の使用が完全に無料という意味です。CPU コア数を増やす、ディスク容量を増やす、RAM を増やす、GPU を 1 つ以上使用するなど、より強力なインスタンスが必要な場合は、無料利用枠のインスタンスクラス以外のインスタンスが必要になります。

インスタンスの選択と料金の詳細については、「[Amazon EC2 料金表](https://aws.amazon.com/ec2/pricing/)」を参照してください。

## DLAMI で利用可能なリージョン
<a name="region"></a>

各リージョンでサポートされるインスタンスタイプの範囲はそれぞれ異なり、多くの場合、インスタンスタイプのコストもリージョンごとにわずかに違います。DLAMI を利用できないリージョンはありますが、選択したリージョンに DLAMI をコピーすることは可能です。詳細については、[AMI のコピー](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html)を参照してください。リージョンの選択リストを確認し、必ず自社または自社の顧客に近いリージョンを選択してください。複数の DLAMI を使用する予定があり、クラスターを作成する可能性がある場合は、クラスター内のすべてのノードに同じリージョンを使う必要があります。

リージョンの詳細については、「 [Amazon EC2 service endpoints](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region)」を参照してください。

**次回の予定**  
[推奨 GPU インスタンス](gpu.md)

# 推奨 GPU インスタンス
<a name="gpu"></a>

GPU インスタンスは、深層学習の大半の目的に推奨されます。新しいモデルのトレーニングは CPU インスタンス上よりも GPU インスタンス上の方が高速に実行できます。複数の GPU インスタンスがある場合や、トレーニングを複数の GPU インスタンスに分散した場合は、ほぼ直線的な拡張性を得ることができます。

以下のインスタンスタイプで DLAMI がサポートされています。GPU インスタンスタイプのオプションとその使用方法の詳細については、[EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types/)を参照し、**高速コンピューティング**を選択してください。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 P6-B200 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、NVIDIA Blackwell B200 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P6-B300 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、最大 8 つの NVIDIA Blackwell B300 GPUs。
+ [Amazon EC2 P6e-GB200 インスタンス](https://aws.amazon.com/ec2/instance-types/p6/)には、NVIDIA Blackwell GB200 GPU が最大 4 個搭載されます。
+ [Amazon EC2 P5e インスタンス](https://aws.amazon.com/ec2/instance-types/p5/)には、NVIDIA Tesla H200 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P5 インスタンス](https://aws.amazon.com/ec2/instance-types/p5/)には、NVIDIA Tesla H100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P4 インスタンス](https://aws.amazon.com/ec2/instance-types/p4/)には、NVIDIA Tesla A100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 P3 インスタンス](https://aws.amazon.com/ec2/instance-types/p3/)には、NVIDIA Tesla V100 GPU が最大 8 個搭載されます。
+ [Amazon EC2 G3 インスタンス](https://aws.amazon.com/ec2/instance-types/g3/)には、NVIDIA Tesla M60 GPU が最大 4 個搭載されます。
+ [Amazon EC2 G4 インスタンス](https://aws.amazon.com/ec2/instance-types/g4/)には、NVIDIA T4 GPU が最大 4 個搭載されます。
+ [Amazon EC2 G5 インスタンス](https://aws.amazon.com/ec2/instance-types/g5/)には、NVIDIA A10G GPU が最大 8 個搭載されます。
+ [Amazon EC2 G6 インスタンス](https://aws.amazon.com/ec2/instance-types/g6/)には、NVIDIA L4 GPU が最大 8 個搭載されます。
+ [Amazon EC2 G6e インスタンス](https://aws.amazon.com/ec2/instance-types/g6e/)には、NVIDIA L40S Tensor Core GPU が最大 8 個搭載されます。
+ [Amazon EC2 G5g インスタンス](https://aws.amazon.com/ec2/instance-types/g5g/)には、Arm64 ベースの [AWS Graviton2 プロセッサ](https://aws.amazon.com/ec2/graviton/)が搭載されます。

DLAMI インスタンスでは、GPU プロセスをモニタリングおよび最適化するためのツールが提供されています。GPU プロセスのモニタリングの詳細については、[GPU のモニタリングおよび最適化](tutorial-gpu.md)を参照してください。

G5g インスタンスの操作に関する具体的なチュートリアルについては、[ARM64 DLAMI](tutorial-arm64.md)を参照してください。

**次回の予定**  
[推奨 CPU インスタンス](cpu.md)

# 推奨 CPU インスタンス
<a name="cpu"></a>

予算に制約がある場合、ディープラーニングを学習する目的の場合、または予測サービスの実行が唯一の目的である場合は、CPU のカテゴリに数多くの低価格な選択肢があります。一部のフレームワークは、C5 (一部のリージョンでのみ使用可) CPU インスタンスタイプにおけるトレーニングと推定を高速化する Intel の MKL DNN を活用しています。CPU インスタンスタイプの詳細については、[EC2 インスタンスタイプ](https://aws.amazon.com/ec2/instance-types/)を参照し、**コンピューティング最適化**を選択してください。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 C5 インスタンス](https://aws.amazon.com/ec2/instance-types/c5/)には最大 72 個のインテル vCPU があります。C5 インスタンスは、科学モデリング、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、機械学習/深層学習による推論などに優れています。

**次回の予定**  
[推奨 Inferentia インスタンス](inferentia.md)

# 推奨 Inferentia インスタンス
<a name="inferentia"></a>

AWS Inferentia インスタンスは、深層学習モデル推論ワークロードに高いパフォーマンスとコスト効率を提供するように設計されています。具体的には、Inf2 インスタンスタイプはAWS Inferentia チップと [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/) を使用します。これは TensorFlow や PyTorch などの一般的な機械学習フレームワークと統合されています。

お客様は Inf2 インスタンスを使用して、検索、レコメンデーションエンジン、コンピュータビジョン、音声認識、自然言語処理、パーソナライゼーション、不正検出などの大規模な機械学習推論アプリケーションをクラウド内で低コストで実行できます。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 Inf2 インスタンス](https://aws.amazon.com/ec2/instance-types/inf2/)には、最大 16 個のAWS Inferentia チップと 100 Gbps のネットワークスループットがあります。

AWS Inferentia DLAMIs「」を参照してください[DLAMI を使用した AWS Inferentia チップ](tutorial-inferentia.md)。

**次回の予定**  
[推奨 Trainium インスタンス](trainium.md)

# 推奨 Trainium インスタンス
<a name="trainium"></a>

AWS Trainium インスタンスは、深層学習モデル推論ワークロードに高いパフォーマンスとコスト効率を提供するように設計されています。具体的には、Trn1 インスタンスタイプはAWS Trainium チップと [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/) を使用します。これは TensorFlow や PyTorch などの一般的な機械学習フレームワークと統合されています。

お客様は Trn1 インスタンスを使用して、検索、レコメンデーションエンジン、コンピュータビジョン、音声認識、自然言語処理、パーソナライゼーション、不正検出などの大規模な機械学習推論アプリケーションをクラウド内で低コストで実行できます。

**注記**  
モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。
+ [Amazon EC2 Trn1 インスタンス](https://aws.amazon.com/ec2/instance-types/trn1/)には、最大 16 AWS Trainium チップと 100 Gbps のネットワークスループットがあります。