本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
建議的GPU執行個體
我們建議將GPU執行個體用於大多數深度學習用途。在GPU執行個體上訓練新模型的速度比CPU執行個體快。當您有多個GPU執行個體時,或如果您使用 對多個執行個體使用分散式訓練,則可以以子線性方式擴展GPUs。
下列執行個體類型支援 DLAMI。如需GPU執行個體類型選項及其使用方式的相關資訊,請參閱EC2執行個體類型
注意
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM,請選擇具有足夠記憶體的不同執行個體類型,供您的應用程式使用。
-
Amazon EC2 P5e 執行個體
最多有 8 個 NVIDIA Tesla H200GPUs。 -
Amazon EC2 P5 執行個體
最多有 8 個 NVIDIA Tesla H100GPUs。 -
Amazon EC2 P4 執行個體
最多有 8 個 NVIDIA Tesla A100GPUs。 Amazon EC2 P3 執行個體
最多有 8 個 NVIDIA Tesla V100GPUs。 -
Amazon EC2 G3 執行個體
最多有 4 個 NVIDIA Tesla M60 GPUs。 -
Amazon EC2 G4 執行個體
最多有 4 個 NVIDIA T4GPUs。 -
Amazon EC2 G5 執行個體
最多有 8 個 NVIDIA A10GGPUs。 -
Amazon EC2 G6 執行個體
最多有 8 NVIDIA L4。 GPUs -
Amazon EC2 G6e 執行個體
最多有 8 個 NVIDIA L40S Tensor 核心 GPUs。 -
Amazon EC2 G5g 執行個體
具有 Arm64-based AWS Graviton2 處理器 。
DLAMI 執行個體提供工具來監控和最佳化您的GPU程序。如需監控GPU程序的詳細資訊,請參閱 GPU 監控和最佳化。
如需使用 G5g 執行個體的特定教學課程,請參閱 ARM64 DLAMI。