本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
建議的 GPU 執行個體
我們建議將 GPU 執行個體用於大多數深度學習用途。在 GPU 執行個體上訓練新模型的速度比 CPU 執行個體快。當您有多重 GPU 執行個體或想跨多個具 GPU 執行個體使用分散式訓練時,可以用子線性方式擴展。
下列執行個體類型支援 DLAMI。如需 GPU 執行個體類型選項及其使用方式的相關資訊,請參閱 EC2 執行個體類型
注意
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM,請選擇具有足夠記憶體的不同執行個體類型,供您的應用程式使用。
-
Amazon EC2 P5e 執行個體
最多有 8 個 NVIDIA Tesla H200 GPUs。 -
Amazon EC2 P5 執行個體
最多有 8 個 NVIDIA Tesla H100 GPUs。 -
Amazon EC2 P4 執行個體
最多有 8 個 NVIDIA Tesla A100 GPUs。 Amazon EC2 P3 執行個體
最多有 8 個 NVIDIA Tesla V100 GPUs。 -
Amazon EC2 G3 執行個體
最多有 4 個 NVIDIA Tesla M60 GPUs。 -
Amazon EC2 G4 執行個體
最多有 4 個 NVIDIA T4 GPUs。 -
Amazon EC2 G5 執行個體
最多有 8 個 NVIDIA A10G GPUs。 -
Amazon EC2 G6 執行個體
最多有 8 個 NVIDIA L4 GPUs。 -
Amazon EC2 G6e 執行個體
最多有 8 個 NVIDIA L40S Tensor 核心 GPUs。 -
Amazon EC2 G5g 執行個體
具有 Arm64-based AWS Graviton2 處理器 。
DLAMI 執行個體提供工具來監控和最佳化 GPU 程序。如需監控 GPU 程序的詳細資訊,請參閱GPU 監控和最佳化。
如需使用 G5g 執行個體的特定教學課程,請參閱 ARM64 DLAMI。