

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 選擇 DLAMI 執行個體類型
<a name="instance-select"></a>

一般而言，選擇 DLAMI 的執行個體類型時，請考慮下列事項。
+ 如果您是初次使用深度學習，則具有單一 GPU 的執行個體可能符合您的需求。
+ 如果您重視預算，則可以使用僅限 CPU 的執行個體。
+ 如果您想要最佳化深度學習模型推論的高效能和成本效益，則可以搭配AWS Inferentia 晶片使用執行個體。
+ 如果您要尋找具有 Arm64-based CPU 架構的高效能 GPU 執行個體，則可以使用 G5g 執行個體類型。
+  如果您有興趣執行預先訓練的模型以進行推論和預測，則可以將 [Amazon Elastic Inference](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html) 連接至 Amazon EC2 執行個體。Amazon Elastic Inference 可讓您存取 GPU 的一小部分加速器。
+ 對於大量推論服務，具有大量記憶體的單一 CPU 執行個體或這類執行個體的叢集可能是更好的解決方案。
+  如果您使用具有大量資料或高批次大小的大型模型，則需要具有更多記憶體的大型執行個體。您也可以將模型分發到 GPU 叢集。您可能會發現，如果您減少了批次大小，使用具有較少記憶體的執行個體會是更好的解決方案。這可能會影響準確度和訓練速度。
+  如果您有興趣使用需要大規模高階節點間通訊的 NVIDIA Collective Communications Library (NCCL) 來執行機器學習應用程式，建議您使用 [ Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html)。

如需執行個體的詳細資訊，請參閱 [EC2 執行個體類型](https://aws.amazon.com/ec2/instance-types/)。

下列主題提供執行個體類型考量的相關資訊。

**重要**  
深度學習 AMI 包括由 NVIDIA Corporation 開發、擁有或提供的驅動程式、軟體或工具組。您同意只在包含 NVIDIA 硬體的 Amazon EC2 執行個體上使用這些 NVIDIA 驅動程式、軟體或工具組。

**Topics**
+ [DLAMI 的定價](#pricing)
+ [DLAMI 區域可用性](#region)
+ [建議的 GPU 執行個體](gpu.md)
+ [建議的 CPU 執行個體](cpu.md)
+ [建議的 Inferentia 執行個體](inferentia.md)
+ [建議的 Trainium 執行個體](trainium.md)

## DLAMI 的定價
<a name="pricing"></a>

DLAMI 中包含的深度學習架構是免費的，每個架構都有自己的開放原始碼授權。雖然 DLAMI 中包含的軟體是免費的，您仍然必須支付基礎 Amazon EC2 執行個體硬體的費用。

有些 Amazon EC2 執行個體類型標示為免費。您可以在其中一個免費執行個體上執行 DLAMI。這表示當您只使用該執行個體的容量時，使用 DLAMI 完全免費。如果您需要具有更多 CPU 核心、更多磁碟空間、更多 RAM 或一或多個 GPUs 的更強大執行個體，則需要不在自由層執行個體類別中的執行個體。

如需執行個體選擇和定價的詳細資訊，請參閱 [Amazon EC2 定價](https://aws.amazon.com/ec2/pricing/)。

## DLAMI 區域可用性
<a name="region"></a>

每個區域都支援不同範圍的執行個體類型，而且執行個體類型在不同區域中的成本通常略有不同。並非所有區域都提供 DLAMIs，但可以將 DLAMIs複製到您選擇的區域。如需詳細資訊[，請參閱複製 AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html)。請記下區域選擇清單，並確定您挑選一個靠近您或您的客戶的區域。如果您計劃使用多個 DLAMI 並可能建立叢集，請務必針對叢集中的所有節點使用相同的區域。

如需 區域的詳細資訊，請造訪 [Amazon EC2 服務端點](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region)。

**接下來**  
[建議的 GPU 執行個體](gpu.md)

# 建議的 GPU 執行個體
<a name="gpu"></a>

我們建議將 GPU 執行個體用於大多數深度學習用途。在 GPU 執行個體上訓練新模型的速度比 CPU 執行個體快。當您有多重 GPU 執行個體或想跨多個具 GPU 執行個體使用分散式訓練時，可以用子線性方式擴展。

下列執行個體類型支援 DLAMI。如需 GPU 執行個體類型選項及其使用方式的相關資訊，請參閱 [EC2 執行個體類型](https://aws.amazon.com/ec2/instance-types/)，然後選取**加速運算**。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 P6-B200 執行個體](https://aws.amazon.com/ec2/instance-types/p6/)最多有 8 個 NVIDIA Blackwell B200 GPUs。
+ [Amazon EC2 P6-B300 執行個體](https://aws.amazon.com/ec2/instance-types/p6/)最多有 8 個 NVIDIA Blackwell B300 GPUs。
+ [Amazon EC2 P6e-GB200 執行個體](https://aws.amazon.com/ec2/instance-types/p6/)最多有 4 個 NVIDIA Blackwell GB200 GPUs。
+ [Amazon EC2 P5e 執行個體](https://aws.amazon.com/ec2/instance-types/p5/)最多有 8 個 NVIDIA Tesla H200 GPUs。
+ [Amazon EC2 P5 執行個體](https://aws.amazon.com/ec2/instance-types/p5/)最多有 8 個 NVIDIA Tesla H100 GPUs。
+ [Amazon EC2 P4 執行個體](https://aws.amazon.com/ec2/instance-types/p4/)最多有 8 個 NVIDIA Tesla A100 GPUs。
+ [Amazon EC2 P3 執行個體](https://aws.amazon.com/ec2/instance-types/p3/)最多有 8 個 NVIDIA Tesla V100 GPUs。
+ [Amazon EC2 G3 執行個體](https://aws.amazon.com/ec2/instance-types/g3/)最多有 4 個 NVIDIA Tesla M60 GPUs。
+ [Amazon EC2 G4 執行個體](https://aws.amazon.com/ec2/instance-types/g4/)最多有 4 個 NVIDIA T4 GPUs。
+ [Amazon EC2 G5 執行個體](https://aws.amazon.com/ec2/instance-types/g5/)最多有 8 個 NVIDIA A10G GPUs。
+ [Amazon EC2 G6 執行個體](https://aws.amazon.com/ec2/instance-types/g6/)最多有 8 個 NVIDIA L4 GPUs。
+ [Amazon EC2 G6e 執行個體](https://aws.amazon.com/ec2/instance-types/g6e/)最多有 8 個 NVIDIA L40S Tensor 核心 GPUs。
+ [Amazon EC2 G5g 執行個體](https://aws.amazon.com/ec2/instance-types/g5g/)具有 Arm64-based [AWS Graviton2 處理器](https://aws.amazon.com/ec2/graviton/)。

DLAMI 執行個體提供工具來監控和最佳化 GPU 程序。如需監控 GPU 程序的詳細資訊，請參閱 [GPU 監控和最佳化](tutorial-gpu.md)。

如需使用 G5g 執行個體的特定教學課程，請參閱 [ARM64 DLAMI](tutorial-arm64.md)。

**接下來**  
[建議的 CPU 執行個體](cpu.md)

# 建議的 CPU 執行個體
<a name="cpu"></a>

無論您是預算有限、正在了解深度學習，或是只想要執行預測服務，CPU 類別都提供許多價格合理的選項。有些架構利用 Intel 的 MKL DNN，可加速 C5 （並非所有區域皆提供） CPU 執行個體類型的訓練和推論。如需 CPU 執行個體類型的資訊，請參閱 [EC2 執行個體類型](https://aws.amazon.com/ec2/instance-types/)，然後選取**運算最佳化**。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 C5 執行個體](https://aws.amazon.com/ec2/instance-types/c5/)最多有 72 vCPUs。C5 執行個體擅長科學建模、批次處理、分散式分析、高效能運算 (HPC)，以及機器學習和深度學習推論。

**接下來**  
[建議的 Inferentia 執行個體](inferentia.md)

# 建議的 Inferentia 執行個體
<a name="inferentia"></a>

AWS Inferentia 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體而言，Inf2 執行個體類型使用AWS Inferentia 晶片和 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)，它與 TensorFlow 和 PyTorch 等熱門機器學習架構整合。

客戶可以使用 Inf2 執行個體，以最低的雲端成本執行大規模機器學習推論應用程式，例如搜尋、建議引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 Inf2 執行個體](https://aws.amazon.com/ec2/instance-types/inf2/)最多有 16 AWS個 Inferentia 晶片和 100 Gbps 的網路輸送量。

如需 Inferentia DLAMIs AWS入門的詳細資訊，請參閱 [具有 DLAMI AWS 的 Inferentia Chip](tutorial-inferentia.md)。

**接下來**  
[建議的 Trainium 執行個體](trainium.md)

# 建議的 Trainium 執行個體
<a name="trainium"></a>

AWS Trainium 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體而言，Trn1 執行個體類型使用AWS Trainium 晶片和 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)，它與 TensorFlow 和 PyTorch 等熱門機器學習架構整合。

客戶可以使用 Trn1 執行個體，以最低的雲端成本執行大規模機器學習推論應用程式，例如搜尋、建議引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 Trn1 執行個體](https://aws.amazon.com/ec2/instance-types/trn1/)最多有 16 AWS個Trainium 晶片和 100 Gbps 的網路輸送量。