

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# DLAMI 入門
<a name="getting-started"></a>

本指南包含挑選適合您的 DLAMI、選取適合您使用案例和預算的執行個體類型，以及[DLAMI 的相關資訊](resources.md)描述可能感興趣的自訂設定的秘訣。

如果您是初次使用 AWS 或使用 Amazon EC2，請從 開始[使用 Conda 的深度學習 AMI](overview-conda.md)。如果您熟悉 Amazon EC2 和其他 AWS 服務，例如 Amazon EMR、Amazon EFS 或 Amazon S3，並有興趣為需要分散式訓練或推論的專案整合這些服務，請查看[DLAMI 的相關資訊](resources.md)是否有適合您的使用案例。

我們建議您先查看[選擇 DLAMI](choose-dlami.md)，了解哪些執行個體類型可能最適合您的應用程式。

**下一步驟**  
[選擇 DLAMI](choose-dlami.md)

# 選擇 DLAMI
<a name="choose-dlami"></a>

我們提供各種 DLAMI 選項，如 [GPU DLAMI 版本備註](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu)所述。為了協助您為使用案例選取正確的 DLAMI，我們會依其開發的硬體類型或功能來分組映像。我們的頂層分組包括：
+ **DLAMI 類型：**基本、單一影格、多影格 (Conda DLAMI)
+ **運算架構：**x86 型、Arm64-based [AWS Graviton](https://aws.amazon.com/ec2/graviton/)
+ **處理器類型：**[GPU](https://docs.aws.amazon.com/dlami/latest/devguide/gpu)、[CPU](https://docs.aws.amazon.com/dlami/latest/devguide/cpu)、[Inferentia](https://docs.aws.amazon.com/dlami/latest/devguide/inferentia)、 [Trainium](https://docs.aws.amazon.com/dlami/latest/devguide/trainium)
+ **SDK：**[CUDA](https://developer.nvidia.com/cuda-toolkit)、[AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/get-started.html)
+ **作業系統：**Amazon Linux、Ubuntu

本指南中的其餘主題有助於進一步通知您並查看更多詳細資訊。

**Topics**
+ [CUDA 安裝和架構連結](overview-cuda.md)
+ [深度學習基礎 AMI](overview-base.md)
+ [使用 Conda 的深度學習 AMI](overview-conda.md)
+ [DLAMI 架構選項](overview-architecture.md)
+ [DLAMI 作業系統選項](overview-os.md)

**接下來**  
[使用 Conda 的深度學習 AMI](overview-conda.md)

# CUDA 安裝和架構連結
<a name="overview-cuda"></a>

雖然深度學習都相當先進，但每個架構都提供「穩定」版本。這些穩定版本可能無法使用最新的 CUDA 或 cuDNN 實作和功能。您的使用案例和所需的功能可協助您選擇架構。如果您不確定，請搭配 Conda 使用最新的深度學習 AMI。它具有 CUDA `pip` 所有架構的官方二進位檔，使用每個架構支援的最新版本。如果您想要最新版本，以及自訂深度學習環境，請使用 Deep Learning Base AMI。

請查看[穩定與發行候選](overview-conda.md#overview-conda-stability)上的指南，以獲得進一步指導。

## 使用 CUDA 選擇 DLAMI
<a name="cuda-choose"></a>

[深度學習基礎 AMI](overview-base.md) 具有所有可用的 CUDA 版本系列

[使用 Conda 的深度學習 AMI](overview-conda.md) 具有所有可用的 CUDA 版本系列

**注意**  
我們不再在 中包含 MXNet、CNTK、Caffe、Caffe2、Theano、 Chainer 或 Keras Conda 環境 AWS 深度學習 AMIs。

如需特定架構版本號碼，請參閱 [深度學習 AMIs版本備註](appendix-ami-release-notes.md)

選擇此 DLAMI 類型，或使用**下一步**選項進一步了解不同的 DLAMIs。

選擇其中一個 CUDA 版本，並檢閱**附錄**中具有該版本的完整 DLAMIs 清單，或使用 **Next Up** 選項進一步了解不同的 DLAMIs。

**接下來**  
[深度學習基礎 AMI](overview-base.md)

## 相關主題
<a name="cuda-related"></a>
+ 如需在 CUDA 版本間切換的說明，請參閱 [使用深度學習基礎 AMI](tutorial-base.md) 教學課程。

# 深度學習基礎 AMI
<a name="overview-base"></a>

Deep Learning Base AMI 就像深度學習的空白畫布。它隨附您在安裝特定架構之前所需的一切，並可選擇 CUDA 版本。

## 為什麼選擇基本 DLAMI
<a name="base-why"></a>

這個 AMI 群組適合希望延伸深度學習專案和建置最新版本的專案參與者。也適合想開發自己環境的人，並確信最新的 NVIDIA 軟體已安裝和運作，讓他們可以專注在選擇他們要安裝的架構和版本。

選擇此 DLAMI 類型，或使用**下一步**選項進一步了解不同的 DLAMIs。

**接下來**  
[搭配 Conda 的 DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## 相關主題
<a name="base-related"></a>
+ [使用深度學習基礎 AMI](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# 使用 Conda 的深度學習 AMI
<a name="overview-conda"></a>

Conda DLAMI 使用`conda`虛擬環境，它們具有多重架構或單一架構 DLAMIs。這些環境設定為將不同的架構安裝分開，並簡化架構之間的切換。這非常適合學習和實驗 DLAMI 提供的所有架構。大多數使用者發現新的 Deep Learning AMI with Conda 非常適合他們。

它們通常會使用架構的最新版本進行更新，並具有最新的 GPU 驅動程式和軟體。它們通常在大多數文件中稱為 ** AWS 深度學習 AMIs 。這些 DLAMIs支援 Ubuntu 20.04、Ubuntu 22.04、Amazon Linux 2、Amazon Linux 2023 作業系統。作業系統支援取決於上游作業系統的支援。

## 穩定與發行候選
<a name="overview-conda-stability"></a>

Conda AMI 使用每個架構最新正式版本的最佳化二進位程式碼。不預期使用版本候選項目和實驗性功能。最佳化取決於架構對加速技術的支援，例如 Intel 的 MKL DNN，可加速 C5 和 C4 CPU 執行個體類型的訓練和推論。二進位檔也會編譯為支援進階 Intel 指令集，包括但不限於 AVX、AVX-2, SSE4.1 和 SSE4.2。這些項目可加速 Intel CPU 架構上的向量和浮點操作。此外，對於 GPU 執行個體類型，CUDA 和 cuDNN 會以最新官方版本支援的任何版本進行更新。

搭配 Conda 的深度學習 AMI 會在架構第一次啟用時，自動為您的 Amazon EC2 執行個體安裝架構的最最佳化版本。如需詳細資訊，請參閱 [搭配 Conda 使用深度學習 AMI](tutorial-conda.md)。

如果您想要從來源安裝 ，請使用自訂或最佳化建置選項，則 [深度學習基礎 AMI](overview-base.md)可能是更好的選項。

## Python 2 棄用
<a name="overview-conda-python2"></a>

Python 開放原始碼社群已於 2020 年 1 月 1 日正式終止支援 Python 2。TensorFlow 和 PyTorch 社群已宣布 TensorFlow 2.1 和 PyTorch 1.4 版本是支援 Python 2 的最後一個版本。包含 Python 2 Conda 環境的先前 DLAMI 版本 (v26、v25 等） 會繼續提供。不過，只有在開放原始碼社群針對先前發佈的 DLAMI 版本發佈安全性修正時，我們才會提供 Python 2 Conda 環境的更新。具有最新版本 TensorFlow 和 PyTorch 架構的 DLAMI 版本不包含 Python 2 Conda 環境。

## CUDA 支援
<a name="overview-conda-cuda"></a>

您可以在 [GPU DLAMI 版本備註](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu)中找到特定的 CUDA 版本編號。

**接下來**  
[DLAMI 架構選項](overview-architecture.md)

## 相關主題
<a name="conda-related"></a>
+ 如需搭配 Conda 使用深度學習 AMI 的教學課程，請參閱教學[搭配 Conda 使用深度學習 AMI](tutorial-conda.md)課程。

# DLAMI 架構選項
<a name="overview-architecture"></a>

AWS 深度學習 AMIs提供 x86 型或 Arm64-based [AWS Graviton2 ](https://aws.amazon.com/ec2/graviton/)架構。

如需 ARM64 GPU DLAMI 入門的詳細資訊，請參閱 [ARM64 DLAMI](tutorial-arm64.md)。如需可用執行個體類型的詳細資訊，請參閱 [選擇 DLAMI 執行個體類型](instance-select.md)。

**接下來**  
[DLAMI 作業系統選項](overview-os.md)

# DLAMI 作業系統選項
<a name="overview-os"></a>

下列作業系統提供 DLAMIs。
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

舊版的作業系統可在已取代DLAMIs 上使用。如需 DLAMI 棄用的詳細資訊，請參閱 [DLAMI 的棄用](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)

選擇 DLAMI 之前，請評估您需要的執行個體類型，並識別您的 AWS 區域。

**接下來**  
[選擇 DLAMI 執行個體類型](instance-select.md)

# 選擇 DLAMI 執行個體類型
<a name="instance-select"></a>

一般而言，選擇 DLAMI 的執行個體類型時，請考慮下列事項。
+ 如果您是初次使用深度學習，則具有單一 GPU 的執行個體可能符合您的需求。
+ 如果您重視預算，則可以使用僅限 CPU 的執行個體。
+ 如果您想要最佳化深度學習模型推論的高效能和成本效益，則可以搭配AWS Inferentia 晶片使用執行個體。
+ 如果您要尋找具有 Arm64-based CPU 架構的高效能 GPU 執行個體，則可以使用 G5g 執行個體類型。
+  如果您有興趣執行預先訓練的模型以進行推論和預測，則可以將 [Amazon Elastic Inference](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html) 連接至 Amazon EC2 執行個體。Amazon Elastic Inference 可讓您存取 GPU 的一小部分加速器。
+ 對於大量推論服務，具有大量記憶體的單一 CPU 執行個體或這類執行個體的叢集可能是更好的解決方案。
+  如果您使用具有大量資料或高批次大小的大型模型，則需要具有更多記憶體的大型執行個體。您也可以將模型分發到 GPU 叢集。您可能會發現，如果您減少了批次大小，使用具有較少記憶體的執行個體會是更好的解決方案。這可能會影響準確度和訓練速度。
+  如果您有興趣使用需要大規模高階節點間通訊的 NVIDIA Collective Communications Library (NCCL) 來執行機器學習應用程式，建議您使用 [ Elastic Fabric Adapter (EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html)。

如需執行個體的詳細資訊，請參閱 [EC2 執行個體類型](https://aws.amazon.com/ec2/instance-types/)。

下列主題提供執行個體類型考量的相關資訊。

**重要**  
深度學習 AMI 包括由 NVIDIA Corporation 開發、擁有或提供的驅動程式、軟體或工具組。您同意只在包含 NVIDIA 硬體的 Amazon EC2 執行個體上使用這些 NVIDIA 驅動程式、軟體或工具組。

**Topics**
+ [DLAMI 的定價](#pricing)
+ [DLAMI 區域可用性](#region)
+ [建議的 GPU 執行個體](gpu.md)
+ [建議的 CPU 執行個體](cpu.md)
+ [建議的 Inferentia 執行個體](inferentia.md)
+ [建議的 Trainium 執行個體](trainium.md)

## DLAMI 的定價
<a name="pricing"></a>

DLAMI 中包含的深度學習架構是免費的，每個架構都有自己的開放原始碼授權。雖然 DLAMI 中包含的軟體是免費的，您仍然必須支付基礎 Amazon EC2 執行個體硬體的費用。

有些 Amazon EC2 執行個體類型標示為免費。您可以在其中一個免費執行個體上執行 DLAMI。這表示當您只使用該執行個體的容量時，使用 DLAMI 完全免費。如果您需要具有更多 CPU 核心、更多磁碟空間、更多 RAM 或一或多個 GPUs 的更強大執行個體，則需要不在自由層執行個體類別中的執行個體。

如需執行個體選擇和定價的詳細資訊，請參閱 [Amazon EC2 定價](https://aws.amazon.com/ec2/pricing/)。

## DLAMI 區域可用性
<a name="region"></a>

每個區域都支援不同範圍的執行個體類型，而且執行個體類型在不同區域中的成本通常略有不同。並非所有區域都提供 DLAMIs，但可以將 DLAMIs複製到您選擇的區域。如需詳細資訊[，請參閱複製 AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html)。請記下區域選擇清單，並確定您挑選一個靠近您或您的客戶的區域。如果您計劃使用多個 DLAMI 並可能建立叢集，請務必針對叢集中的所有節點使用相同的區域。

如需 區域的詳細資訊，請造訪 [Amazon EC2 服務端點](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region)。

**接下來**  
[建議的 GPU 執行個體](gpu.md)

# 建議的 GPU 執行個體
<a name="gpu"></a>

我們建議將 GPU 執行個體用於大多數深度學習用途。在 GPU 執行個體上訓練新模型的速度比 CPU 執行個體快。當您有多重 GPU 執行個體或想跨多個具 GPU 執行個體使用分散式訓練時，可以用子線性方式擴展。

下列執行個體類型支援 DLAMI。如需 GPU 執行個體類型選項及其使用方式的相關資訊，請參閱 [EC2 執行個體類型](https://aws.amazon.com/ec2/instance-types/)，然後選取**加速運算**。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 P6-B200 執行個體](https://aws.amazon.com/ec2/instance-types/p6/)最多有 8 個 NVIDIA Blackwell B200 GPUs。
+ [Amazon EC2 P6-B300 執行個體](https://aws.amazon.com/ec2/instance-types/p6/)最多有 8 個 NVIDIA Blackwell B300 GPUs。
+ [Amazon EC2 P6e-GB200 執行個體](https://aws.amazon.com/ec2/instance-types/p6/)最多有 4 個 NVIDIA Blackwell GB200 GPUs。
+ [Amazon EC2 P5e 執行個體](https://aws.amazon.com/ec2/instance-types/p5/)最多有 8 個 NVIDIA Tesla H200 GPUs。
+ [Amazon EC2 P5 執行個體](https://aws.amazon.com/ec2/instance-types/p5/)最多有 8 個 NVIDIA Tesla H100 GPUs。
+ [Amazon EC2 P4 執行個體](https://aws.amazon.com/ec2/instance-types/p4/)最多有 8 個 NVIDIA Tesla A100 GPUs。
+ [Amazon EC2 P3 執行個體](https://aws.amazon.com/ec2/instance-types/p3/)最多有 8 個 NVIDIA Tesla V100 GPUs。
+ [Amazon EC2 G3 執行個體](https://aws.amazon.com/ec2/instance-types/g3/)最多有 4 個 NVIDIA Tesla M60 GPUs。
+ [Amazon EC2 G4 執行個體](https://aws.amazon.com/ec2/instance-types/g4/)最多有 4 個 NVIDIA T4 GPUs。
+ [Amazon EC2 G5 執行個體](https://aws.amazon.com/ec2/instance-types/g5/)最多有 8 個 NVIDIA A10G GPUs。
+ [Amazon EC2 G6 執行個體](https://aws.amazon.com/ec2/instance-types/g6/)最多有 8 個 NVIDIA L4 GPUs。
+ [Amazon EC2 G6e 執行個體](https://aws.amazon.com/ec2/instance-types/g6e/)最多有 8 個 NVIDIA L40S Tensor 核心 GPUs。
+ [Amazon EC2 G5g 執行個體](https://aws.amazon.com/ec2/instance-types/g5g/)具有 Arm64-based [AWS Graviton2 處理器](https://aws.amazon.com/ec2/graviton/)。

DLAMI 執行個體提供工具來監控和最佳化 GPU 程序。如需監控 GPU 程序的詳細資訊，請參閱 [GPU 監控和最佳化](tutorial-gpu.md)。

如需使用 G5g 執行個體的特定教學課程，請參閱 [ARM64 DLAMI](tutorial-arm64.md)。

**接下來**  
[建議的 CPU 執行個體](cpu.md)

# 建議的 CPU 執行個體
<a name="cpu"></a>

無論您是預算有限、正在了解深度學習，或是只想要執行預測服務，CPU 類別都提供許多價格合理的選項。有些架構利用 Intel 的 MKL DNN，可加速 C5 （並非所有區域皆提供） CPU 執行個體類型的訓練和推論。如需 CPU 執行個體類型的資訊，請參閱 [EC2 執行個體類型](https://aws.amazon.com/ec2/instance-types/)，然後選取**運算最佳化**。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 C5 執行個體](https://aws.amazon.com/ec2/instance-types/c5/)最多有 72 vCPUs。C5 執行個體擅長科學建模、批次處理、分散式分析、高效能運算 (HPC)，以及機器學習和深度學習推論。

**接下來**  
[建議的 Inferentia 執行個體](inferentia.md)

# 建議的 Inferentia 執行個體
<a name="inferentia"></a>

AWS Inferentia 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體而言，Inf2 執行個體類型使用AWS Inferentia 晶片和 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)，它與 TensorFlow 和 PyTorch 等熱門機器學習架構整合。

客戶可以使用 Inf2 執行個體，以最低的雲端成本執行大規模機器學習推論應用程式，例如搜尋、建議引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 Inf2 執行個體](https://aws.amazon.com/ec2/instance-types/inf2/)最多有 16 AWS個 Inferentia 晶片和 100 Gbps 的網路輸送量。

如需 Inferentia DLAMIs AWS入門的詳細資訊，請參閱 [具有 DLAMI AWS 的 Inferentia Chip](tutorial-inferentia.md)。

**接下來**  
[建議的 Trainium 執行個體](trainium.md)

# 建議的 Trainium 執行個體
<a name="trainium"></a>

AWS Trainium 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體而言，Trn1 執行個體類型使用AWS Trainium 晶片和 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)，它與 TensorFlow 和 PyTorch 等熱門機器學習架構整合。

客戶可以使用 Trn1 執行個體，以最低的雲端成本執行大規模機器學習推論應用程式，例如搜尋、建議引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測。

**注意**  
模型的大小應該是選擇執行個體的因素。如果您的模型超過執行個體的可用 RAM，請為您的應用程式選擇具有足夠記憶體的不同執行個體類型。
+ [Amazon EC2 Trn1 執行個體](https://aws.amazon.com/ec2/instance-types/trn1/)最多有 16 AWS個Trainium 晶片和 100 Gbps 的網路輸送量。

# 搭配 EC2 Image Builder 使用深度學習 AMIs
<a name="using-dlami-with-image-builder"></a>

AWS 深度學習 AMIs(DLAMIs) 現在可在 [EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html) 服務上以 Amazon 受管映像的形式提供。此整合可簡化 DLAMIs做為基礎映像的使用，並確保隨時使用最新版本。

## 可用的 DLAMIs
<a name="available-dlamis"></a>

下列 DLAMIs 可作為 Amazon 受管映像，可在 服務**的影像區段**中找到：
+ [使用單一 CUDA 的基本 AMI (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [使用單一 CUDA 的基本 AMI (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [ARM64 Base AMI 搭配單一 CUDA (Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [ARM64 Base AMI 搭配單一 CUDA (Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[Amazon Managed Deep Learning Base X86 AMI\]](http://docs.aws.amazon.com/zh_tw/dlami/latest/devguide/images/deep-learning-base.png)


![\[Amazon Managed Deep Learning Base ARM64 AMI\]](http://docs.aws.amazon.com/zh_tw/dlami/latest/devguide/images/deep-learning-arm.png)


## 使用 DLAMIs做為基礎映像
<a name="using-dlamis-base-image"></a>

在建立映像配方期間，DLAMIs 可以用作基礎映像。

1. 前往映像建置器主控台

1. 選取**映像配方**

1. 選取**建立映像配方**

1. 在**基礎映像**區段中，選取 **Quick Start (Amazon 受管）**

1. 從下拉式選單中，根據您的**映像作業系統 (OS)** 選擇，選擇其中一個可用的 DLAMIs 
   + 如果選取 **Amazon Linux**：
     + 使用單一 CUDA Amazon Linux 2023 的深度學習基礎 AMI
     + 使用單一 CUDA Amazon Linux 2023 的深度學習 ARM64 基礎 AMI  
![\[為 Amazon Linux 建立映像建置器配方\]](http://docs.aws.amazon.com/zh_tw/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + 如果選取 **Ubuntu**：
     + 深度學習基礎 AMI 搭配單一 CUDA Ubuntu 22-04
     + 使用單一 CUDA Ubuntu 22-04 的深度學習 ARM64 基礎 AMI  
![\[Ubuntu 的映像建置器配方建立\]](http://docs.aws.amazon.com/zh_tw/dlami/latest/devguide/images/image-recipe-creation-ul22.png)