

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# DLAMI 인스턴스 유형 선택
<a name="instance-select"></a>

보다 일반적으로, DLAMI의 인스턴스 유형을 선택할 때는 다음 사항을 고려해야 합니다.
+ 딥 러닝에 익숙하지 않다면 단일 GPU가 있는 인스턴스가 더 적합할 수 있습니다.
+ 예산이 한정되어 있다면 CPU 전용 인스턴스를 사용합니다.
+ 딥 러닝 모델 추론을 위해 고성능 및 비용 효율성을 최적화하려는 경우AWS Inferentia 칩과 함께 인스턴스를 사용할 수 있습니다.
+ Arm64 기반 CPU 아키텍처를 갖춘 고성능 GPU 인스턴스를 찾고 있다면 G5g 인스턴스 유형을 사용합니다.
+  추론 및 예측을 위해 사전 학습된 모델을 실행하려는 경우 [Amazon Elastic Inference](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html)를 Amazon EC2 인스턴스에 연결합니다. Amazon Elastic Inference를 사용하면 GPU보다 훨씬 적은 비용으로 가속기에 액세스할 수 있습니다.
+ 대용량 추론 서비스의 경우 메모리가 많은 단일 CPU 인스턴스 또는 이러한 인스턴스로 구성된 클러스터가 더 나은 솔루션일 수 있습니다.
+  데이터가 많거나 배치 크기가 큰 대형 모델을 사용하는 경우 더 많은 메모리를 가진 더 큰 인스턴스가 필요합니다. 또한 모델을 GPU의 클러스터에 배포할 수도 있습니다. 배치 크기를 줄이는 경우 적은 메모리를 가진 인스턴스를 사용하는 것이 더 나은 방법일 수 있습니다. 이는 정확도 및 훈련 속도에 영향을 줄 수 있습니다.
+  규모에 맞는 높은 수준의 노드 간 통신이 필요한 NCCL(NVIDIA Collective Communications Library)를 사용하여 기계 학습 애플리케이션을 실행하려면 [Elastic Fabric Adapter(EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html)를 사용할 수도 있습니다.

인스턴스에 대한 자세한 내용은 [EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types/)을 참조하세요.

다음 주제에서는 인스턴스 유형 고려 사항에 대한 정보를 제공합니다.

**중요**  
Deep Learning AMI에는 NVIDIA Corporation에서 개발, 소유 또는 제공하는 드라이버, 소프트웨어 또는 도구 키트가 포함되어 있습니다. NVIDIA 드라이버, 소프트웨어 또는 도구 키트를 NVIDIA 하드웨어가 포함된 Amazon EC2 인스턴스에서만 사용하기로 동의합니다.

**Topics**
+ [DLAMI 요금](#pricing)
+ [DLAMI 리전 가용성](#region)
+ [권장 GPU 인스턴스](gpu.md)
+ [권장 CPU 인스턴스](cpu.md)
+ [권장 Inferentia 인스턴스](inferentia.md)
+ [권장 Trainium 인스턴스](trainium.md)

## DLAMI 요금
<a name="pricing"></a>

DLAMI에 포함된 딥 러닝 프레임워크는 무료이며, 각 프레임워크에는 고유한 오픈 소스 라이선스가 있습니다. DLAMI에 포함된 소프트웨어는 무료이지만 기본 Amazon EC2 인스턴스 하드웨어에 대한 비용은 지불해야 합니다.

일부 Amazon EC2 인스턴스 유형은 무료로 제공됩니다. 이러한 무료 인스턴스 중 하나에서 DLAMI를 실행할 수 있습니다. 즉, 인스턴스의 용량만을 사용하는 경우 DLAMI는 완전히 무상으로 제공됩니다. 더 많은 CPU 코어, 디스크 공간, RAM 또는 하나 이상의 GPU를 포함하여 더욱 강력한 인스턴스를 원하는 경우 대부분의 인스턴스가 프리 티어 인스턴스 클래스에 있지 않을 것입니다.

인스턴스 옵션 및 요금에 대한 자세한 내용은 [Amazon EC2 요금](https://aws.amazon.com/ec2/pricing/)을 참조하세요.

## DLAMI 리전 가용성
<a name="region"></a>

각 리전은 다양한 범위의 인스턴스를 지원하며 인스턴스 유형별 비용은 은 리전마다 달라질 수 있습니다. DLAMI는 모든 리전에서 사용 가능한 것은 아니지만 원하는 리전에 DLAMI를 복사하는 것은 가능합니다. 자세한 내용은 [AMI 복사](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html)를 참조하세요. 리전 선택 목록을 참고하고 사용자와 고객에게 가까운 리전을 선택하세요. 하나 이상의 DLAMI를 사용하고 잠재적으로 클러스터를 생성할 계획이 있는 경우 클러스터의 모든 노드에 대해 동일한 리전을 사용해야 합니다.

리전에 대한 자세한 내용은 [Amazon EC2 서비스 엔드포인트](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region)를 참조하세요.

**다음**  
[권장 GPU 인스턴스](gpu.md)

# 권장 GPU 인스턴스
<a name="gpu"></a>

대부분의 딥 러닝 목적에 GPU 인스턴스가 부합합니다. CPU 인스턴스에 비해 GPU 인스턴스에서의 새로운 모델 교육이 더 빠릅니다. 여러 GPU 인스턴스가 있는 경우 또는 GPU를 포함한 여러 인스턴스에 걸쳐 분산 교육을 사용하는 경우 부선형적으로 확장할 수 있습니다.

DLAMI를 지원하는 인스턴스 유형은 아래를 참조하세요. GPU 인스턴스 유형 옵션 및 사용에 대한 자세한 내용은 [EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types/)에서 **가속 컴퓨팅**을 참조하세요.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 P6-B200 인스턴스](https://aws.amazon.com/ec2/instance-types/p6/)에는 최대 8개의 NVIDIA Blackwell B200 GPU가 있습니다.
+ [Amazon EC2 P6-B300 인스턴스](https://aws.amazon.com/ec2/instance-types/p6/)에는 최대 8개의 NVIDIA Blackwell B300 GPUs.
+ [Amazon EC2 P6e-GB200 인스턴스](https://aws.amazon.com/ec2/instance-types/p6/)에는 최대 4개의 NVIDIA Blackwell GB200 GPU가 있습니다.
+ [Amazon EC2 P5e 인스턴스](https://aws.amazon.com/ec2/instance-types/p5/)에는 최대 8개의 NVIDIA Tesla H200 GPU가 있습니다.
+ [Amazon EC2 P5 인스턴스](https://aws.amazon.com/ec2/instance-types/p5/)에는 최대 8개의 NVIDIA Tesla H100 GPU가 있습니다.
+ [Amazon EC2 P4 인스턴스](https://aws.amazon.com/ec2/instance-types/p4/)에는 최대 8개의 NVIDIA Tesla A100 GPU가 있습니다.
+ [Amazon EC2 P3 인스턴스](https://aws.amazon.com/ec2/instance-types/p3/)에는 최대 8개의 NVIDIA Tesla V100 GPU가 있습니다.
+ [Amazon EC2 G3 인스턴스](https://aws.amazon.com/ec2/instance-types/g3/)에는 최대 4개의 NVIDIA Tesla M60 GPU가 있습니다.
+ [Amazon EC2 G4 인스턴스](https://aws.amazon.com/ec2/instance-types/g4/)에는 최대 4개의 NVIDIA T4 GPU가 있습니다.
+ [Amazon EC2 G5 인스턴스](https://aws.amazon.com/ec2/instance-types/g5/)에는 최대 8개의 NVIDIA A10G GPU가 있습니다.
+ [Amazon EC2 G6 인스턴스](https://aws.amazon.com/ec2/instance-types/g6/)에는 최대 8개의 NVIDIA L4 GPU가 있습니다.
+ [Amazon EC2 G6e 인스턴스](https://aws.amazon.com/ec2/instance-types/g6e/)에는 최대 8개의 NVIDIA L40S Tensor Core GPU가 있습니다.
+ [Amazon EC2 G5g 인스턴스](https://aws.amazon.com/ec2/instance-types/g5g/)에는 Arm64 기반 [AWS Graviton2 프로세서](https://aws.amazon.com/ec2/graviton/)가 탑재되어 있습니다.

DLAMI 인스턴스는 GPU 프로세스를 모니터링하고 최적화하는 도구를 제공합니다. GPU 프로세스 모니터링에 대한 자세한 내용은 [GPU 모니터링 및 최적화](tutorial-gpu.md)를 참조하세요.

G5g 인스턴스 사용에 대한 자세한 내용은 [ARM64 DLAMI](tutorial-arm64.md) 자습서를 참조하세요.

**다음**  
[권장 CPU 인스턴스](cpu.md)

# 권장 CPU 인스턴스
<a name="cpu"></a>

예산이 한정적이고, 딥 러닝을 학습 중이거나 예측 서비스를 실행하고자 하는 경우 CPU 범주에 저렴한 옵션이 있습니다. 일부 프레임워크는 Intel의 MKL DNN을 활용합니다. 이는 C5(모든 리전에서 사용 가능하지 않음) CPU 인스턴스 유형의 훈련 및 추론 속도를 높입니다. CPU 인스턴스 유형에 대한 자세한 내용은 [EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types/)에서 **컴퓨팅 최적화**를 참조하세요.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 C5 인스턴스](https://aws.amazon.com/ec2/instance-types/c5/)에는 최대 72개의 Intel vCPU가 있습니다. C5 인스턴스는 과학 모델링, 배치 처리, 분산 분석, 고성능 컴퓨팅(HPC), 기계학습 및 딥 러닝 추론에 있어 뛰어납니다.

**다음**  
[권장 Inferentia 인스턴스](inferentia.md)

# 권장 Inferentia 인스턴스
<a name="inferentia"></a>

AWS Inferentia 인스턴스는 딥 러닝 모델 추론 워크로드에 높은 성능과 비용 효율성을 제공하도록 설계되었습니다. 특히 Inf2 인스턴스 유형은 TensorFlow 및 PyTorch와 같은 인기 있는 기계 학습 프레임워크와 통합된AWS Inferentia 칩 및 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)를 사용합니다.

고객은 Inf2 인스턴스를 사용하여 검색, 추천 엔진, 컴퓨터 비전, 음성 인식, 자연어 처리, 개인화, 사기 탐지와 같은 대규모 기계 학습 추론 애플리케이션을 클라우드에서 최저 비용으로 실행할 수 있습니다.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 Inf2 인스턴스](https://aws.amazon.com/ec2/instance-types/inf2/)에는 최대 16개의AWS Inferentia 칩과 100Gbps의 네트워킹 처리량이 있습니다.

AWS Inferentia DLAMIs[DLAMI를 사용하는 AWS Inferentia 칩](tutorial-inferentia.md).

**다음**  
[권장 Trainium 인스턴스](trainium.md)

# 권장 Trainium 인스턴스
<a name="trainium"></a>

AWS Trainium 인스턴스는 딥 러닝 모델 추론 워크로드에 높은 성능과 비용 효율성을 제공하도록 설계되었습니다. 특히 Trn1 인스턴스 유형은 TensorFlow 및 PyTorch와 같은 인기 있는 기계 학습 프레임워크와 통합된AWS Trainium 칩 및 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)를 사용합니다.

고객은 Trn1 인스턴스를 사용하여 검색, 추천 엔진, 컴퓨터 비전, 음성 인식, 자연어 처리, 개인화, 사기 탐지와 같은 대규모 기계 학습 추론 애플리케이션을 클라우드에서 최저 비용으로 실행할 수 있습니다.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 Trn1 인스턴스](https://aws.amazon.com/ec2/instance-types/trn1/)에는 최대 16개의AWS Trainium 칩과 100Gbps의 네트워킹 처리량이 있습니다.