

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# DLAMI 시작하기
<a name="getting-started"></a>

이 설명서에는 적절한 DLAMI 선택, 사용 사례 및 예산에 맞는 인스턴스 유형 선택에 대한 팁과 유용한 [DLAMI 관련 정보](resources.md) 사용자 지정 설정을 설명합니다.

Amazon EC2를 AWS 처음 사용하거나 사용하는 경우 로 시작합니다[Conda를 사용하는 Deep Learning AMI](overview-conda.md). Amazon EC2 및 Amazon EMR, Amazon EFS 또는 Amazon S3와 같은 기타 AWS 서비스에 익숙하고 분산 훈련 또는 추론이 필요한 프로젝트에 이러한 서비스를 통합하는 데 관심이 있는 경우 사용 사례에 맞는[DLAMI 관련 정보](resources.md)지 확인하세요.

[DLAMI 선택](choose-dlami.md) 단원을 확인하여 어떤 인스턴스 유형이 애플리케이션에 가장 적절한지에 관한 아이디어를 얻는 것이 좋습니다.

**다음 단계**  
[DLAMI 선택](choose-dlami.md)

# DLAMI 선택
<a name="choose-dlami"></a>

[GPU DLAMI 릴리스 정보](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu)에 언급된 대로 다양한 DLAMI 옵션을 제공합니다. 사용 목적에 맞는 올바른 DLAMI를 선택할 수 있도록 개발된 하드웨어 유형 또는 기능별로 이미지를 그룹화합니다. 최상위 그룹 분류는 다음과 같습니다.
+ **DLAMI 유형:** 기본, 단일 프레임워크, 다중 프레임워크(Conda DLAMI)
+ **컴퓨팅 아키텍처:** x86 기반, Arm64 기반 [AWS Graviton](https://aws.amazon.com/ec2/graviton/)
+ **프로세서 유형:** [GPU](https://docs.aws.amazon.com/dlami/latest/devguide/gpu), [CPU](https://docs.aws.amazon.com/dlami/latest/devguide/cpu), [Inferentia](https://docs.aws.amazon.com/dlami/latest/devguide/inferentia), [Trainium](https://docs.aws.amazon.com/dlami/latest/devguide/trainium)
+ **SDK:** [CUDA](https://developer.nvidia.com/cuda-toolkit), [AWS Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/get-started.html)
+ **OS:** Amazon Linux, Ubuntu

이 설명서의 나머지 섹션에서 유용한 세부 정보를 확인하세요.

**Topics**
+ [

# CUDA 설치 및 프레임워크 바인딩
](overview-cuda.md)
+ [

# Deep Learning Base AMI
](overview-base.md)
+ [

# Conda를 사용하는 Deep Learning AMI
](overview-conda.md)
+ [

# DLAMI 아키텍처 옵션
](overview-architecture.md)
+ [

# DLAMI 운영 체제 옵션
](overview-os.md)

**다음**  
[Conda를 사용하는 Deep Learning AMI](overview-conda.md)

# CUDA 설치 및 프레임워크 바인딩
<a name="overview-cuda"></a>

딥 러닝은 매우 최첨단이긴 하지만 각 프레임워크는 "안정적인" 버전을 제공합니다. 안정적인 버전은 최신 CUDA 또는 cuDNN 구현 및 기능을 사용할 수 없을 수 있습니다. 사용 사례와 필요한 기능은 프레임워크를 선택하는 데 도움이 될 수 있습니다. 잘 모르겠으면 Conda를 사용하는 최신 Deep Learning AMI를 사용하세요. 각 프레임워크에서 지원되는 최신 버전을 사용하며 CUDA를 사용하는 모든 프레임워크의 공식 `pip` 바이너리가 있습니다. 최신 버전을 사용하여 딥 러닝 환경을 사용자 지정하려는 경우 Deep Learning Base AMI를 사용하세요.

자세한 내용은 [안정적 후보와 릴리스 후보 비교](overview-conda.md#overview-conda-stability)의 지침을 참조하십시오.

## CUDA를 사용하는 DLAMI 선택
<a name="cuda-choose"></a>

[Deep Learning Base AMI](overview-base.md)에는 사용 가능한 CUDA 버전 시리즈가 모두 있습니다.

[Conda를 사용하는 Deep Learning AMI](overview-conda.md)에는 사용 가능한 CUDA 버전 시리즈가 모두 있습니다.

**참고**  
MXNet, CNTK, Caffe, Caffe2, Theano, Chainer 또는 Keras Conda 환경은 더 이상 AWS Deep Learning AMIs에 포함되지 않습니다.

특정 프레임워크 버전 번호는 [Deep Learning AMI 릴리스 정보](appendix-ami-release-notes.md) 섹션을 참조하세요.

이 DLAMI 유형을 선택하거나 **다음** 옵션에서 다른 DLAMI에 대해 자세히 알아보세요.

CUDA 버전 중 하나를 선택하고 **부록**에서 DLAMI 전체 목록을 확인하거나 **다음** 옵션에서 다른 DLAMI에 대해 자세히 알아보세요.

**다음**  
[Deep Learning Base AMI](overview-base.md)

## 관련 항목
<a name="cuda-related"></a>
+ CUDA 버전 간 전환에 대한 지침은 [Deep Learning Base AMI 사용](tutorial-base.md) 자습서를 참조하세요.

# Deep Learning Base AMI
<a name="overview-base"></a>

Deep Learning Base AMI는 딥 러닝을 위한 빈 캔버스와 같습니다. 특정 프레임워크의 설치 시점까지 필요한 모든 것이 제공되며 사용자가 선택한 CUDA 버전이 제공됩니다.

## Base DLAMI를 선택해야 하는 이유
<a name="base-why"></a>

이 AMI 그룹은 딥 러닝 프로젝트 사용과 최신 빌드를 원하는 프로젝트 기고자에게 유용합니다. 어느 프레임워크 및 버전을 설치하고자 하는지에 집중할 수 있도록 최신 NVIDIA 소프트웨어가 설치되고 실행 중인 고유한 환경을 안심하고 작동시키고자 하는 경우 유용합니다.

이 DLAMI 유형을 선택하거나 **다음** 옵션으로 다른 DLAMI에 대해 자세히 알아보세요.

**다음**  
[Conda를 사용하는 DLAMI](https://docs.aws.amazon.com/dlami/latest/devguide/overview-conda.html)

## 관련 항목
<a name="base-related"></a>
+ [Deep Learning Base AMI 사용](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-base.html)

# Conda를 사용하는 Deep Learning AMI
<a name="overview-conda"></a>

Conda DLAMI는 `conda` 가상 환경을 사용하며 다중 프레임워크 또는 단일 프레임워크 DLAMI가 있습니다. 이러한 환경을 다른 프레임워크 설치를 별도로 유지하고 프레임워크간 전환을 간소화하도록 구성됩니다. DLAMI이 제공해야 하는 모든 프레임워크를 통한 학습 및 실험에 매우 유용합니다. 대부분의 사용자가 Conda를 사용하는 새로운 Deep Learning AMI를 최적으로 생각합니다.

프레임워크로부터 최신 버전이 자주 업데이트되고, 최신 GPU 드라이버 및 소프트웨어를 보유합니다. 일반적으로 대부분 문서에서는 이를 *AWS Deep Learning AMIs*라고 통칭합니다. 이러한 DLAMI는 Ubuntu 20.04, Ubuntu 22.04, Amazon Linux 2, Amazon Linux 2023 운영 체제를 지원합니다. 운영 체제 지원은 업스트림 OS의 지원에 따라 달라집니다.

## 안정적 후보와 릴리스 후보 비교
<a name="overview-conda-stability"></a>

Conda AMI는 각 프레임워크의 최신 공식 릴리스의 최적화된 바이너리를 사용합니다. 릴리스 후보 기능과 시험 사용 기능은 발표 예정이 없습니다. 최적화는 인텔의 MKL DNN과 같은 가속화 기술에 대한 프레임워크의 지원에 따라 다릅니다. 이러한 기술은 C5 및 C4 CPU 인스턴스 유형에서 교육 및 추론 속도를 높입니다. 바이너리 또한 컴파일되어 고급 인텔 명령 세트를 지원합니다. 여기에는 AVX, AVX-2, SSE4.1 및 SSE4.2가 포함되지만 이에 국한되지는 않습니다. 이는 인텔 CPU 아키텍처의 가속 벡터 및 부동 소수점 작업입니다. 추가로 GPU 인스턴스 유형의 경우 CUDA 및 cuDNN이 최신 공식 릴리스 지원으로 업데이트됩니다.

Conda를 사용하는 Deep Learning AMI는 프레임워크의 최초 정품 인증 시 EC2 Amazon 인스턴스에 대한 프레임워크의 가장 최적화된 버전을 설치합니다. 자세한 정보는 [Conda를 사용하는 Deep Learning AMI 사용](tutorial-conda.md) 섹션을 참조하세요.

사용자 지정 옵션이나 최적화된 빌드 옵션으로 소스에서 직접 설치하려는 경우에는 [Deep Learning Base AMI](overview-base.md)가 더 나은 옵션이 될 수도 있습니다.

## Python 2 사용 중단
<a name="overview-conda-python2"></a>

Python 오픈 소스 커뮤니티는 2020년 1월 1일 Python 2에 대한 지원을 공식적으로 종료했습니다. TensorFlow 및 PyTorch 커뮤니티는 TensorFlow 2.1 및 PyTorch 1.4 릴리스가 Python 2를 지원하는 마지막 릴리스라고 공지했습니다. Python 2 Conda 환경을 포함하는 DLAMI(v26, v25 등)의 이전 릴리스는 계속 사용할 수 있습니다. 그러나 이전에 게시된 DLAMI 버전의 Python 2 Conda 환경 업데이트는 해당 버전에 대한 오픈 소스 커뮤니티에서 게시한 보안 수정 사항이 있는 경우에만 제공합니다. TensorFlow 및 PyTorch 프레임워크의 최신 버전이 포함된 DLAMI 릴리스는 Python 2 Conda 환경을 포함하지 않습니다.

## CUDA 지원
<a name="overview-conda-cuda"></a>

구체적인 CUDA 버전 번호는 [GPU DLAMI 릴리스 노트](https://docs.aws.amazon.com/dlami/latest/devguide/appendix-ami-release-notes.html#appendix-ami-release-notes-gpu)에서 확인할 수 있습니다.

**다음**  
[DLAMI 아키텍처 옵션](overview-architecture.md)

## 관련 항목
<a name="conda-related"></a>
+ Conda를 사용하는 Deep Learning AMI를 사용하는 방법은 [Conda를 사용하는 Deep Learning AMI 사용](tutorial-conda.md) 자습서를 참조하세요.

# DLAMI 아키텍처 옵션
<a name="overview-architecture"></a>

AWS Deep Learning AMIs는 x86 기반 또는 Arm64 기반 [AWS Graviton2](https://aws.amazon.com/ec2/graviton/) 아키텍처와 함께 제공됩니다.

ARM64 GPU DLAMI 시작에 대한 자세한 내용은 [ARM64 DLAMI](tutorial-arm64.md)을 참조하세요. 사용 가능한 인스턴스 유형에 대한 자세한 내용은 [DLAMI 인스턴스 유형 선택](instance-select.md)을 참조하세요.

**다음**  
[DLAMI 운영 체제 옵션](overview-os.md)

# DLAMI 운영 체제 옵션
<a name="overview-os"></a>

DLAMI는 다음 운영 체제에서 제공됩니다.
+ Amazon Linux 2
+ Amazon Linux 2023
+ Ubuntu 20.04
+ Ubuntu 22.04

이전 버전의 운영 체제는 더 이상 사용되지 않는 DLAMI에서 사용할 수 있습니다. DLAMI 사용 중단에 대한 자세한 내용은 [DLAMI 사용 중단](https://docs.aws.amazon.com/dlami/latest/devguide/deprecations.html)을 참조하세요.

DLAMI를 선택하기 전에 필요한 인스턴스 유형을 평가하고 AWS 리전을 지정하세요.

**다음**  
[DLAMI 인스턴스 유형 선택](instance-select.md)

# DLAMI 인스턴스 유형 선택
<a name="instance-select"></a>

보다 일반적으로, DLAMI의 인스턴스 유형을 선택할 때는 다음 사항을 고려해야 합니다.
+ 딥 러닝에 익숙하지 않다면 단일 GPU가 있는 인스턴스가 더 적합할 수 있습니다.
+ 예산이 한정되어 있다면 CPU 전용 인스턴스를 사용합니다.
+ 딥 러닝 모델 추론을 위해 고성능 및 비용 효율성을 최적화하려는 경우AWS Inferentia 칩과 함께 인스턴스를 사용할 수 있습니다.
+ Arm64 기반 CPU 아키텍처를 갖춘 고성능 GPU 인스턴스를 찾고 있다면 G5g 인스턴스 유형을 사용합니다.
+  추론 및 예측을 위해 사전 학습된 모델을 실행하려는 경우 [Amazon Elastic Inference](https://docs.aws.amazon.com/elastic-inference/latest/developerguide/what-is-ei.html)를 Amazon EC2 인스턴스에 연결합니다. Amazon Elastic Inference를 사용하면 GPU보다 훨씬 적은 비용으로 가속기에 액세스할 수 있습니다.
+ 대용량 추론 서비스의 경우 메모리가 많은 단일 CPU 인스턴스 또는 이러한 인스턴스로 구성된 클러스터가 더 나은 솔루션일 수 있습니다.
+  데이터가 많거나 배치 크기가 큰 대형 모델을 사용하는 경우 더 많은 메모리를 가진 더 큰 인스턴스가 필요합니다. 또한 모델을 GPU의 클러스터에 배포할 수도 있습니다. 배치 크기를 줄이는 경우 적은 메모리를 가진 인스턴스를 사용하는 것이 더 나은 방법일 수 있습니다. 이는 정확도 및 훈련 속도에 영향을 줄 수 있습니다.
+  규모에 맞는 높은 수준의 노드 간 통신이 필요한 NCCL(NVIDIA Collective Communications Library)를 사용하여 기계 학습 애플리케이션을 실행하려면 [Elastic Fabric Adapter(EFA)](https://docs.aws.amazon.com/dlami/latest/devguide/tutorial-efa-launching.html)를 사용할 수도 있습니다.

인스턴스에 대한 자세한 내용은 [EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types/)을 참조하세요.

다음 주제에서는 인스턴스 유형 고려 사항에 대한 정보를 제공합니다.

**중요**  
Deep Learning AMI에는 NVIDIA Corporation에서 개발, 소유 또는 제공하는 드라이버, 소프트웨어 또는 도구 키트가 포함되어 있습니다. NVIDIA 드라이버, 소프트웨어 또는 도구 키트를 NVIDIA 하드웨어가 포함된 Amazon EC2 인스턴스에서만 사용하기로 동의합니다.

**Topics**
+ [

## DLAMI 요금
](#pricing)
+ [

## DLAMI 리전 가용성
](#region)
+ [

# 권장 GPU 인스턴스
](gpu.md)
+ [

# 권장 CPU 인스턴스
](cpu.md)
+ [

# 권장 Inferentia 인스턴스
](inferentia.md)
+ [

# 권장 Trainium 인스턴스
](trainium.md)

## DLAMI 요금
<a name="pricing"></a>

DLAMI에 포함된 딥 러닝 프레임워크는 무료이며, 각 프레임워크에는 고유한 오픈 소스 라이선스가 있습니다. DLAMI에 포함된 소프트웨어는 무료이지만 기본 Amazon EC2 인스턴스 하드웨어에 대한 비용은 지불해야 합니다.

일부 Amazon EC2 인스턴스 유형은 무료로 제공됩니다. 이러한 무료 인스턴스 중 하나에서 DLAMI를 실행할 수 있습니다. 즉, 인스턴스의 용량만을 사용하는 경우 DLAMI는 완전히 무상으로 제공됩니다. 더 많은 CPU 코어, 디스크 공간, RAM 또는 하나 이상의 GPU를 포함하여 더욱 강력한 인스턴스를 원하는 경우 대부분의 인스턴스가 프리 티어 인스턴스 클래스에 있지 않을 것입니다.

인스턴스 옵션 및 요금에 대한 자세한 내용은 [Amazon EC2 요금](https://aws.amazon.com/ec2/pricing/)을 참조하세요.

## DLAMI 리전 가용성
<a name="region"></a>

각 리전은 다양한 범위의 인스턴스를 지원하며 인스턴스 유형별 비용은 은 리전마다 달라질 수 있습니다. DLAMI는 모든 리전에서 사용 가능한 것은 아니지만 원하는 리전에 DLAMI를 복사하는 것은 가능합니다. 자세한 내용은 [AMI 복사](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/CopyingAMIs.html)를 참조하세요. 리전 선택 목록을 참고하고 사용자와 고객에게 가까운 리전을 선택하세요. 하나 이상의 DLAMI를 사용하고 잠재적으로 클러스터를 생성할 계획이 있는 경우 클러스터의 모든 노드에 대해 동일한 리전을 사용해야 합니다.

리전에 대한 자세한 내용은 [Amazon EC2 서비스 엔드포인트](https://docs.aws.amazon.com/general/latest/gr/ec2-service.html#ec2_region)를 참조하세요.

**다음**  
[권장 GPU 인스턴스](gpu.md)

# 권장 GPU 인스턴스
<a name="gpu"></a>

대부분의 딥 러닝 목적에 GPU 인스턴스가 부합합니다. CPU 인스턴스에 비해 GPU 인스턴스에서의 새로운 모델 교육이 더 빠릅니다. 여러 GPU 인스턴스가 있는 경우 또는 GPU를 포함한 여러 인스턴스에 걸쳐 분산 교육을 사용하는 경우 부선형적으로 확장할 수 있습니다.

DLAMI를 지원하는 인스턴스 유형은 아래를 참조하세요. GPU 인스턴스 유형 옵션 및 사용에 대한 자세한 내용은 [EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types/)에서 **가속 컴퓨팅**을 참조하세요.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 P6-B200 인스턴스](https://aws.amazon.com/ec2/instance-types/p6/)에는 최대 8개의 NVIDIA Blackwell B200 GPU가 있습니다.
+ [Amazon EC2 P6-B300 인스턴스](https://aws.amazon.com/ec2/instance-types/p6/)에는 최대 8개의 NVIDIA Blackwell B300 GPUs.
+ [Amazon EC2 P6e-GB200 인스턴스](https://aws.amazon.com/ec2/instance-types/p6/)에는 최대 4개의 NVIDIA Blackwell GB200 GPU가 있습니다.
+ [Amazon EC2 P5e 인스턴스](https://aws.amazon.com/ec2/instance-types/p5/)에는 최대 8개의 NVIDIA Tesla H200 GPU가 있습니다.
+ [Amazon EC2 P5 인스턴스](https://aws.amazon.com/ec2/instance-types/p5/)에는 최대 8개의 NVIDIA Tesla H100 GPU가 있습니다.
+ [Amazon EC2 P4 인스턴스](https://aws.amazon.com/ec2/instance-types/p4/)에는 최대 8개의 NVIDIA Tesla A100 GPU가 있습니다.
+ [Amazon EC2 P3 인스턴스](https://aws.amazon.com/ec2/instance-types/p3/)에는 최대 8개의 NVIDIA Tesla V100 GPU가 있습니다.
+ [Amazon EC2 G3 인스턴스](https://aws.amazon.com/ec2/instance-types/g3/)에는 최대 4개의 NVIDIA Tesla M60 GPU가 있습니다.
+ [Amazon EC2 G4 인스턴스](https://aws.amazon.com/ec2/instance-types/g4/)에는 최대 4개의 NVIDIA T4 GPU가 있습니다.
+ [Amazon EC2 G5 인스턴스](https://aws.amazon.com/ec2/instance-types/g5/)에는 최대 8개의 NVIDIA A10G GPU가 있습니다.
+ [Amazon EC2 G6 인스턴스](https://aws.amazon.com/ec2/instance-types/g6/)에는 최대 8개의 NVIDIA L4 GPU가 있습니다.
+ [Amazon EC2 G6e 인스턴스](https://aws.amazon.com/ec2/instance-types/g6e/)에는 최대 8개의 NVIDIA L40S Tensor Core GPU가 있습니다.
+ [Amazon EC2 G5g 인스턴스](https://aws.amazon.com/ec2/instance-types/g5g/)에는 Arm64 기반 [AWS Graviton2 프로세서](https://aws.amazon.com/ec2/graviton/)가 탑재되어 있습니다.

DLAMI 인스턴스는 GPU 프로세스를 모니터링하고 최적화하는 도구를 제공합니다. GPU 프로세스 모니터링에 대한 자세한 내용은 [GPU 모니터링 및 최적화](tutorial-gpu.md)를 참조하세요.

G5g 인스턴스 사용에 대한 자세한 내용은 [ARM64 DLAMI](tutorial-arm64.md) 자습서를 참조하세요.

**다음**  
[권장 CPU 인스턴스](cpu.md)

# 권장 CPU 인스턴스
<a name="cpu"></a>

예산이 한정적이고, 딥 러닝을 학습 중이거나 예측 서비스를 실행하고자 하는 경우 CPU 범주에 저렴한 옵션이 있습니다. 일부 프레임워크는 Intel의 MKL DNN을 활용합니다. 이는 C5(모든 리전에서 사용 가능하지 않음) CPU 인스턴스 유형의 훈련 및 추론 속도를 높입니다. CPU 인스턴스 유형에 대한 자세한 내용은 [EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types/)에서 **컴퓨팅 최적화**를 참조하세요.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 C5 인스턴스](https://aws.amazon.com/ec2/instance-types/c5/)에는 최대 72개의 Intel vCPU가 있습니다. C5 인스턴스는 과학 모델링, 배치 처리, 분산 분석, 고성능 컴퓨팅(HPC), 기계학습 및 딥 러닝 추론에 있어 뛰어납니다.

**다음**  
[권장 Inferentia 인스턴스](inferentia.md)

# 권장 Inferentia 인스턴스
<a name="inferentia"></a>

AWS Inferentia 인스턴스는 딥 러닝 모델 추론 워크로드에 높은 성능과 비용 효율성을 제공하도록 설계되었습니다. 특히 Inf2 인스턴스 유형은 TensorFlow 및 PyTorch와 같은 인기 있는 기계 학습 프레임워크와 통합된AWS Inferentia 칩 및 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)를 사용합니다.

고객은 Inf2 인스턴스를 사용하여 검색, 추천 엔진, 컴퓨터 비전, 음성 인식, 자연어 처리, 개인화, 사기 탐지와 같은 대규모 기계 학습 추론 애플리케이션을 클라우드에서 최저 비용으로 실행할 수 있습니다.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 Inf2 인스턴스](https://aws.amazon.com/ec2/instance-types/inf2/)에는 최대 16개의AWS Inferentia 칩과 100Gbps의 네트워킹 처리량이 있습니다.

AWS Inferentia DLAMIs[DLAMI를 사용하는 AWS Inferentia 칩](tutorial-inferentia.md).

**다음**  
[권장 Trainium 인스턴스](trainium.md)

# 권장 Trainium 인스턴스
<a name="trainium"></a>

AWS Trainium 인스턴스는 딥 러닝 모델 추론 워크로드에 높은 성능과 비용 효율성을 제공하도록 설계되었습니다. 특히 Trn1 인스턴스 유형은 TensorFlow 및 PyTorch와 같은 인기 있는 기계 학습 프레임워크와 통합된AWS Trainium 칩 및 [AWS Neuron SDK](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/)를 사용합니다.

고객은 Trn1 인스턴스를 사용하여 검색, 추천 엔진, 컴퓨터 비전, 음성 인식, 자연어 처리, 개인화, 사기 탐지와 같은 대규모 기계 학습 추론 애플리케이션을 클라우드에서 최저 비용으로 실행할 수 있습니다.

**참고**  
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
+ [Amazon EC2 Trn1 인스턴스](https://aws.amazon.com/ec2/instance-types/trn1/)에는 최대 16개의AWS Trainium 칩과 100Gbps의 네트워킹 처리량이 있습니다.

# EC2 Image Builder에서 딥 러닝 AMIs 사용
<a name="using-dlami-with-image-builder"></a>

AWS 이제 딥 러닝 AMIs(DLAMIs)를 [EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/what-is-image-builder.html) 서비스에서 Amazon 관리형 이미지로 사용할 수 있습니다. 이 통합DLAMIs를 기본 이미지로 사용하는 것을 간소화하고 언제든지 최신 버전이 사용되도록 합니다.

## 사용 가능한 DLAMIs
<a name="available-dlamis"></a>

다음 DLAMIs 서비스의 이미지 **섹션에 있는 Amazon 관리형 이미지**로 사용할 수 있습니다.
+ [단일 CUDA를 사용하는 기본 AMI(Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [단일 CUDA를 사용하는 기본 AMI(Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-x86-base-with-single-cuda-ami-ubuntu-22-04.html)
+ [단일 CUDA를 사용하는 ARM64 기본 AMI(Amazon Linux 2023)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-amazon-linux-2023.html)
+ [단일 CUDA를 사용하는 ARM64 기본 AMI(Ubuntu 22.04)](https://docs.aws.amazon.com/dlami/latest/devguide/aws-deep-learning-arm64-base-with-single-cuda-ami-ubuntu-22-04.html)

![\[Amazon Managed Deep Learning Base X86 AMI\]](http://docs.aws.amazon.com/ko_kr/dlami/latest/devguide/images/deep-learning-base.png)


![\[Amazon Managed Deep Learning Base ARM64 AMI\]](http://docs.aws.amazon.com/ko_kr/dlami/latest/devguide/images/deep-learning-arm.png)


## DLAMIs 기본 이미지로 사용
<a name="using-dlamis-base-image"></a>

DLAMIs 이미지 레시피 생성 중에 기본 이미지로 사용할 수 있습니다.

1. Image Builder 콘솔로 이동

1. **이미지 레시피** 선택

1. **이미지 레시피 생성을** 선택합니다.

1. **기본 이미지** 섹션에서 **빠른 시작(Amazon 관리형)**을 선택합니다.

1. 드롭다운 메뉴에서 **이미지 운영 체제(OS)** 선택에 따라 사용 가능한 DLAMIs 중 하나를 선택합니다.
   + **Amazon Linux**를 선택한 경우:
     + 단일 CUDA Amazon Linux 2023을 사용하는 딥 러닝 기본 AMI
     + 단일 CUDA Amazon Linux 2023을 사용하는 딥 러닝 ARM64 기본 AMI  
![\[Amazon Linux용 Image Builder 레시피 생성\]](http://docs.aws.amazon.com/ko_kr/dlami/latest/devguide/images/image-recipe-creation-al2023.png)
   + **Ubuntu**를 선택한 경우:
     + 단일 CUDA Ubuntu 22-04를 사용하는 딥 러닝 기본 AMI
     + 단일 CUDA Ubuntu 22-04를 사용하는 딥 러닝 ARM64 기본 AMI  
![\[Ubuntu용 Image Builder 레시피 생성\]](http://docs.aws.amazon.com/ko_kr/dlami/latest/devguide/images/image-recipe-creation-ul22.png)