기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
대부분의 딥 러닝 목적에 GPU 인스턴스가 부합합니다. CPU 인스턴스에 비해 GPU 인스턴스에서의 새로운 모델 교육이 더 빠릅니다. 여러 GPU 인스턴스가 있는 경우 또는 GPU를 포함한 여러 인스턴스에 걸쳐 분산 교육을 사용하는 경우 부선형적으로 확장할 수 있습니다.
DLAMI를 지원하는 인스턴스 유형은 아래를 참조하세요. GPU 인스턴스 유형 옵션 및 사용에 대한 자세한 내용은 EC2 인스턴스 유형
참고
모델의 크기를 고려하여 인스턴스를 선택해야 합니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
-
Amazon EC2 P5e 인스턴스
에는 최대 8개의 NVIDIA Tesla H200 GPU가 있습니다. -
Amazon EC2 P5 인스턴스
에는 최대 8개의 NVIDIA Tesla H100 GPU가 있습니다. -
Amazon EC2 P4 인스턴스
에는 최대 8개의 NVIDIA Tesla A100 GPU가 있습니다. Amazon EC2 P3 인스턴스
에는 최대 8개의 NVIDIA Tesla V100 GPU가 있습니다. -
Amazon EC2 G3 인스턴스
에는 최대 4개의 NVIDIA Tesla M60 GPU가 있습니다. -
Amazon EC2 G4 인스턴스
에는 최대 4개의 NVIDIA T4 GPU가 있습니다. -
Amazon EC2 G5 인스턴스
에는 최대 8개의 NVIDIA A10G GPU가 있습니다. -
Amazon EC2 G6 인스턴스
에는 최대 8개의 NVIDIA L4 GPU가 있습니다. -
Amazon EC2 G6e 인스턴스
에는 최대 8개의 NVIDIA L40S Tensor Core GPU가 있습니다. -
Amazon EC2 G5g 인스턴스
에는 Arm64 기반 AWS Graviton2 프로세서 가 탑재되어 있습니다.
DLAMI 인스턴스는 GPU 프로세스를 모니터링하고 최적화하는 도구를 제공합니다. GPU 프로세스 모니터링에 대한 자세한 내용은 GPU 모니터링 및 최적화를 참조하세요.
G5g 인스턴스 사용에 대한 자세한 내용은 ARM64 DLAMI 자습서를 참조하세요.