이 페이지 개선에 도움 주기
이 사용자 가이드에 기여하려면 모든 페이지의 오른쪽 창에 있는 GitHub에서 이 페이지 편집 링크를 선택합니다.
EKS에서 기계 학습 워크로드를 배포하려는 경우 자습서 참조
EKS에서 기계 학습 플랫폼 및 프레임워크를 설정하는 데 관심이 있다면 이 페이지에서 설명한 자습서를 살펴보세요. 이 자습서에서는 GPU 프로세서를 최대한 활용하기 위한 패턴부터 모델링 도구 선택, 특수 산업을 위한 프레임워크 구축에 이르기까지 모든 것을 다룹니다.
EKS에서 생성형 AI 플랫폼 구축
EKS에서 특수 생성형 AI 프레임워크 실행
EKS에서 ML용 NVIDIA GPU 성능 극대화
-
GPU 공유를 구현하여 EKS 클러스터에 NVIDIA GPU를 효율적으로 사용합니다.
-
다중 인스턴스 GPU(MIG) 및 NIM 마이크로서비스를 사용하여 EKS 클러스터에서 GPU당 더 많은 포드를 실행합니다.
Amazon EKS에서 NVIDIA의 다중 인스턴스 GPU(MIG)를 사용하여 GPU 사용률 극대화: 성능 향상을 위해 GPU당 더 많은 포드 실행
-
NVIDIA NIM 마이크로서비스를 활용하여 최적화된 마이크로서비스로 추론 워크로드를 최적화하고 대규모 AI 모델을 배포합니다.
1부: Amazon EKS에서 NVIDIA NIM을 사용하여 생성형 AI 애플리케이션 배포
2부: Amazon Elastic Kubernetes Service(Amazon EKS)에서 NVIDIA NIM 마이크로서비스를 사용하여 생성형 AI 애플리케이션 배포