기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
PERF02-BP06 최적화된 하드웨어 기반 컴퓨팅 액셀러레이터 사용
하드웨어 액셀러레이터를 사용하여 CPU기반 대안보다 특정 함수를 더 효율적으로 수행할 수 있습니다.
일반적인 안티 패턴:
-
워크로드에서 범용 인스턴스를 더 높은 성능과 더 낮은 비용을 제공할 수 있는 목적별 인스턴스와 비교하여 벤치마킹하지 않았습니다.
-
하드웨어 기반 컴퓨팅 액셀러레이터를 사용하여 기반 CPU대안을 사용하는 것이 더 효율적일 수 있는 작업을 수행합니다.
-
GPU 사용량을 모니터링하지 않습니다.
이 모범 사례 설정의 이점: 그래픽 처리 장치(GPUs) 및 필드 프로그래밍 가능 게이트 어레이()와 같은 하드웨어 기반 액셀러레이터를 사용하면 특정 처리 함수를 더 효율적으로 수행할 FPGAs수 있습니다.
이 모범 사례가 확립되지 않을 경우 노출되는 위험 수준: 중간
구현 가이드
가속 컴퓨팅 인스턴스는 GPUs 및 와 같은 하드웨어 기반 컴퓨팅 액셀러레이터에 대한 액세스를 제공합니다FPGAs. 이러한 하드웨어 액셀러레이터는 그래픽 처리 또는 데이터 패턴 매칭과 같은 특정 기능을 CPU기반 대안보다 더 효율적으로 수행합니다. 렌더링, 트랜스코딩, 기계 학습 등 많은 가속 워크로드는 리소스 사용 면에서 매우 가변적입니다. 이 하드웨어는 필요한 시간 동안만 실행하고 필요하지 않은 경우 자동화를 통해 해제하여 전반적인 성능 효율성을 향상합니다.
구현 단계
-
요구 사항을 해결할 수 있는 가속 컴퓨팅 인스턴스를 식별합니다.
-
기계 학습 워크로드의 경우 AWS Trainium
, AWS Inferentia 및 Amazon 과 같이 워크로드에 맞는 특수 하드웨어를 활용하세요EC2DL1 . Inf2 인스턴스와 같은 AWS 추론 인스턴스는 유사한 Amazon EC2 인스턴스 에 비해 최대 50% 더 나은 성능/와트를 제공합니다 . -
가속 컴퓨팅 인스턴스의 사용량 지표를 수집합니다. 예를 들어 Amazon 에서 지표 수집에 표시된 GPUs 대로 CloudWatch 에이전트를 사용하여
utilization_gpu
및utilization_memory
와 같은 지표를 수집할 수 있습니다. NVIDIA GPU CloudWatch -
코드, 네트워크 운영 및 하드웨어 액셀러레이터 설정을 최적화하여 기본 하드웨어가 반드시 제대로 활용되도록 해야 합니다.
-
최신 고성능 라이브러리 및 GPU 드라이버를 사용합니다.
-
자동화를 사용하여 사용하지 않을 때 GPU 인스턴스를 릴리스합니다.
리소스
관련 문서:
관련 비디오:
관련 예제: