기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
SageMaker 모델 병렬화 라이브러리의 핵심 기능
SageMakerAmazon의 모델 병렬화 라이브러리는 샤딩된 데이터 병렬화, 텐서 병렬 처리, 파이프라인 스케줄링을 위한 레이어별 모델 분할, 체크포인팅과 같은 분산 전략 및 메모리 절약 기술을 제공합니다. 모델 병렬 처리 전략 및 기법은 훈련 속도와 메모리 소비를 최적화하면서 여러 디바이스에 대형 모델을 배포하는 데 도움이 됩니다. 또한 라이브러리는 Python 헬퍼 함수, 컨텍스트 관리자 및 래퍼 함수를 제공하여 모델의 자동 또는 수동 분할에 맞게 훈련 스크립트를 조정합니다.
학습 작업에 모델 병렬화를 구현하는 경우 모델 병렬성을 사용하여 분산 교육 작업 실행 섹션에 표시된 것과 동일한 2단계 워크플로를 유지합니다. SageMaker 훈련 스크립트를 수정하려면 훈련 스크립트에 코드 라인을 0개 또는 몇 개 추가해야 합니다. 조정된 훈련 스크립트의 훈련 작업을 시작하려면 분포 구성 파라미터를 설정하여 메모리 절약 기능을 활성화하거나 병렬도 값을 전달해야 합니다.
예제로 시작하려면 모델 병렬 처리 라이브러리 사용 방법을 보여주는 다음 Jupyter 노트북을 참조하십시오. SageMaker
라이브러리의 핵심 기능을 자세히 살펴보려면 다음 주제를 참조하세요.
참고
SageMaker 분산된 교육 라이브러리는 Hugging Face의 AWS 딥 러닝 TensorFlow 컨테이너와 교육 플랫폼 내에서 SageMaker 사용할 수 있습니다. PyTorch 분산 교육 라이브러리의 기능을 활용하려면 SageMaker Python을 사용하는 것이 좋습니다SDK. Python (Boto3) 또는 을 SageMaker APIs 통해 SDK 사용하는 경우 JSON 요청 구문에서 수동으로 구성할 수도 있습니다. AWS Command Line Interface설명서 전반에 걸쳐 지침과 예제는 SageMaker Python과 함께 분산 교육 라이브러리를 사용하는 방법에 중점을 둡니다SDK.
중요
SageMaker 모델 병렬 처리 라이브러리는 의 모든 핵심 기능을 지원하고 파이프라인 병렬 처리를 지원합니다. PyTorch TensorFlow