쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

AWS 인프라에 최적화된 SMDDP 라이브러리와의 호환성

포커스 모드
AWS 인프라에 최적화된 SMDDP 라이브러리와의 호환성 - Amazon SageMaker AI

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

AWS 인프라에 최적화된 AllGather 집합 통신 작업을 제공하는 SageMaker 분산 데이터 병렬 처리(SMDDP) 라이브러리와 함께 SageMaker 모델 병렬 처리 라이브러리 v2(SMP v2)를 사용할 수 있습니다. 분산 훈련에서 집합 통신 작업은 여러 GPU 작업자를 동기화하고 이들 간에 정보를 교환하도록 설계되었습니다. AllGather는 일반적으로 샤딩된 데이터 병렬 처리에 사용되는 핵심 집합 통신 작업 중 하나입니다. SMDDP AllGather 작업에 대해 자세히 알아보려면 이러한 집합 통신 작업 SMDDP AllGather 집합 작업 최적화를 참조하세요. 이러한 집합 통신 작업은 수렴에 대한 부작용 없이 더 빠른 엔드 투 엔드 훈련에 직접적으로 기여합니다.

참고

SMDDP 라이브러리는 P4 및 P4de 인스턴스를 지원합니다(SMDDP 라이브러리의 지원되는 프레임워크 AWS 리전및 인스턴스 유형 참조).

SMDDP 라이브러리는 프로세스 그룹 계층을 통해 PyTorch와 기본적으로 통합됩니다. SMDDP 라이브러리를 사용하려면 훈련 스크립트에 두 줄의 코드만 추가하면 됩니다. SageMaker Model Parallelism Library, PyTorch FSDP 및 DeepSpeed와 같은 모든 훈련 프레임워크를 지원합니다.

SMDDP를 활성화하고 AllGather 작업을 사용하려면 1단계: PyTorch FSDP 훈련 스크립트 조정의 일부로 훈련 스크립트에 두 줄의 코드를 추가해야 합니다. 먼저 SMDDP 백엔드로 PyTorch Distributed를 초기화한 다음 SMP 초기화를 실행해야 합니다.

import torch.distributed as dist # Initialize with SMDDP import smdistributed.dataparallel.torch.torch_smddp dist.init_process_group(backend="smddp") # Replacing "nccl" # Initialize with SMP import torch.sagemaker as tsm tsm.init()

PyTorch용 SageMaker 프레임워크 컨테이너(SMP v2의 지원되는 프레임워크 및 AWS 리전 및 SMDDP 라이브러리의 지원되는 프레임워크 AWS 리전및 인스턴스 유형 참조)는 SMP 바이너리 및 SMDDP 바이너리로 사전 패키징됩니다. SMDebug 라이브러리 도구에 대한 자세한 내용은 SageMaker AI 분산 데이터 병렬 처리 라이브러리를 사용하여 분산 훈련 실행 섹션을 참조하세요.

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.