

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon SageMaker AI 데이터 병렬화 라이브러리 예시
<a name="distributed-data-parallel-v2-examples"></a>

이 페이지에서는 SageMaker AI 분산 데이터 병렬화(SMDDP) 라이브러리를 구현하여 SageMaker AI에서 분산 훈련 작업을 실행하는 예시를 보여주는 Jupyter Notebook을 제공합니다.

## 블로그 및 사례 연구
<a name="distributed-data-parallel-v2-examples-blog"></a>

다음 블로그에서는 SMDDP 라이브러리 사용에 대한 사례 연구를 설명합니다.

**SMDDP v2 블로그**
+ [Enable faster training with Amazon SageMaker AI data parallel library](https://aws.amazon.com/blogs/machine-learning/enable-faster-training-with-amazon-sagemaker-data-parallel-library/), *AWS 기계 학습 블로그*(2023년 12월 5일)

**SMDDP v1 블로그**
+ [How I trained 10TB for Stable Diffusion on SageMaker AI](https://medium.com/@emilywebber/how-i-trained-10tb-for-stable-diffusion-on-sagemaker-39dcea49ce32)(*Medium*에 게시, 2022년 11월 29일)
+ [Amazon 검색 기능을 갖춘 Amazon SageMaker 훈련에서 PyTorch Lightning 및 네이티브 PyTorch DDP 실행하기](https://aws.amazon.com/blogs/machine-learning/run-pytorch-lightning-and-native-pytorch-ddp-on-amazon-sagemaker-training-featuring-amazon-search/)(*AWS Machine Learning Blog*에 게시, 2022년 8월 18일)
+ [PyTorch 및 SageMaker AI 분산 데이터 병렬 라이브러리를 AWS 사용하여에서 YOLOv5 훈련](https://medium.com/@sitecao/training-yolov5-on-aws-with-pytorch-and-sagemaker-distributed-data-parallel-library-a196ab01409b), *Medium*(2022년 5월 6일)
+ [Speed up EfficientNet model training on SageMaker AI with PyTorch and the SageMaker AI distributed data parallel library](https://medium.com/@dangmz/speed-up-efficientnet-model-training-on-amazon-sagemaker-with-pytorch-and-sagemaker-distributed-dae4b048c01a)(*Medium*에 게시, 2022년 3월 21일)
+ [SageMaker AI 분산 데이터 병렬 라이브러리 Towards Data Science AWS 를 사용하여에서 EfficientNet 훈련 속도 향상](https://towardsdatascience.com/speed-up-efficientnet-training-on-aws-by-up-to-30-with-sagemaker-distributed-data-parallel-library-2dbf6d1e18e8)(2022년 1월 12일) ** 
+ [Hyundai reduces ML model training time for autonomous driving models using Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/hyundai-reduces-training-time-for-autonomous-driving-models-using-amazon-sagemaker/)(*AWS 기계 학습 블로그*에 게시, 2021년 6월 25일)
+ [Distributed Training: Train BART/T5 for Summarization using Transformers and Amazon SageMaker AI](https://huggingface.co/blog/sagemaker-distributed-training-seq2seq)(*Hugging Face 웹사이트*에 게시, 2021년 4월 8일)

## 예제 노트북
<a name="distributed-data-parallel-v2-examples-pytorch"></a>

예시 노트북은 [SageMaker AI 예시 GitHub 리포지토리](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/)에서 제공됩니다. 예제를 다운로드하려면 다음 명령을 실행하여 리포지토리를 복제하고 `training/distributed_training/pytorch/data_parallel`로 이동합니다.

**참고**  
다음 SageMaker AI ML IDE에서 예시 노트북을 복제하고 실행합니다.  
[SageMaker AI JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(2023년 12월 이후 제작된 [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html)에서 사용 가능)
[SageMaker AI Code Editor](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html)(2023년 12월 이후 제작된 [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html)에서 사용 가능)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html)(2023년 12월 이후에 생성된 [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html)에서 애플리케이션으로 사용 가능)
[SageMaker Notebook 인스턴스](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/data_parallel
```

**SMDDP v2 예제**
+ [Train Llama 2 using the SageMaker AI distributed data parallel library (SMDDP) and DeepSpeed](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/deepspeed/llama2/smddp_deepspeed_example.ipynb)
+ [Train Falcon using the SageMaker AI distributed data parallel library (SMDDP) and PyTorch Fully Sharded Data Parallelism (FSDP)](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/fully_sharded_data_parallel/falcon/smddp_fsdp_example.ipynb)

**SMDDP v1 예제**
+ [PyTorch 및 SageMaker AI 데이터 병렬화 라이브러리를 사용한 CNN](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/mnist/pytorch_smdataparallel_mnist_demo.ipynb)
+ [PyTorch 및 SageMaker AI 데이터 병렬화 라이브러리를 사용한 BERT](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/data_parallel/bert/pytorch_smdataparallel_bert_demo.ipynb)
+ [TensorFlow 2.3.1 및 SageMaker AI 데이터 병렬화 라이브러리를 사용한 CNN](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/data_parallel/mnist/tensorflow2_smdataparallel_mnist_demo.html)
+ [TensorFlow 2.3.1 및 SageMaker AI 데이터 병렬화 라이브러리를 사용한 BERT](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/data_parallel/bert/tensorflow2_smdataparallel_bert_demo.html)
+ [SageMaker AI 기반 PyTorch에서 HuggingFace 분산형 데이터 병렬화 훈련 - 분산형 관련 질문 응답](https://github.com/huggingface/notebooks/blob/master/sagemaker/03_distributed_training_data_parallelism/sagemaker-notebook.ipynb)
+ [SageMaker AI 기반 PyTorch에서 HuggingFace 분산형 데이터 병렬화 훈련 - 분산형 텍스트 요약](https://github.com/huggingface/notebooks/blob/master/sagemaker/08_distributed_summarization_bart_t5/sagemaker-notebook.ipynb)
+ [SageMaker AI 기반 TensorFlow에서 HuggingFace 분산형 데이터 병렬화 훈련](https://github.com/huggingface/notebooks/blob/master/sagemaker/07_tensorflow_distributed_training_data_parallelism/sagemaker-notebook.ipynb)