Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Halaman berikut memberikan informasi tentang langkah-langkah yang diperlukan untuk memulai pelatihan terdistribusi di Amazon SageMaker AI. Jika Anda sudah terbiasa dengan pelatihan terdistribusi, pilih salah satu opsi berikut yang sesuai dengan strategi atau kerangka kerja pilihan Anda untuk memulai. Jika Anda ingin belajar tentang pelatihan terdistribusi secara umum, lihatKonsep pelatihan terdistribusi.
Pustaka pelatihan terdistribusi SageMaker AI dioptimalkan untuk lingkungan SageMaker pelatihan, membantu menyesuaikan pekerjaan pelatihan terdistribusi Anda dengan SageMaker AI, dan meningkatkan kecepatan dan throughput pelatihan. Perpustakaan menawarkan strategi pelatihan paralel data dan model paralel. Mereka menggabungkan teknologi perangkat lunak dan perangkat keras untuk meningkatkan komunikasi antar-GPU dan antar-simpul, dan memperluas kemampuan pelatihan SageMaker AI dengan opsi bawaan yang memerlukan perubahan kode minimal pada skrip pelatihan Anda.
Sebelum Anda memulai
SageMaker Pelatihan mendukung pelatihan terdistribusi pada satu instans serta beberapa instance, sehingga Anda dapat menjalankan berbagai ukuran pelatihan dalam skala besar. Kami menyarankan Anda untuk menggunakan kelas estimator kerangka kerja seperti PyTorchCreateTrainingJob
API di backend, menemukan Wilayah tempat sesi Anda berjalan, dan menarik salah satu wadah pembelajaran AWS mendalam yang telah dibuat sebelumnya yang dikemas dengan sejumlah pustaka termasuk kerangka kerja pembelajaran mendalam, kerangka kerja pelatihan terdistribusi, dan driver EFA. Jika Anda ingin memasang sistem FSx file ke instance pelatihan, Anda harus meneruskan subnet VPC dan ID grup keamanan Anda ke estimator. Sebelum menjalankan pekerjaan pelatihan terdistribusi Anda di SageMaker AI, baca panduan umum berikut tentang pengaturan infrastruktur dasar.
Zona ketersediaan dan backplane jaringan
Saat menggunakan beberapa instance (juga disebut node), penting untuk memahami jaringan yang menghubungkan instance, bagaimana mereka membaca data pelatihan, dan bagaimana mereka berbagi informasi di antara mereka sendiri. Misalnya, saat Anda menjalankan tugas pelatihan paralel data terdistribusi, sejumlah faktor, seperti komunikasi antara node cluster komputasi untuk menjalankan AllReduce
operasi dan transfer data antara node dan penyimpanan data di Amazon Simple Storage Service atau Amazon FSx for Lustre, memainkan peran penting untuk mencapai penggunaan sumber daya komputasi yang optimal dan kecepatan pelatihan yang lebih cepat. Untuk mengurangi overhead komunikasi, pastikan Anda mengonfigurasi instance, subnet VPC, dan penyimpanan data di Availability Zone yang sama. Wilayah AWS
Instans GPU dengan jaringan yang lebih cepat dan penyimpanan throughput tinggi
Anda secara teknis dapat menggunakan instance apa pun untuk pelatihan terdistribusi. Untuk kasus di mana Anda perlu menjalankan pekerjaan pelatihan terdistribusi multi-node untuk melatih model besar, seperti model bahasa besar (LLMs) dan model difusi, yang memerlukan pergantian antar-node yang lebih cepat, kami merekomendasikan instance GPU berkemampuan EFA yang didukung oleh AI. SageMaker
Gunakan pustaka paralelisme data terdistribusi SageMaker AI (SMDDP)
Pustaka SMDDP meningkatkan komunikasi antar node dengan implementasi AllReduce
dan operasi komunikasi AllGather
kolektif yang dioptimalkan untuk infrastruktur AWS jaringan dan topologi instans Amazon SageMaker AI ML. Anda dapat menggunakan pustaka SMDDP sebagai backend paket pelatihan terdistribusi PyTorch berbasis: distributed PyTorch data parallel (DDP), PyTorch full sharded data parallelism (PyTorch
estimator untuk meluncurkan pekerjaan pelatihan terdistribusi pada dua ml.p4d.24xlarge
instance.
from sagemaker.pytorch import PyTorch
estimator = PyTorch(
...,
instance_count=2
,
instance_type="ml.p4d.24xlarge
",
# Activate distributed training with SMDDP
distribution={ "pytorchddp": { "enabled": True } } # mpirun, activates SMDDP AllReduce OR AllGather
# distribution={ "torch_distributed": { "enabled": True } } # torchrun, activates SMDDP AllGather
# distribution={ "smdistributed": { "dataparallel": { "enabled": True } } } # mpirun, activates SMDDP AllReduce OR AllGather
)
Untuk mempelajari cara menyiapkan skrip pelatihan Anda dan meluncurkan pekerjaan pelatihan paralel data terdistribusi tentang SageMaker AI, lihat. Jalankan pelatihan terdistribusi dengan perpustakaan paralelisme data terdistribusi SageMaker AI
Gunakan perpustakaan paralelisme model SageMaker AI (SMP)
SageMaker AI menyediakan perpustakaan SMP dan mendukung berbagai teknik pelatihan terdistribusi, seperti paralelisme data sharded, pipelining, paralelisme tensor, sharding status pengoptimal, dan banyak lagi. Untuk mempelajari lebih lanjut tentang apa yang ditawarkan perpustakaan SMP, lihatFitur Inti dari Perpustakaan Paralelisme SageMaker Model.
Untuk menggunakan pustaka paralelisme model SageMaker AI, konfigurasikan distribution
parameter estimator kerangka kerja SageMaker AI. Estimator kerangka kerja yang didukung adalah PyTorchml.p4d.24xlarge
from sagemaker.
framework
importFramework
distribution={ "smdistributed": { "modelparallel": { "enabled":True, "parameters": { ... # enter parameter key-value pairs here } }, }, "mpi": { "enabled" : True, ... # enter parameter key-value pairs here } } estimator =Framework
( ..., instance_count=2
, instance_type="ml.p4d.24xlarge
", distribution=distribution )
Untuk mempelajari cara mengadaptasi skrip pelatihan Anda, mengonfigurasi parameter distribusi di estimator
kelas, dan meluncurkan tugas pelatihan terdistribusi, lihat perpustakaan paralelisme model SageMaker AI (lihat juga Pelatihan Terdistribusi APIs dalam dokumentasi SageMaker
Gunakan kerangka kerja pelatihan terdistribusi open source
SageMaker AI juga mendukung opsi berikut untuk beroperasi mpirun
dan torchrun
di backend.
-
Untuk menggunakan PyTorch DistributedDataParallel (DDP)
di SageMaker AI dengan mpirun
backend, tambahkandistribution={"pytorchddp": {"enabled": True}}
ke estimator Anda. PyTorch Untuk informasi selengkapnya, lihat jugadistribution
Argumen Pelatihan PyTorch Terdistribusidan PyTorch Penaksir SageMaker AI dalam dokumentasi SageMaker Python SDK. catatan
Opsi ini tersedia untuk PyTorch 1.12.0 dan yang lebih baru.
from sagemaker.pytorch import PyTorch estimator = PyTorch( ..., instance_count=
2
, instance_type="ml.p4d.24xlarge
", distribution={"pytorchddp": {"enabled": True}} # runs mpirun in the backend ) -
SageMaker AI mendukung PyTorch
torchrun
peluncuruntuk pelatihan terdistribusi pada instans EC2 Amazon berbasis GPU, seperti P3 dan P4, serta Trn1 yang didukung oleh perangkat Trainium.AWS Untuk menggunakan PyTorch DistributedDataParallel (DDP)
di SageMaker AI dengan torchrun
backend, tambahkandistribution={"torch_distributed": {"enabled": True}}
ke estimator. PyTorchcatatan
Opsi ini tersedia untuk PyTorch 1.13.0 dan yang lebih baru.
Cuplikan kode berikut menunjukkan contoh pembuatan PyTorch estimator SageMaker AI untuk menjalankan pelatihan terdistribusi pada dua
ml.p4d.24xlarge
instance dengan opsi distribusi.torch_distributed
from sagemaker.pytorch import PyTorch estimator = PyTorch( ..., instance_count=
2
, instance_type="ml.p4d.24xlarge
", distribution={"torch_distributed": {"enabled": True}} # runs torchrun in the backend )Untuk informasi selengkapnya, lihat
distribution
Argumen PyTorch Pelatihan Terdistribusidan SageMaker AI PyTorch Estimator dalam dokumentasi SageMaker Python SDK. Catatan untuk pelatihan terdistribusi di Trn1
Sebuah instance Trn1 terdiri dari hingga 16 perangkat Trainium, dan setiap perangkat Trainium terdiri dari dua. NeuronCores
Untuk spesifikasi perangkat AWS Trainium, lihat Arsitektur Trainium di Dokumentasi Neuron.AWS Untuk melatih instans yang didukung Trainium, Anda hanya perlu menentukan kode instans Trn1
ml.trn1.*
, dalam string keinstance_type
argumen kelas estimator AI. SageMaker PyTorch Untuk menemukan jenis instance Trn1 yang tersedia, lihat Arsitektur AWS Trn1dalam dokumentasi Neuron.AWS catatan
SageMaker Pelatihan tentang instans Amazon EC2 Trn1 saat ini hanya tersedia untuk PyTorch kerangka kerja di AWS Deep Learning Containers for PyTorch Neuron mulai v1.11.0. Untuk menemukan daftar lengkap versi Neuron yang didukung, lihat PyTorch Neuron Containers
di GitHub repositori AWS Deep Learning Containers. Saat Anda meluncurkan pekerjaan pelatihan pada instans Trn1 menggunakan SageMaker Python SDK, SageMaker AI secara otomatis mengambil dan menjalankan wadah yang tepat dari Neuron Containers yang disediakan oleh
Deep Learning Containers. AWS Neuron Container dikemas dengan pengaturan lingkungan pelatihan dan dependensi untuk memudahkan adaptasi pekerjaan pelatihan Anda ke SageMaker platform Pelatihan dan instans Amazon Trn1. EC2 catatan
Untuk menjalankan pekerjaan PyTorch pelatihan Anda pada instance Trn1 dengan SageMaker AI, Anda harus memodifikasi skrip pelatihan Anda untuk menginisialisasi grup proses dengan
xla
backend dan menggunakan /XLA. PyTorchUntuk mendukung proses adopsi XLA, Neuron SDK menyediakan AWS PyTorch Neuron yang menggunakan XLA untuk melakukan konversi PyTorch operasi ke instruksi Trainium. Untuk mempelajari cara memodifikasi skrip pelatihan Anda, lihat Panduan Pengembang untuk Pelatihan dengan PyTorch Neuron ( torch-neuronx
)di Dokumentasi AWS Neuron. Untuk informasi lebih lanjut, lihat Pelatihan Terdistribusi dengan PyTorch Neuron pada instance Trn1 dan argumen SageMaker
AI PyTorch Estimator distribution
dalam dokumentasi Python SageMaker SDK. -
Untuk menggunakan MPI di SageMaker AI, tambahkan
distribution={"mpi": {"enabled": True}}
ke estimator Anda. Opsi distribusi MPI tersedia untuk kerangka kerja berikut: MXNet, PyTorch, dan. TensorFlow -
Untuk menggunakan server parameter di SageMaker AI, tambahkan
distribution={"parameter_server": {"enabled": True}}
ke estimator Anda. Opsi server parameter tersedia untuk kerangka kerja berikut: MXNet, PyTorch, dan TensorFlow.Tip
Untuk informasi lebih lanjut tentang penggunaan MPI dan opsi server parameter per kerangka kerja, gunakan tautan berikut ke dokumentasi SageMaker Python SDK.
-
MXNet Argumen Pelatihan Terdistribusi
dan SageMaker AI MXNet Estimator distribution
-
PyTorch Argumen Pelatihan Terdistribusi
dan SageMaker AI PyTorch Estimator distribution
-
TensorFlow
distribution
Argumen Pelatihan Terdistribusidan SageMaker AI TensorFlow Estimator .
-