Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Pengaturan Lanjutan

Mode fokus
Pengaturan Lanjutan - Amazon SageMaker AI

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Adaptor SageMaker HyperPod resep dibangun di atas kerangka kerja Nvidia Nemo dan Pytorch-Lightning. Jika Anda sudah menggunakan kerangka kerja ini, mengintegrasikan model atau fitur khusus Anda ke dalam adaptor SageMaker HyperPod resep adalah proses yang serupa. Selain memodifikasi adaptor resep, Anda dapat mengubah skrip pra-pelatihan atau fine-tuning Anda sendiri. Untuk panduan menulis skrip pelatihan khusus Anda, lihat contoh.

Gunakan SageMaker HyperPod adaptor untuk membuat model Anda sendiri

Di dalam adaptor resep, Anda dapat menyesuaikan file berikut di lokasi berikut:

  1. collections/data: Berisi modul yang bertanggung jawab untuk memuat kumpulan data. Saat ini, hanya mendukung kumpulan data dari. HuggingFace Jika Anda memiliki persyaratan yang lebih maju, struktur kode memungkinkan Anda untuk menambahkan modul data khusus dalam folder yang sama.

  2. collections/model: Termasuk definisi berbagai model bahasa. Saat ini, ia mendukung model bahasa besar umum seperti Llama, Mixtral, dan Mistral. Anda memiliki fleksibilitas untuk memperkenalkan definisi model Anda sendiri dalam folder ini.

  3. collections/parts: Folder ini berisi strategi untuk model pelatihan secara terdistribusi. Salah satu contohnya adalah strategi Fully Sharded Data Parallel (FSDP), yang memungkinkan untuk sharding model bahasa besar di beberapa akselerator. Selain itu, strategi mendukung berbagai bentuk paralelisme model. Anda juga memiliki opsi untuk memperkenalkan strategi pelatihan khusus Anda sendiri untuk pelatihan model.

  4. utils: Berisi berbagai utilitas yang bertujuan memfasilitasi pengelolaan pekerjaan pelatihan. Ini berfungsi sebagai repositori di mana untuk alat Anda sendiri. Anda dapat menggunakan alat Anda sendiri untuk tugas-tugas seperti pemecahan masalah atau benchmarking. Anda juga dapat menambahkan callback PyTorch Lightning pribadi Anda sendiri dalam folder ini. Anda dapat menggunakan callback PyTorch Lightning untuk mengintegrasikan fungsionalitas atau operasi tertentu secara mulus ke dalam siklus hidup pelatihan.

  5. conf: Berisi definisi skema konfigurasi yang digunakan untuk memvalidasi parameter tertentu dalam pekerjaan pelatihan. Jika Anda memperkenalkan parameter atau konfigurasi baru, Anda dapat menambahkan skema khusus Anda ke folder ini. Anda dapat menggunakan skema yang disesuaikan untuk menentukan aturan validasi. Anda dapat memvalidasi tipe data, rentang, atau batasan parameter lainnya. Anda juga dapat menentukan skema kustom Anda sendiri untuk memvalidasi parameter.

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.