Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Pelatihan
Dengan pelatihan presisi campuran, Anda dapat menggunakan jaringan yang lebih besar dengan jumlah memori yang sama, atau mengurangi penggunaan memori dibandingkan dengan jaringan presisi tunggal atau ganda Anda, dan Anda akan melihat peningkatan kinerja komputasi. Anda juga mendapatkan manfaat dari transfer data yang lebih kecil dan lebih cepat, faktor penting dalam pelatihan terdistribusi beberapa node. Untuk memanfaatkan pelatihan presisi campuran, Anda perlu menyesuaikan pengecoran data dan penskalaan kerugian. Berikut ini adalah panduan yang menjelaskan cara melakukan ini untuk kerangka kerja yang mendukung presisi campuran.
-
NVIDIADeep Learning SDK
- dokumen di NVIDIA situs web yang menjelaskan implementasi presisi campuran untukMXNet,, dan. PyTorch TensorFlow
Tip
Pastikan untuk memeriksa situs web untuk kerangka pilihan Anda, dan cari “presisi campuran” atau “fp16" untuk teknik pengoptimalan terbaru. Berikut adalah beberapa panduan presisi campuran yang mungkin berguna bagi Anda:
-
Pelatihan presisi campuran dengan TensorFlow (video)
- di NVIDIA situs blog. -
Pelatihan presisi campuran menggunakan float16 dengan MXNet
- FAQ artikel di situs web. MXNet -
NVIDIAApex: alat untuk pelatihan presisi campuran yang mudah dengan PyTorch
- artikel blog di situs web. NVIDIA
Anda mungkin tertarik dengan topik lain tentang GPU pemantauan dan pengoptimalan: