Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
TensorFlow
Bawa TensorFlow model Anda sendiri ke SageMaker, dan jalankan pekerjaan pelatihan dengan SageMaker Training Compiler.
TensorFlow Model
SageMaker Training Compiler secara otomatis mengoptimalkan beban kerja pelatihan model yang dibangun di atas TensorFlow API asli atau API Keras tingkat tinggi.
Tip
Untuk pra-pemrosesan dataset input Anda, pastikan Anda menggunakan bentuk input statis. Bentuk input dinamis dapat memulai kompilasi ulang model dan dapat meningkatkan total waktu pelatihan.
Menggunakan Keras (Disarankan)
Untuk akselerasi kompiler terbaik, sebaiknya gunakan model yang merupakan subclass dari TensorFlow Keras (tf.Keras.Model
Untuk pelatihan GPU tunggal
Tidak ada perubahan tambahan yang perlu Anda lakukan dalam skrip pelatihan.
Tanpa Keras
SageMaker Training Compiler tidak mendukung eksekusi yang bersemangat di. TensorFlow Oleh karena itu, Anda harus membungkus model dan loop pelatihan Anda dengan TensorFlow fungsi decorator (@tf.function
) untuk memanfaatkan akselerasi kompiler.
Untuk pelatihan GPU tunggal
TensorFlow 2.0 atau yang lebih baru memiliki eksekusi bersemangat secara default, jadi Anda harus menambahkan @tf.function
dekorator di depan setiap fungsi yang Anda gunakan untuk membangun model. TensorFlow
TensorFlow Model dengan Trafo Hugging Face
TensorFlow model dengan Hugging FaceHuggingFace
estimator dengan kelas konfigurasi SageMaker Training Compiler seperti yang ditunjukkan pada topik sebelumnya di. Jalankan Pekerjaan TensorFlow Pelatihan dengan Kompiler SageMaker Pelatihan
SageMaker Training Compiler secara otomatis mengoptimalkan beban kerja pelatihan model yang dibangun di atas TensorFlow API asli atau API Keras tingkat tinggi, seperti model transformator. TensorFlow
Tip
Saat Anda membuat tokenizer untuk model NLP menggunakan Transformers dalam skrip pelatihan Anda, pastikan Anda menggunakan bentuk tensor input statis dengan menentukan. padding='max_length'
Jangan gunakan padding='longest'
karena padding ke urutan terpanjang dalam batch dapat mengubah bentuk tensor untuk setiap batch pelatihan. Bentuk input dinamis dapat memulai kompilasi ulang model dan dapat meningkatkan total waktu pelatihan. Untuk informasi selengkapnya tentang opsi padding tokenizer Transformers, lihat Padding dan pemotongan dalam dokumentasi Hugging Face Transformers.
Menggunakan Keras
Untuk akselerasi kompiler terbaik, sebaiknya gunakan model yang merupakan subclass dari TensorFlow Keras (tf.Keras.Model
Untuk pelatihan GPU tunggal
Tidak ada perubahan tambahan yang perlu Anda lakukan dalam skrip pelatihan.
Untuk pelatihan terdistribusi
SageMaker Akselerasi Training Compiler bekerja secara transparan untuk beban kerja multi-GPU saat model dibuat dan dilatih menggunakan API Keras dalam lingkup panggilan. tf.distribute.Strategy.scope()
-
Pilih strategi pelatihan terdistribusi yang tepat.
-
Untuk multi-GPU simpul tunggal, gunakan
tf.distribute.MirroredStrategy
untuk mengatur strategi.strategy = tf.distribute.MirroredStrategy()
-
Untuk multi-node multi-GPU, tambahkan kode berikut untuk mengatur konfigurasi pelatihan TensorFlow terdistribusi dengan benar sebelum membuat strategi.
def set_sm_dist_config(): DEFAULT_PORT = '8890' DEFAULT_CONFIG_FILE = '/opt/ml/input/config/resourceconfig.json' with open(DEFAULT_CONFIG_FILE) as f: config = json.loads(f.read()) current_host = config['current_host'] tf_config = { 'cluster': { 'worker': [] }, 'task': {'type': 'worker', 'index': -1} } for i, host in enumerate(config['hosts']): tf_config['cluster']['worker'].append("%s:%s" % (host, DEFAULT_PORT)) if current_host == host: tf_config['task']['index'] = i os.environ['TF_CONFIG'] = json.dumps(tf_config) set_sm_dist_config()
Gunakan
tf.distribute.MultiWorkerMirroredStrategy
untuk mengatur strategi.strategy = tf.distribute.MultiWorkerMirroredStrategy()
-
-
Dengan menggunakan strategi pilihan Anda, bungkus modelnya.
with strategy.scope(): # create a model and do fit
Tanpa Keras
Jika Anda ingin membawa model kustom dengan loop pelatihan khusus menggunakan TensorFlow tanpa Keras, Anda harus membungkus model dan loop pelatihan dengan TensorFlow function decorator (@tf.function
) untuk memanfaatkan akselerasi kompiler.
SageMaker Training Compiler melakukan optimasi tingkat grafik, dan menggunakan dekorator untuk memastikan TensorFlow fungsi Anda diatur untuk berjalan dalam mode grafik.
Untuk pelatihan GPU tunggal
TensorFlow 2.0 atau yang lebih baru memiliki eksekusi bersemangat secara default, jadi Anda harus menambahkan @tf.function
dekorator di depan setiap fungsi yang Anda gunakan untuk membangun model. TensorFlow
Untuk pelatihan terdistribusi
Selain perubahan yang diperlukan untuk Menggunakan Keras untuk pelatihan terdistribusi, Anda perlu memastikan bahwa fungsi yang akan dijalankan pada setiap GPU dianotasi@tf.function
, sementara fungsi komunikasi lintas-GPU tidak dijelaskan. Contoh kode pelatihan akan terlihat seperti berikut:
@tf.function() def compiled_step(inputs, outputs): with tf.GradientTape() as tape: pred=model(inputs, training=True) total_loss=loss_object(outputs, pred)/args.batch_size gradients=tape.gradient(total_loss, model.trainable_variables) return total_loss, pred, gradients def train_step(inputs, outputs): total_loss, pred, gradients=compiled_step(inputs, outputs) if args.weight_decay > 0.: gradients=[g+v*args.weight_decay for g,v in zip(gradients, model.trainable_variables)] optimizer.apply_gradients(zip(gradients, model.trainable_variables)) train_loss.update_state(total_loss) train_accuracy.update_state(outputs, pred) @tf.function() def train_step_dist(inputs, outputs): strategy.run(train_step, args= (inputs, outputs))
Perhatikan bahwa instruksi ini dapat digunakan untuk multi-GPU simpul tunggal dan multi-node multi-GPU.