Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Contoh dan Informasi Lebih Lanjut: Gunakan Algoritma atau Model Anda Sendiri
Notebook Jupyter berikut dan informasi tambahan menunjukkan cara menggunakan algoritme Anda sendiri atau model yang telah dilatih sebelumnya dari instance notebook Amazon. SageMaker Untuk tautan ke GitHub repositori dengan Dockerfiles bawaan untuk, TensorFlow MxNet, Chainer, dan PyTorch kerangka kerja serta instruksi tentang penggunaan AWS SDK for Python (Boto3) estimator untuk menjalankan algoritme pelatihan Anda sendiri di Learner dan model Anda sendiri di hosting, lihat SageMaker SageMaker Gambar SageMaker Docker bawaan untuk pembelajaran mendalam
Pengaturan
-
Buat instance SageMaker notebook. Untuk petunjuk tentang cara membuat dan mengakses instance notebook Jupyter, lihat. Instans SageMaker Notebook Amazon
-
Buka instance notebook yang Anda buat.
-
Pilih tab SageMaker Contoh untuk daftar semua SageMaker contoh buku catatan.
-
Buka contoh buku catatan dari bagian Fungsionalitas Tingkat Lanjut di instance buku catatan Anda atau dari GitHub menggunakan tautan yang disediakan. Untuk membuka buku catatan, pilih tab Use, lalu pilih Create copy.
Model tuan rumah dilatih di Scikit-learn
Untuk mempelajari cara meng-host model yang dilatih dalam Scikit-learn untuk membuat prediksi SageMaker dengan menyuntikkannya ke dalam wadah k-means dan XGBoost pihak pertama, lihat contoh buku catatan berikut.
Package TensorFlow dan model Scikit-learn untuk digunakan di SageMaker
Untuk mempelajari cara mengemas algoritme yang telah Anda kembangkan TensorFlow dan kerangka kerja scikit-learn untuk pelatihan dan penerapan di SageMaker lingkungan, lihat buku catatan berikut. Mereka menunjukkan kepada Anda cara membangun, mendaftar, dan menerapkan wadah Docker Anda sendiri menggunakan Dockerfiles.
Melatih dan menyebarkan jaringan saraf SageMaker
Untuk mempelajari cara melatih jaringan saraf secara lokal menggunakan MXNet TensorFlow atau, lalu membuat titik akhir dari model terlatih dan menerapkannya SageMaker, lihat buku catatan berikut. Model MXNet dilatih untuk mengenali angka tulisan tangan dari dataset MNIST. TensorFlow Model ini dilatih untuk mengklasifikasikan iris.
Pelatihan menggunakan mode pipa
Untuk mempelajari cara menggunakan Dockerfile untuk membangun kontainer yang memanggil train.py script
dan menggunakan mode pipa untuk melatih algoritme secara kustom, lihat buku catatan berikut. Dalam mode pipa, data input ditransfer ke algoritme saat sedang dilatih. Ini dapat mengurangi waktu pelatihan dibandingkan dengan menggunakan mode file.
Bawa model R Anda sendiri
Untuk mempelajari cara menggunakan menambahkan gambar R khusus untuk membuat dan melatih model di buku AWS SMS
catatan, lihat posting blog berikut. Posting blog ini menggunakan sampel R Dockerfile dari perpustakaan SageMakerStudio Classic Custom Image
Memperpanjang Image PyTorch kontainer yang sudah dibuat sebelumnya
Untuk mempelajari cara memperluas image SageMaker PyTorch kontainer bawaan saat Anda memiliki persyaratan fungsional tambahan untuk algoritme atau model yang tidak didukung oleh image Docker bawaan, lihat buku catatan berikut.
Untuk informasi selengkapnya tentang memperluas kontainer, lihat Memperpanjang Kontainer Pra-Built.
Melatih dan men-debug pekerjaan pelatihan pada wadah khusus
Untuk mempelajari cara melatih dan men-debug pekerjaan pelatihan menggunakan SageMaker Debugger, lihat buku catatan berikut. Skrip pelatihan yang diberikan melalui contoh ini menggunakan model TensorFlow Keras ResNet 50 dan dataset CIFAR10. Wadah kustom Docker dibuat dengan skrip pelatihan dan didorong ke Amazon ECR. Saat pekerjaan pelatihan sedang berjalan, Debugger mengumpulkan output tensor dan mengidentifikasi masalah debugging. Dengan alat pustaka smdebug
klien, Anda dapat menyetel objek smdebug
uji coba yang memanggil pekerjaan pelatihan dan informasi debugging, memeriksa status aturan pelatihan dan Debugger, dan mengambil tensor yang disimpan dalam bucket Amazon S3 untuk menganalisis masalah pelatihan.