Parameter Pelatihan - Amazon Machine Learning

Kami tidak lagi memperbarui layanan Amazon Machine Learning atau menerima pengguna baru untuk itu. Dokumentasi ini tersedia untuk pengguna yang sudah ada, tetapi kami tidak lagi memperbaruinya. Untuk informasi selengkapnya, lihatApa itu Amazon Machine Learning.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Parameter Pelatihan

Algoritma pembelajaran Amazon ML-menerima parameter, yang disebut hiperparameter atau parameter pelatihan, yang memungkinkan Anda untuk mengontrol kualitas model yang dihasilkan. Bergantung pada hyperparameter, Amazon ML-memilih pengaturan secara otomatis atau menyediakan default statis untuk hyperparameters. Meskipun pengaturan hyperparameter default umumnya menghasilkan model yang berguna, Anda mungkin dapat meningkatkan kinerja prediktif model Anda dengan mengubah nilai hyperparameter. Bagian berikut menjelaskan hiper umumparameter yang terkait dengan algoritma pembelajaran untuk model linier, seperti yang dibuat oleh Amazon IL.

Tingkat Pembelajaran

Tingkat pembelajaran adalah nilai konstan yang digunakan dalam algoritma Stochastic Gradient Descent (SGD). Tingkat belajar mempengaruhi kecepatan di mana algoritma mencapai (menyatu ke) bobot optimal. Algoritma SGD membuat update bobot model linier untuk setiap contoh data yang dilihatnya. Ukuran pembaruan ini dikendalikan oleh tingkat pembelajaran. Tingkat pembelajaran yang terlalu besar mungkin mencegah bobot mendekati solusi optimal. Hasil nilai yang terlalu kecil dalam algoritma yang membutuhkan banyak lintasan untuk mendekati bobot optimal.

Di Amazon ML-nya, tingkat pembelajaran dipilih secara otomatis berdasarkan data Anda.

Ukuran model

Jika Anda memiliki banyak fitur input, jumlah pola yang mungkin dalam data dapat menghasilkan model yang besar. Model besar memiliki implikasi praktis, seperti membutuhkan lebih banyak RAM untuk memegang model saat berlatih dan saat menghasilkan prediksi. Di Amazon IL, Anda dapat mengurangi ukuran model dengan menggunakan regularisasi L1 atau dengan secara khusus membatasi ukuran model dengan menentukan ukuran maksimum. Perhatikan bahwa jika Anda mengurangi ukuran model terlalu banyak, Anda dapat mengurangi daya prediktif model Anda.

Untuk informasi tentang ukuran model default, lihatParameter Pelatihan: Jenis dan Nilai Default. Untuk informasi selengkapnya tentang regularisasi, lihatRegularisasi.

Jumlah Pass

Algoritma SGD membuat berurutan melewati data pelatihan. ParameterNumber of passesparameter mengontrol jumlah pass bahwa algoritma membuat lebih dari data pelatihan. Lebih melewati menghasilkan model yangpasdata yang lebih baik (jika tingkat pembelajaran tidak terlalu besar), namun manfaatnya berkurang dengan meningkatnya jumlah pass. Untuk set data yang lebih kecil, Anda dapat secara signifikan meningkatkan jumlah pass, yang memungkinkan algoritma belajar menyesuaikan data secara efektif lebih dekat. Untuk dataset yang sangat besar, satu pass mungkin cukup.

Untuk informasi tentang jumlah default pass, lihatParameter Pelatihan: Jenis dan Nilai Default.

Menyeret Data

Di Amazon IL, Anda harus mengacak data Anda karena algoritma SGD dipengaruhi oleh urutan baris dalam data pelatihan. Mengocokkan data pelatihan Anda menghasilkan model ML-nya lebih baik karena membantu algoritma SGD menghindari solusi yang optimal untuk jenis data pertama yang dilihatnya, tetapi tidak untuk berbagai data lengkap. Shuffling mencampur urutan data Anda sehingga algoritma SGD tidak menemukan satu jenis data untuk terlalu banyak pengamatan berturut-turut. Jika hanya melihat satu jenis data untuk banyak pembaruan bobot berturut-turut, algoritma mungkin tidak dapat memperbaiki bobot model untuk tipe data baru karena pembaruan mungkin terlalu besar. Selain itu, ketika data tidak disajikan secara acak, sulit bagi algoritma untuk menemukan solusi optimal untuk semua tipe data dengan cepat; dalam beberapa kasus, algoritma mungkin tidak pernah menemukan solusi optimal. Mengoyak data pelatihan membantu algoritma untuk bertemu pada solusi optimal lebih cepat.

Misalnya, Anda ingin melatih model ML-nya untuk memprediksi jenis produk, dan data pelatihan Anda mencakup jenis produk film, mainan, dan video game. Jika Anda mengurutkan data berdasarkan kolom jenis produk sebelum mengunggah data ke Amazon S3, maka algoritma akan melihat data berdasarkan abjad berdasarkan jenis produk. Algoritma ini melihat semua data Anda untuk film terlebih dahulu, dan model ML-mu mulai mempelajari pola film. Kemudian, ketika model Anda menemukan data tentang mainan, setiap pembaruan yang dibuat algoritma akan sesuai dengan model dengan jenis produk mainan, bahkan jika pembaruan tersebut menurunkan pola yang sesuai dengan film. Ini tiba-tiba beralih dari film ke jenis mainan dapat menghasilkan model yang tidak belajar bagaimana untuk memprediksi jenis produk secara akurat.

Untuk informasi tentang jenis pengocokan default, lihatParameter Pelatihan: Jenis dan Nilai Default.

Regularisasi

Regularisasi membantu mencegah model linier dari contoh data pelatihan yang terlalu pas (yaitu, menghafal pola alih-alih menggeneralisasikannya) dengan menghukum nilai berat ekstrem. L1 regularisasi memiliki efek mengurangi jumlah fitur yang digunakan dalam model dengan mendorong ke nol bobot fitur yang jika tidak akan memiliki bobot kecil. Akibatnya, hasil regularisasi L1 dalam model yang jarang dan mengurangi jumlah kebisingan dalam model. L2 regularisasi menghasilkan nilai bobot keseluruhan yang lebih kecil, dan menstabilkan bobot ketika ada korelasi tinggi antara fitur input. Anda mengontrol jumlah regularisasi L1 atau L2 yang diterapkan dengan menggunakanRegularization typedanRegularization amountparameter. Nilai regularisasi yang sangat besar dapat menghasilkan semua fitur yang memiliki bobot nol, mencegah model dari pola belajar.

Untuk informasi tentang nilai regularisasi default, lihatParameter Pelatihan: Jenis dan Nilai Default.