Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Penyetelan model otomatis, juga dikenal sebagai tuning hyperparameter, menemukan versi terbaik dari model dengan menjalankan banyak pekerjaan yang menguji berbagai hiperparameter pada kumpulan data pelatihan dan validasi Anda. Penyetelan model berfokus pada hiperparameter berikut:
catatan
Fungsi tujuan pembelajaran secara otomatis ditetapkan berdasarkan jenis tugas klasifikasi, yang ditentukan oleh jumlah bilangan bulat unik di kolom label. Untuk informasi selengkapnya, lihat Hiperparameter LightGBM.
-
Fungsi tujuan pembelajaran untuk mengoptimalkan selama pelatihan model
-
Metrik evaluasi yang digunakan untuk mengevaluasi kinerja model selama validasi
-
Satu set hyperparameters dan rentang nilai untuk masing-masing untuk digunakan saat menyetel model secara otomatis
Penyetelan model otomatis mencari hiperparameter yang Anda tentukan untuk menemukan kombinasi nilai yang menghasilkan model yang mengoptimalkan metrik evaluasi yang dipilih.
catatan
Penyetelan model otomatis untuk LightGBM hanya tersedia dari Amazon SageMaker SDKs, bukan dari konsol AI. SageMaker
Untuk informasi selengkapnya tentang penyetelan model, lihatPenyetelan model otomatis dengan AI SageMaker .
Metrik evaluasi dihitung oleh algoritma LightGBM
Algoritma SageMaker AI LightGBM menghitung metrik berikut untuk digunakan untuk validasi model. Metrik evaluasi secara otomatis ditetapkan berdasarkan jenis tugas klasifikasi, yang ditentukan oleh jumlah bilangan bulat unik di kolom label.
Nama Metrik | Deskripsi | Arah Optimasi | Pola Regex |
---|---|---|---|
rmse |
kesalahan kuadrat rata-rata akar | memperkecil | "rmse: ([0-9\\.]+)" |
l1 |
berarti kesalahan absolut | memperkecil | "l1: ([0-9\\.]+)" |
l2 |
berarti kesalahan kuadrat | memperkecil | "l2: ([0-9\\.]+)" |
huber |
kerugian huber | memperkecil | "huber: ([0-9\\.]+)" |
fair |
kerugian yang adil | memperkecil | "fair: ([0-9\\.]+)" |
binary_logloss |
entropi silang biner | memaksimalkan | "binary_logloss: ([0-9\\.]+)" |
binary_error |
kesalahan biner | memperkecil | "binary_error: ([0-9\\.]+)" |
auc |
AUC | memaksimalkan | "auc: ([0-9\\.]+)" |
average_precision |
skor presisi rata-rata | memaksimalkan | "average_precision: ([0-9\\.]+)" |
multi_logloss |
entropi silang multiclass | memaksimalkan | "multi_logloss: ([0-9\\.]+)" |
multi_error |
skor kesalahan multiclass | memperkecil | "multi_error: ([0-9\\.]+)" |
auc_mu |
AUC-mu | memaksimalkan | "auc_mu: ([0-9\\.]+)" |
cross_entropy |
entropi silang | memperkecil | "cross_entropy: ([0-9\\.]+)" |
Hiperparameter LightGBM yang dapat disetel
Setel model LightGBM dengan hyperparameter berikut. Hiperparameter yang memiliki efek terbesar dalam mengoptimalkan metrik evaluasi LightGBM adalah:learning_rate
,,,,,num_leaves
, feature_fraction
dan. bagging_fraction
bagging_freq
max_depth
min_data_in_leaf
Untuk daftar semua hyperparameters LightGBM, lihat. Hiperparameter LightGBM
Nama Parameter | Jenis Parameter | Rentang yang Direkomendasikan |
---|---|---|
learning_rate |
ContinuousParameterRanges | MinValue: 0,001, MaxValue: 0,01 |
num_leaves |
IntegerParameterRanges | MinValue: 10, MaxValue: 100 |
feature_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue: 1,0 |
bagging_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue: 1,0 |
bagging_freq |
IntegerParameterRanges | MinValue: 0, MaxValue: 10 |
max_depth |
IntegerParameterRanges | MinValue: 15, MaxValue: 100 |
min_data_in_leaf |
IntegerParameterRanges | MinValue: 10, MaxValue: 200 |