Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Penyetelan model otomatis, juga dikenal sebagai tuning hyperparameter, menemukan versi terbaik dari model dengan menjalankan banyak pekerjaan yang menguji berbagai hiperparameter pada kumpulan data pelatihan dan validasi Anda. Anda memilih tiga jenis hyperparameters:
-
objective
fungsi pembelajaran untuk mengoptimalkan selama pelatihan model -
an
eval_metric
untuk digunakan untuk mengevaluasi kinerja model selama validasi -
satu set hyperparameters dan rentang nilai untuk masing-masing untuk digunakan saat menyetel model secara otomatis
Anda memilih metrik evaluasi dari kumpulan metrik evaluasi yang dihitung oleh algoritme. Penyetelan model otomatis mencari hiperparameter yang dipilih untuk menemukan kombinasi nilai yang menghasilkan model yang mengoptimalkan metrik evaluasi.
catatan
Penyetelan model otomatis untuk XGBoost 0, 90 hanya tersedia dari Amazon SageMaker AI SDKs, bukan dari konsol SageMaker AI.
Untuk informasi selengkapnya tentang penyetelan model, lihatPenyetelan model otomatis dengan AI SageMaker .
Metrik Evaluasi Dihitung oleh Algoritma XGBoost
XGBoost Algoritma menghitung metrik berikut untuk digunakan untuk validasi model. Saat menyetel model, pilih salah satu metrik ini untuk mengevaluasi model. Untuk daftar lengkap eval_metric
nilai yang valid, lihat Parameter Tugas XGBoost Pembelajaran
Nama Metrik | Deskripsi | Arah Optimasi |
---|---|---|
validation:accuracy |
Tingkat klasifikasi, dihitung sebagai # (kanan) /# (semua kasus). |
Maksimalkan |
validation:auc |
Area di bawah kurva. |
Maksimalkan |
validation:error |
Tingkat kesalahan klasifikasi biner, dihitung sebagai # (kasus salah) /# (semua kasus). |
Minimalkan |
validation:f1 |
Indikator akurasi klasifikasi, dihitung sebagai rata-rata harmonik presisi dan ingatan. |
Maksimalkan |
validation:logloss |
Kemungkinan log negatif. |
Minimalkan |
validation:mae |
Berarti kesalahan absolut. |
Minimalkan |
validation:map |
Rata-rata presisi rata-rata. |
Maksimalkan |
validation:merror |
Tingkat kesalahan klasifikasi multiclass, dihitung sebagai # (kasus salah) /# (semua kasus). |
Minimalkan |
validation:mlogloss |
Kemungkinan log negatif untuk klasifikasi multiclass. |
Minimalkan |
validation:mse |
Berarti kesalahan kuadrat. |
Minimalkan |
validation:ndcg |
Keuntungan kumulatif diskon yang dinormalisasi. |
Maksimalkan |
validation:rmse |
Root berarti kesalahan kuadrat. |
Minimalkan |
Hiperparameter yang dapat disetel XGBoost
Setel XGBoost model dengan hyperparameters berikut. Hiperparameter yang memiliki efek terbesar dalam mengoptimalkan metrik XGBoost evaluasi adalah:alpha
,,, min_child_weight
subsample
, eta
dan. num_round
Nama Parameter | Jenis Parameter | Rentang yang Direkomendasikan |
---|---|---|
alpha |
ContinuousParameterRanges |
MinValue: 0, MaxValue: 1000 |
colsample_bylevel |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue: 1 |
colsample_bynode |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue: 1 |
colsample_bytree |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue: 1 |
eta |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue: 0,5 |
gamma |
ContinuousParameterRanges |
MinValue: 0, MaxValue: 5 |
lambda |
ContinuousParameterRanges |
MinValue: 0, MaxValue: 1000 |
max_delta_step |
IntegerParameterRanges |
[0, 10] |
max_depth |
IntegerParameterRanges |
[0, 10] |
min_child_weight |
ContinuousParameterRanges |
MinValue: 0, MaxValue: 120 |
num_round |
IntegerParameterRanges |
[1, 4000] |
subsample |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue: 1 |