Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
CatBoost mengimplementasikan algoritma Gradient Boosting Decision Tree (GBDT) konvensional dengan penambahan dua kemajuan algoritmik penting:
Implementasi peningkatan berurutan, alternatif yang digerakkan oleh permutasi untuk algoritme klasik
Algoritma inovatif untuk memproses fitur kategoris
Kedua teknik diciptakan untuk melawan pergeseran prediksi yang disebabkan oleh jenis kebocoran target khusus yang ada di semua implementasi algoritma peningkatan gradien yang ada saat ini.
CatBoost Algoritma ini berkinerja baik dalam kompetisi pembelajaran mesin karena penanganannya yang kuat terhadap berbagai tipe data, hubungan, distribusi, dan keragaman hiperparameter yang dapat Anda sesuaikan. Anda dapat menggunakan CatBoost untuk regresi, klasifikasi (biner dan multiclass), dan masalah peringkat.
Untuk informasi lebih lanjut tentang peningkatan gradien, lihat. Bagaimana XGBoost algoritma SageMaker AI bekerja Untuk detail mendalam tentang teknik GOSS dan EFB tambahan yang digunakan dalam CatBoost metode ini, lihat CatBoost: peningkatan yang tidak bias