Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
CatBoost implémente un algorithme GBDT (Gradient Boosting Decision Tree) classique en y ajoutant deux avancées algorithmiques essentielles :
L'implémentation d'un renforcement ordonné, une alternative à l'algorithme classique axée sur la permutation
Un algorithme innovant pour le traitement des caractéristiques catégorielles
Les deux techniques ont été créées pour lutter contre un changement de prédiction causé par un type particulier de fuite de cible présent dans toutes les implémentations existantes des algorithmes avec renforcement de gradient.
L' CatBoost algorithme fonctionne bien dans les compétitions d'apprentissage automatique en raison de sa gestion robuste d'une variété de types de données, de relations, de distributions et de la diversité des hyperparamètres que vous pouvez affiner. Vous pouvez l'utiliser CatBoost pour les problèmes de régression, de classification (binaire et multiclasse) et de classement.
Pour plus d'informations sur le renforcement de gradient, consultez Comment fonctionne l' XGBoost algorithme d' SageMaker IA. Pour plus de détails sur les techniques GOSS et EFB supplémentaires utilisées dans la CatBoost méthode, voir CatBoost: renforcement impartial avec