Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
LightGBM implémente un algorithme d'arbre de décision avec renforcement de gradient (algorithme GBDT) conventionnel auquel s'ajoutent deux nouvelles techniques : l'échantillonnage d'un côté en dégradé (GOSS, Gradient-based One-Side Sampling) et l'offre groupée de fonctionnalités exclusives (EFB, Exclusive Feature Bundling). Ces techniques sont conçues pour améliorer considérablement l'efficacité et la capacité de mise à l’échelle de l'algorithme GBDT.
L'algorithme LightGBM fonctionne bien dans les compétitions de Machine Learning en raison de son traitement robuste de divers types de données, de relations et de distributions, et de la variété d'hyperparamètres que vous pouvez affiner. Vous pouvez utiliser LightGBM pour les problèmes de régression, de classification (binaire et multi-classes) et de classement.
Pour plus d'informations sur le renforcement de gradient, consultez Comment fonctionne l' XGBoost algorithme d' SageMaker IA. Pour plus de détails sur les techniques GOSS et EFB supplémentaires utilisées dans la méthode LightGBM, consultez LightGBM : un arbre de décision avec renforcement de gradient hautement efficace