Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
LightGBM implementa un algoritmo Gradient Boosting Decision Tree (GBDT) convenzionale con l'aggiunta di due nuove tecniche: Gradient-based One-Side Sampling (GOSS) ed Exclusive Feature Bundling (EFB). Queste tecniche sono progettate per migliorare significativamente l'efficienza e la scalabilità di GBDT.
L'algoritmo LightGBM funziona bene nelle competizioni di machine learning grazie alla sua robusta gestione di una varietà di tipi di dati, relazioni, distribuzioni e la diversità di iperparametri che è possibile ottimizzare. È possibile utilizzare LightGBM per problemi di regressione, classificazione (binaria e multiclass) e ordinamento.
Per ulteriori informazioni sul gradient boosting, consulta Come funziona l' XGBoost algoritmo SageMaker AI. Per dettagli approfonditi sulle tecniche GOSS ed EFB aggiuntive utilizzate nel metodo LightGBM consulta LightGBM: un albero delle decisioni di gradient boosting ad alta efficienza