Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
LightGBM implementa un algoritmo convencional de árbol de decisiones con potenciación por gradiente (GBDT), con la adición de dos técnicas novedosas: el muestreo unilateral basado en gradientes (GOSS) y el agrupamiento de características exclusivas (EFB). Estas técnicas están diseñadas para mejorar considerablemente la eficiencia y la escalabilidad del GBDT.
LightGBM tiene un gran rendimiento en competiciones de machine learning, ya que puede gestionar con solvencia distintos tipos de datos, relaciones y distribuciones, así como la amplia variedad de hiperparámetros que se pueden ajustar. Puede usar LightGBM para problemas de regresión, de clasificación (binaria y multiclase) y de ranking.
Para obtener más información sobre la potenciación por gradiente, consulte Cómo funciona el XGBoost algoritmo de SageMaker IA. Para obtener información detallada sobre las técnicas adicionales de GOSS y EFB utilizadas en el método LightGBM, consulte LightGBM: A Highly Efficient Gradient Boosting Decision Tree