Cómo funciona el SageMaker XGBoost algoritmo - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Cómo funciona el SageMaker XGBoost algoritmo

XGBoostes una implementación popular y eficiente de código abierto del algoritmo de árboles potenciados por gradiente. La potenciación de gradientes es un algoritmo de aprendizaje supervisado que intenta predecir de forma apropiada una variable de destino mediante la combinación de estimaciones de un conjunto de modelos más simples y más débiles.

Cuando se utiliza el aumento del gradiente para la regresión, los árboles de regresión son los árboles de regresión, y cada árbol de regresión asigna un punto de datos de entrada a una de sus hojas que contiene una puntuación continua. XGBoostminimiza una función objetivo regularizada (L1 y L2) que combina una función de pérdida convexa (basada en la diferencia entre los resultados previstos y los objetivos) y un término de penalización para la complejidad del modelo (en otras palabras, las funciones del árbol de regresión). La capacitación avanza de forma iterativa, agregando nuevos árboles que predicen los residuos de errores de los árboles anteriores que se combinan después con los árboles anteriores para realizar la predicción final. Se denomina potenciación del gradiente porque utiliza un algoritmo de gradiente descendente para minimizar la pérdida cuando se agregan nuevos modelos.

Esta es una sencilla descripción gráfica sobre el funcionamiento de la potenciación de árboles por gradiente.

Un diagrama que ilustra la mejora del árbol de gradientes.

Para obtener más información al respectoXGBoost, consulte: