Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Comment fonctionne l' XGBoost algorithme d' SageMaker IA

Mode de mise au point
Comment fonctionne l' XGBoost algorithme d' SageMaker IA - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

XGBoostest une implémentation open source populaire et efficace de l'algorithme des arbres boostés par le gradient. Le boosting de gradient est un algorithme d'apprentissage supervisé, qui tente de prédire avec précision une variable cible en combinant les estimations d'un ensemble de modèles plus simple et plus faibles.

Lorsque vous utilisez l'amplification du gradient pour la régression, les élèves les plus faibles sont les arbres de régression, et chaque arbre de régression fait correspondre un point de données d'entrée à l'une de ses feuilles contenant un score continu. XGBoost minimise une fonction objectif régularisée (L1 et L2) qui combine une fonction de perte convexe (basée sur la différence entre les sorties prévues et cibles) et un terme de pénalité pour la complexité du modèle (en d'autres termes, les fonctions de l'arbre de régression). L'entraînement se poursuit de façon itérative, en ajoutant de nouveaux arbres qui prédisent les résidus ou les erreurs des arbres antérieurs qui sont ensuite combinés avec les arbres précédents pour effectuer la prédiction finale. Il est appelée boosting de gradient, parce qu'il utilise un algorithme de descente de gradient pour minimiser la perte lors de l'ajout de nouveaux modèles.

Voici une brève illustration du fonctionnement du boosting de l'arborescence de gradient.

Schéma illustrant le renforcement de l'arbre à dégradés.

Pour plus de détails XGBoost, voir :

Rubrique suivante :

Hyperparamètres

Rubrique précédente :

Exemples de blocs-notes
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.