Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Réglage d'un modèle LightGBM

Mode de mise au point
Réglage d'un modèle LightGBM - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Le réglage de modèle automatique, ou réglage d'hyperparamètre, détecte la meilleure version d'un modèle en exécutant plusieurs tâches qui testent une plage d'hyperparamètres sur vos jeu de données d'entraînement et de valisation. Le réglage du modèle se concentre sur les hyperparamètres suivants :

Note

La fonction objective d'apprentissage est attribuée automatiquement en fonction du type de la tâche de classification, qui est déterminé par le nombre d'entiers uniques dans la colonne d'étiquette. Pour de plus amples informations, veuillez consulter Hyperparamètres de LightGBM.

  • une fonction objective d'apprentissage à optimiser pendant l'entraînement du modèle ;

  • une métrique d'évaluation utilisée pour évaluer les performances du modèle lors de la validation ;

  • un jeu d'hyperparamètres et une plage de valeurs pour chacun d'eux, à utiliser lors du réglage automatique du modèle.

Le réglage de modèle automatique recherche dans les hyperparamètres que vous avez spécifiés la combinaison de valeurs qui produira un modèle permettant d'optimiser la métrique d'évaluation choisie.

Note

Le réglage automatique des modèles pour LightGBM n'est disponible que depuis Amazon SageMaker AI SDKs, et non depuis la console SageMaker AI.

Pour plus d'informations sur le réglage de modèle, consultez Réglage automatique du modèle grâce à l' SageMaker IA.

Métriques d'évaluation calculées par l'algorithme LightGBM

L'algorithme SageMaker AI LightGBM calcule les métriques suivantes à utiliser pour la validation du modèle. La métrique d'évaluation est attribuée automatiquement en fonction du type de tâche de classification, qui est déterminé par le nombre d'entiers uniques dans la colonne d'étiquettes.

Nom de la métrique Description Orientation de l'optimisation Motif Regex
rmse racine carrée de l'erreur quadratique moyenne réduire "rmse: ([0-9\\.]+)"
l1 erreur absolue moyenne réduire "l1: ([0-9\\.]+)"
l2 erreur quadratique moyenne réduire "l2: ([0-9\\.]+)"
huber perte Huber réduire "huber: ([0-9\\.]+)"
fair perte équitable réduire "fair: ([0-9\\.]+)"
binary_logloss entropie croisée binaire agrandir "binary_logloss: ([0-9\\.]+)"
binary_error erreur binaire réduire "binary_error: ([0-9\\.]+)"
auc AUC agrandir "auc: ([0-9\\.]+)"
average_precision score de précision moyenne agrandir "average_precision: ([0-9\\.]+)"
multi_logloss entropie croisée multi-classes agrandir "multi_logloss: ([0-9\\.]+)"
multi_error score d'erreur multiclasse réduire "multi_error: ([0-9\\.]+)"
auc_mu AUC-mu agrandir "auc_mu: ([0-9\\.]+)"
cross_entropy entropie croisée réduire "cross_entropy: ([0-9\\.]+)"

Hyperparamètres réglables de LightGBM

Réglez le modèle LightGBM avec les hyperparamètres suivants. Les hyperparamètres ayant le plus d'impact sur l'optimisation des métriques d'évaluation de CatBoost sont : learning_rate, num_leaves, feature_fraction, bagging_fraction, bagging_freq, max_depth et min_data_in_leaf. Pour obtenir la liste de tous les hyperparamètres de LightGBM, consultez Hyperparamètres de LightGBM.

Nom du paramètre Type de paramètre Plages recommandées
learning_rate ContinuousParameterRanges MinValue: 0,001, MaxValue 0,01
num_leaves IntegerParameterRanges MinValue: 10, MaxValue 10
feature_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue 1,0
bagging_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue 1,0
bagging_freq IntegerParameterRanges MinValue: 0, MaxValue 10
max_depth IntegerParameterRanges MinValue: 15, MaxValue 100
min_data_in_leaf IntegerParameterRanges MinValue: 10, MaxValue 20

Rubrique précédente :

Hyperparamètres
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.