Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Le réglage de modèle automatique, ou réglage d'hyperparamètre, détecte la meilleure version d'un modèle en exécutant plusieurs tâches qui testent une plage d'hyperparamètres sur vos jeu de données d'entraînement et de valisation. Le réglage du modèle se concentre sur les hyperparamètres suivants :
Note
La fonction objective d'apprentissage est attribuée automatiquement en fonction du type de la tâche de classification, qui est déterminé par le nombre d'entiers uniques dans la colonne d'étiquette. Pour de plus amples informations, veuillez consulter Hyperparamètres de LightGBM.
-
une fonction objective d'apprentissage à optimiser pendant l'entraînement du modèle ;
-
une métrique d'évaluation utilisée pour évaluer les performances du modèle lors de la validation ;
-
un jeu d'hyperparamètres et une plage de valeurs pour chacun d'eux, à utiliser lors du réglage automatique du modèle.
Le réglage de modèle automatique recherche dans les hyperparamètres que vous avez spécifiés la combinaison de valeurs qui produira un modèle permettant d'optimiser la métrique d'évaluation choisie.
Note
Le réglage automatique des modèles pour LightGBM n'est disponible que depuis Amazon SageMaker AI SDKs, et non depuis la console SageMaker AI.
Pour plus d'informations sur le réglage de modèle, consultez Réglage automatique du modèle grâce à l' SageMaker IA.
Métriques d'évaluation calculées par l'algorithme LightGBM
L'algorithme SageMaker AI LightGBM calcule les métriques suivantes à utiliser pour la validation du modèle. La métrique d'évaluation est attribuée automatiquement en fonction du type de tâche de classification, qui est déterminé par le nombre d'entiers uniques dans la colonne d'étiquettes.
Nom de la métrique | Description | Orientation de l'optimisation | Motif Regex |
---|---|---|---|
rmse |
racine carrée de l'erreur quadratique moyenne | réduire | "rmse: ([0-9\\.]+)" |
l1 |
erreur absolue moyenne | réduire | "l1: ([0-9\\.]+)" |
l2 |
erreur quadratique moyenne | réduire | "l2: ([0-9\\.]+)" |
huber |
perte Huber | réduire | "huber: ([0-9\\.]+)" |
fair |
perte équitable | réduire | "fair: ([0-9\\.]+)" |
binary_logloss |
entropie croisée binaire | agrandir | "binary_logloss: ([0-9\\.]+)" |
binary_error |
erreur binaire | réduire | "binary_error: ([0-9\\.]+)" |
auc |
AUC | agrandir | "auc: ([0-9\\.]+)" |
average_precision |
score de précision moyenne | agrandir | "average_precision: ([0-9\\.]+)" |
multi_logloss |
entropie croisée multi-classes | agrandir | "multi_logloss: ([0-9\\.]+)" |
multi_error |
score d'erreur multiclasse | réduire | "multi_error: ([0-9\\.]+)" |
auc_mu |
AUC-mu | agrandir | "auc_mu: ([0-9\\.]+)" |
cross_entropy |
entropie croisée | réduire | "cross_entropy: ([0-9\\.]+)" |
Hyperparamètres réglables de LightGBM
Réglez le modèle LightGBM avec les hyperparamètres suivants. Les hyperparamètres ayant le plus d'impact sur l'optimisation des métriques d'évaluation de CatBoost sont : learning_rate
, num_leaves
, feature_fraction
, bagging_fraction
, bagging_freq
, max_depth
et min_data_in_leaf
. Pour obtenir la liste de tous les hyperparamètres de LightGBM, consultez Hyperparamètres de LightGBM.
Nom du paramètre | Type de paramètre | Plages recommandées |
---|---|---|
learning_rate |
ContinuousParameterRanges | MinValue: 0,001, MaxValue 0,01 |
num_leaves |
IntegerParameterRanges | MinValue: 10, MaxValue 10 |
feature_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue 1,0 |
bagging_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue 1,0 |
bagging_freq |
IntegerParameterRanges | MinValue: 0, MaxValue 10 |
max_depth |
IntegerParameterRanges | MinValue: 15, MaxValue 100 |
min_data_in_leaf |
IntegerParameterRanges | MinValue: 10, MaxValue 20 |