Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Important
Le XGBoost 0.72 est obsolète par Amazon AI. SageMaker Vous pouvez toujours utiliser cette ancienne version de XGBoost (en tant qu'algorithme intégré) en extrayant l'URI de son image, comme indiqué dans l'exemple de code suivant. Car XGBoost l'URI de l'image se terminant par :1
correspond à l'ancienne version.
import boto3
from sagemaker.amazon.amazon_estimator import get_image_uri
xgb_image_uri = get_image_uri(boto3.Session().region_name, "xgboost", repo_version="1")
Si vous souhaitez utiliser des versions plus récentes, vous devez spécifier explicitement les balises d'URI d'image (voir Versions prises en charge).
Cette version précédente de l' XGBoost algorithme Amazon SageMaker AI est basée sur la version 0.72. XGBoost
Les clients doivent envisager d'utiliser la nouvelle version de l'XGBoost algorithme avec Amazon SageMaker AI. Ils peuvent l'utiliser comme algorithme intégré à l' SageMaker IA ou comme framework pour exécuter des scripts dans leurs environnements locaux, comme ils le feraient généralement, par exemple, avec un framework d'apprentissage en profondeur Tensorflow. Cette nouvelle implémentation présente une empreinte mémoire plus petite, une meilleure journalisation, une meilleure validation des hyperparamètres et un ensemble étendu de métriques. L'implémentation antérieure de XGBoost reste disponible pour les clients s'ils doivent reporter la migration vers la nouvelle version. Mais cette implémentation précédente restera liée à la version 0.72 de XGBoost.
Interface d'entrée/sortie pour la version 0.72 XGBoost
Le boosting de gradient fonctionne sur les données tabulaires, avec les lignes représentant les observations, une colonne représentant la variable ou l'étiquette cible, et les autres colonnes représentant les fonctions.
L'implémentation de l' SageMaker IA prend en XGBoost charge les formats CSV et libsvm pour la formation et l'inférence :
-
Pour Training ContentType, les entrées valides sont text/libsvm (par défaut) ou text/csv.
-
Pour Inference ContentType, les entrées valides sont text/libsvm ou (par défaut) text/csv.
Note
Pour l'entraînement CSV, l'algorithme suppose que la variable cible est dans la première colonne et que le CSV n'a pas d'enregistrement d'en-tête. Pour l'inférence CSV, l'algorithme suppose que l'entrée CSV ne dispose pas de la colonne d'étiquette.
Pour l'entraînement libsvm, l'algorithme suppose que l'étiquette se trouve dans la première colonne. Les colonnes suivantes contiennent les paires de valeur d'index des caractéristiques. Par conséquent, chaque ligne a le format suivant : <label> <index0>:<value0> <index1>:<value1> ... Les demandes d'inférence pour libsvm peuvent avoir ou nom les étiquettes au format libsvm.
Cela diffère des autres algorithmes d' SageMaker IA, qui utilisent le format d'entrée d'entraînement protobuf pour maintenir une plus grande cohérence avec les formats de XGBoost données standard.
Pour le mode d'entrée de l'entraînement CSV, la mémoire totale disponible pour l'algorithme (Nombre d'instances * la mémoire disponible dans l'objet InstanceType
) doit être en mesure de contenir le jeu de données de l'entraînement. Pour le mode d'entrée de l'entraînement libsvm, ce n'est pas obligatoire, mais nous le recommandons.
SageMaker L'IA XGBoost utilise le module Python pickle pour serialize/deserialize the model, which can be used for saving/loading le modèle.
Pour utiliser un modèle formé à l' SageMaker IA XGBoost en open source XGBoost
-
Utilisez le code Python suivant :
import pickle as pkl import tarfile import xgboost t = tarfile.open('model.tar.gz', 'r:gz') t.extractall() model = pkl.load(open(
model_file_path
, 'rb')) # prediction with test data pred = model.predict(dtest
)
Pour différencier l'importance des points de données étiquetés, utilisez Instance Weight Supports
-
SageMaker L'IA XGBoost permet aux clients de différencier l'importance des points de données étiquetés en attribuant une valeur de pondération à chaque instance. Pour l'entrée text/libsvm, les clients peuvent attribuer des valeurs de pondération aux instances de données en les attachant après les étiquettes. Par exemple,
label:weight idx_0:val_0 idx_1:val_1...
. Pour l'entrée text/csv, les clients doivent activer l'indicateurcsv_weights
dans les paramètres et attacher les valeurs de pondération dans la colonne après les étiquettes. Par exemple :label,weight,val_0,val_1,...
).
EC2 Recommandation d'instance pour la XGBoost version 0.72
SageMaker XGBoost Actuellement, seuls les trains utilisent l'IA CPUs. Il s'agit d'un algorithme dépendant de la mémoire (par opposition à un algorithme dépendant du calcul). Par conséquent, une instance de calcul à usage général (par exemple, M4) est un meilleur choix qu'une instance optimisée pour le calcul (par exemple, C4). De plus, nous vous recommandons d'avoir suffisamment de mémoire totale dans les instances sélectionnées pour contenir les données d'entraînement. Bien qu'il prenne en charge l'utilisation de l'espace disque pour traiter les données qui ne rentrent pas dans la mémoire principale ( out-of-corefonctionnalité disponible avec le mode d'entrée libsvm), l'écriture de fichiers de cache sur le disque ralentit le temps de traitement de l'algorithme.
XGBoost Exemples de carnets de notes de la version 0.72
Pour un exemple de bloc-notes expliquant comment utiliser la dernière version d' SageMaker AI en XGBoost tant qu'algorithme intégré pour entraîner et héberger un modèle de régression, consultez la section Régression avec l' XGBoost algorithme Amazon SageMaker AI
XGBoost Hyperparamètres de la version 0.72
Le tableau suivant contient les hyperparamètres de l' XGBoost algorithme. Il s'agit des paramètres qui sont définis par les utilisateurs pour faciliter l'estimation des paramètres modèles issus des données. Les hyperparamètres requis qui doivent être définies sont les premiers répertoriés, dans l'ordre alphabétique. Les hyperparamètres facultatifs qui peuvent être définis sont répertoriés ensuite, également dans l'ordre alphabétique. L' XGBoost algorithme SageMaker AI est une implémentation du XGBoost package open source. Actuellement, SageMaker AI prend en charge la version 0.72. Pour plus de détails sur la configuration des hyperparamètres pour cette version de XGBoost, consultez la section XGBoostParamètres
Nom du paramètre | Description |
---|---|
num_class |
Nombre de classes. Obligatoire si Valeurs valides : nombre entier |
num_round |
Le nombre de séries pour exécuter l'entraînement. Obligatoire Valeurs valides : nombre entier |
alpha |
Condition de régularisation L1 sur les pondérations. L'augmentation de cette valeur rend les modèles plus prudents. Facultatif Valeurs valides : float Valeur par défaut : 0 |
base_score |
Score de prédiction initiale de toutes les instances, biais global. Facultatif Valeurs valides : float Valeur par défaut : 0.5 |
booster |
Quel booster utiliser. Les valeurs Facultatif Valeurs valides : string. Valeur par défaut : |
colsample_bylevel |
Ration de sous-échantillon des colonnes pour chaque fractionnement, dans chaque niveau. Facultatif Valeurs valides : float. Plage : [0,1]. Valeur par défaut : 1 |
colsample_bytree |
Ratio de sous-échantillon des colonnes lors de la construction de chaque arbre. Facultatif Valeurs valides : float. Plage : [0,1]. Valeur par défaut : 1 |
csv_weights |
Lorsque cet indicateur est activé, il XGBoost différencie l'importance des instances pour la saisie au format CSV en utilisant la deuxième colonne (la colonne après les étiquettes) des données d'entraînement comme pondération des instances. Facultatif Valeurs valides : 0 ou 1 Valeur par défaut : 0 |
early_stopping_rounds |
Le modèle entraîne jusqu'à ce que le score de validation arrête l'amélioration. L'erreur de validation doit diminuer au moins chaque Facultatif Valeurs valides : nombre entier Valeur par défaut: - |
eta |
Réduction de la taille de l'étape utilisée dans les mises à jour pour empêcher le surajustement. Après chaque étape du boosting, vous pouvez directement obtenir les pondérations des nouvelles fonctions. Le paramètre Facultatif Valeurs valides : float. Plage : [0,1]. Valeur par défaut : 0.3 |
eval_metric |
Métriques d'évaluation pour les données de validation. Une métrique est attribué par défaut en fonction de l'objectif :
Pour obtenir la liste des entrées valides, consultez la section XGBoost Paramètres Facultatif Valeurs valides : chaîne Valeur par défaut : valeur par défaut selon l'objectif. |
gamma |
Diminution de perte minimale requise pour effectuer une partition supplémentaire sur un nœud terminal de l'arbre. Plus la valeur est grande, plus l'algorithme est prudent. Facultatif Valeurs valides : float. Plage : [0,∞). Valeur par défaut : 0 |
grow_policy |
Contrôle la façon dont les nouveaux nœuds sont ajoutés à l'arbre. Actuellement pris en charge uniquement si Facultatif Valeurs valides : string. Valeur par défaut : |
lambda |
Condition de régularisation L2 sur les pondérations. L'augmentation de cette valeur rend les modèles plus prudents. Facultatif Valeurs valides : float Valeur par défaut : 1 |
lambda_bias |
Condition de régularisation L2 sur un biais. Facultatif Valeurs valides : float. Plage : [0.0, 1.0]. Valeur par défaut : 0 |
max_bin |
Nombre maximal de compartiments distincts pour compartimenter les fonctions continues. Utilisé uniquement si Facultatif Valeurs valides : nombre entier Valeur par défaut : 256 |
max_delta_step |
Étape delta maximale autorisée pour chaque estimation de pondération d'arbre. Quand un nombre entier positif est utilisé, il permet que la mise à jour soit encore plus prudente. L'option privilégiée consiste à l'utiliser dans une régression logistique. Définissez-la entre 1-10 pour aider à contrôler la mise à jour. Facultatif Valeurs valides : nombre entier. Plage : [0,∞). Valeur par défaut : 0 |
max_depth |
Profondeur maximale d'un arbre. L'augmentation de cette valeur rend le modèle plus complexe et susceptible d'être surajusté. 0 indique l'absence de limite. Une limite est requise quand Facultatif Valeurs valides : nombre entier. Plage : [0,∞) Valeur par défaut : 6 |
max_leaves |
Nombre maximal de nœuds à ajouter. Pertinent uniquement si Facultatif Valeurs valides : nombre entier Valeur par défaut : 0 |
min_child_weight |
Somme minimale de la pondération (Hessian) d'instance nécessaire dans un enfant. Si l'étape de partition de l'arbre se traduit par un nœud terminal avec la somme de pondération d'instance inférieure à Facultatif Valeurs valides : float. Plage : [0,∞). Valeur par défaut : 1 |
normalize_type |
Type d'algorithme de normalisation. Facultatif Valeurs valides : tree ou forest. Valeur par défaut : tree |
nthread |
Nombre de threads parallèles utilisés pour exécuter xgboost. Facultatif Valeurs valides : nombre entier Valeur par défaut : nombre maximal de threads. |
objective |
Spécifie la tâche d'apprentissage et l'objectif d'apprentissage correspondant. Exemples : Facultatif Valeurs valides : chaîne Valeur par défaut : |
one_drop |
Lorsque cet indicateur est activé, au moins un arbre est toujours supprimé pendant l'opération de dropout. Facultatif Valeurs valides : 0 ou 1 Valeur par défaut : 0 |
process_type |
Type de processus de boosting à exécuter. Facultatif Valeurs valides : string. Valeur par défaut : |
rate_drop |
Taux de dropout qui spécifie la fraction des arbres précédents à supprimer pendant le dropout. Facultatif Valeurs valides : float. Plage : [0.0, 1.0]. Valeur par défaut : 0.0 |
refresh_leaf |
Il s'agit d'un paramètre du plug-in de mise à jour « refresh ». Lorsque ce paramètre est défini sur Facultatif Valeurs valides : 0 | 1 Valeur par défaut : 1 |
sample_type |
Type d'algorithme d'échantillonnage. Facultatif Valeurs valides : Valeur par défaut : |
scale_pos_weight |
Contrôle le solde de pondérations positives et négatives. Utile pour les classes non équilibrées. Valeur typique à prendre en compte : Facultatif Valeurs valides : float Valeur par défaut : 1 |
seed |
Nombre d'amorçage aléatoire. Facultatif Valeurs valides : nombre entier Valeur par défaut : 0 |
silent |
0 signifie l'impression des messages d'exécution, 1 signifie le mode silencieux. Valeurs valides : 0 ou 1 Facultatif Valeur par défaut : 0 |
sketch_eps |
Utilisé uniquement pour l'algorithme gourmand (glouton) approximatif. Cela se traduit en O(1/ Facultatif Valeurs valides : Float, Plage : [0, 1]. Valeur par défaut : 0.03 |
skip_drop |
Probabilité d'ignorer la procédure de dropout pendant une itération de boosting. Facultatif Valeurs valides : float. Plage : [0.0, 1.0]. Valeur par défaut : 0.0 |
subsample |
Ratio de sous-échantillon de l'instance d'entraînement. Le définir sur 0,5 signifie que la moitié des instances de données sont collectées de XGBoost manière aléatoire pour faire pousser des arbres. Cela empêche le surajustement. Facultatif Valeurs valides : float. Plage : [0,1]. Valeur par défaut : 1 |
tree_method |
L'algorithme de construction d'arbres utilisé dans XGBoost. Facultatif Valeurs valides : Valeur par défaut : |
tweedie_variance_power |
Paramètre qui contrôle la variance de la distribution Tweedie. Facultatif Valeurs valides : float. Plage : (1, 2). Valeur par défaut : 1.5 |
updater |
Chaîne séparée par des virgules qui définit la séquence des programmes de mise à jour des arbres à exécuter. Cela fournit une solution modulaire pour créer et modifier les arbres. Pour une liste complète des entrées valides, reportez-vous à la section XGBoost Paramètres Facultatif Valeurs valides : chaîne séparée par des virgules. Valeur par défaut : |
Modèle Tune and XGBoost Release 0.72
Le réglage de modèle automatique, ou réglage d'hyperparamètre, détecte la meilleure version d'un modèle en exécutant plusieurs tâches qui testent une plage d'hyperparamètres sur vos jeu de données d'entraînement et de valisation. Vous choisissez trois types d'hyperparamètres :
-
une fonction
objective
d'apprentissage à optimiser pendant l'entraînement du modèle ; -
une métrique
eval_metric
à utiliser pour évaluer les performances du modèle lors de la validation ; -
un ensemble d'hyperparamètres et une plage de valeurs à utiliser pour régler automatiquement le modèle.
Vous choisissez la métrique d'évaluation parmi un ensemble de métriques d'évaluation que l'algorithme calcule. Le réglage de modèle automatique recherche parmi les hyperparamètres choisis la combinaison de valeurs qui produira un modèle permettant d'optimiser la métrique d'évaluation.
Pour plus d'informations sur le réglage de modèle, consultez Réglage automatique du modèle grâce à l' SageMaker IA.
Métriques calculées par l'algorithme de la XGBoost version 0.72
L' XGBoost algorithme basé sur la version 0.72 calcule les neuf métriques suivantes à utiliser pour la validation du modèle. Lors du réglage du modèle, choisissez l'une de ces métriques pour évaluer le modèle. Pour obtenir la liste complète des eval_metric
valeurs valides, reportez-vous à la section Paramètres des tâches XGBoost d'apprentissage
Nom de la métrique | Description | Orientation de l'optimisation |
---|---|---|
validation:auc |
Aire sous une courbe (AUC, Area Under a Curve). |
Agrandir |
validation:error |
Taux d'erreurs de classification binaire, calculé comme Nbre cas erronés/Nbre total de cas. |
Réduire |
validation:logloss |
Probabilité de journalisation négative. |
Réduire |
validation:mae |
Erreur absolue moyenne. |
Réduire |
validation:map |
Précision moyenne. |
Agrandir |
validation:merror |
Taux d'erreurs de classification multiclasse, calculé comme Nbre cas erronés/Nbre total de cas. |
Réduire |
validation:mlogloss |
Probabilité de journalisation négative pour la classification multiclasse. |
Réduire |
validation:ndcg |
NDCG (Normalized Discounted Cumulative Gain). |
Agrandir |
validation:rmse |
Racine carrée de l'erreur quadratique moyenne (RMSE) |
Réduire |
Hyperparamètres de la XGBoost version 0.72 réglable
Réglez le XGBoost modèle avec les hyperparamètres suivants. Les hyperparamètres qui ont le plus d'effet sur l'optimisation des métriques XGBoost d'évaluation sont les suivants : alpha
min_child_weight
,subsample
,eta
, etnum_round
.
Nom du paramètre | Type de paramètre | Plages recommandées |
---|---|---|
alpha |
ContinuousParameterRanges |
MinValue: 0, MaxValue 100 |
colsample_bylevel |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue : 1 |
colsample_bytree |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue : 1 |
eta |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue 0,5 |
gamma |
ContinuousParameterRanges |
MinValue: 0, MaxValue 5 |
lambda |
ContinuousParameterRanges |
MinValue: 0, MaxValue 100 |
max_delta_step |
IntegerParameterRanges |
[0, 10] |
max_depth |
IntegerParameterRanges |
[0, 10] |
min_child_weight |
ContinuousParameterRanges |
MinValue: 0, MaxValue 120 |
num_round |
IntegerParameterRanges |
[1, 4000] |
subsample |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue : 1 |