Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Ottimizza un modello XGBoost
L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati di addestramento e di convalida. Puoi scegliere tre tipi di iperparametri:
-
una funzione di apprendimento
objective
da ottimizzare durante l’addestramento dei modelli -
un
eval_metric
da utilizzare per valutare le prestazioni del modello durante la convalida -
un insieme di iperparametri e un intervallo di valori per ciascuno da utilizzare quando si ottimizza automaticamente il modello
Scegli il parametro di valutazione dal set di parametri di valutazione calcolate dall'algoritmo. L'ottimizzazione automatica del modello ricerca gli iperparametri scelti per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro di valutazione.
Nota
L'ottimizzazione automatica del modello per XGBoost 0,90 è disponibile solo da Amazon SageMaker AISDKs, non dalla console SageMaker AI.
Per ulteriori informazioni sull'ottimizzazione del modello, consulta Ottimizzazione automatica dei modelli con AI SageMaker .
Metriche di valutazione calcolate dall'algoritmo XGBoost
L'XGBoostalgoritmo calcola le seguenti metriche da utilizzare per la convalida del modello. Durante l'ottimizzazione del modello, scegli uno di questi parametri per valutare il modello. Per l'elenco completo dei eval_metric
valori validi, consulta Learning Task Parameters XGBoost
Nome parametro | Descrizione | Direzione dell'ottimizzazione |
---|---|---|
validation:accuracy |
Velocità di classificazione, calcolata come #(a destra)/#(tutti i casi). |
Massimizza |
validation:auc |
Area sottesa alla curva. |
Massimizza |
validation:error |
Percentuale di errori della classificazione binaria, calcolata come n. (casi con errori)/n. (tutti i casi). |
Minimizza |
validation:f1 |
Indicatore della precisione della classificazione, calcolata come la media armonica di precisione e richiamo. |
Massimizza |
validation:logloss |
Probabilità log negativa. |
Minimizza |
validation:mae |
Media degli errori assoluti. |
Minimizza |
validation:map |
Media della precisione media. |
Massimizza |
validation:merror |
Percentuale di errori della classificazione multiclasse, calcolata come n. (casi con errori)/n. (tutti i casi). |
Minimizza |
validation:mlogloss |
Probabilità log negativa per la classificazione multiclasse. |
Minimizza |
validation:mse |
Errore quadratico medio. |
Minimizza |
validation:ndcg |
Normalized Discounted Cumulative Gain. |
Massimizza |
validation:rmse |
Radice dell'errore quadratico medio |
Minimizza |
Iperparametri regolabili XGBoost
Ottimizza il XGBoost modello con i seguenti iperparametri. Gli iperparametri che hanno il maggiore effetto sull'ottimizzazione delle metriche di XGBoost valutazione sono:alpha
,,min_child_weight
, subsample
e. eta
num_round
Nome parametro | Tipo parametro | Intervalli consigliati |
---|---|---|
alpha |
ContinuousParameterRanges |
MinValue: 0,: 100 MaxValue |
colsample_bylevel |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue: 1 |
colsample_bynode |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue: 1 |
colsample_bytree |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue: 1 |
eta |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue 0,5 |
gamma |
ContinuousParameterRanges |
MinValue: 0, MaxValue: 5 |
lambda |
ContinuousParameterRanges |
MinValue: 0, MaxValue: 100 |
max_delta_step |
IntegerParameterRanges |
[0, 10] |
max_depth |
IntegerParameterRanges |
[0, 10] |
min_child_weight |
ContinuousParameterRanges |
MinValue: 0, MaxValue: 120 |
num_round |
IntegerParameterRanges |
[1, 4000] |
subsample |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue: 1 |