Ottimizza un modello Light GBM - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ottimizza un modello Light GBM

L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati di addestramento e di convalida. L'ottimizzazione del modello si concentra sui seguenti iperparametri:

Nota

La funzione dell'obiettivo di apprendimento viene assegnata automaticamente in base al tipo di attività di classificazione, che è determinata dal numero di numeri interi univoci nella colonna dell'etichetta. Per ulteriori informazioni, consulta GBMIperparametri della luce.

  • Una funzione dell’obiettivo di apprendimento da ottimizzare durante l’addestramento dei modelli

  • Un parametro di valutazione utilizzato per valutare le prestazioni del modello durante la convalida

  • Un insieme di iperparametri e un intervallo di valori per ciascuno da utilizzare quando si ottimizza automaticamente il modello

L'ottimizzazione automatica del modello ricerca gli iperparametri specificati per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro di valutazione scelto.

Nota

La regolazione automatica dei modelli per Light GBM è disponibile solo su Amazon SageMaker SDKs, non sulla SageMaker console.

Per ulteriori informazioni sull'ottimizzazione del modello, consulta Ottimizzazione automatica del modello con SageMaker.

Metriche di valutazione calcolate dall'algoritmo Light GBM

L'GBMalgoritmo SageMaker Light calcola le seguenti metriche da utilizzare per la convalida del modello. Il parametro di valutazione viene assegnato automaticamente in base al tipo di attività di classificazione, che è determinata dal numero di numeri interi univoci nella colonna dell'etichetta.

Nome parametro Descrizione Direzione dell'ottimizzazione Modello regex
rmse radice dell'errore quadratico medio minimizza "rmse: ([0-9\\.]+)"
l1 media degli errori assoluti minimizza "l1: ([0-9\\.]+)"
l2 errore quadratico medio minimizza "l2: ([0-9\\.]+)"
huber huber loss (perdita di huber) minimizza "huber: ([0-9\\.]+)"
fair perdita equa minimizza "fair: ([0-9\\.]+)"
binary_logloss entropia binaria incrociata massimizza "binary_logloss: ([0-9\\.]+)"
binary_error errore binario minimizza "binary_error: ([0-9\\.]+)"
auc AUC massimizza "auc: ([0-9\\.]+)"
average_precision punteggio di precisione media massimizza "average_precision: ([0-9\\.]+)"
multi_logloss entropia incrociata multiclasse massimizza "multi_logloss: ([0-9\\.]+)"
multi_error punteggio di errore multiclasse minimizza "multi_error: ([0-9\\.]+)"
auc_mu AUC-mu massimizza "auc_mu: ([0-9\\.]+)"
cross_entropy entropia incrociata minimizza "cross_entropy: ([0-9\\.]+)"

Iperparametri Tunable Light GBM

Ottimizza il GBM modello Light con i seguenti iperparametri. Gli iperparametri che hanno il maggiore effetto sull'ottimizzazione delle metriche di GBM valutazione di Light sono:learning_rate,,, num_leavesfeature_fraction, bagging_fraction e. bagging_freq max_depth min_data_in_leaf Per un elenco di tutti gli GBM iperparametri Light, vedete. GBMIperparametri della luce

Nome parametro Tipo parametro Intervalli consigliati
learning_rate ContinuousParameterRanges MinValue: 0,001, MaxValue: 0,01
num_leaves IntegerParameterRanges MinValue: 10, MaxValue: 10
feature_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_freq IntegerParameterRanges MinValue: 0, MaxValue: 10
max_depth IntegerParameterRanges MinValue: 15, MaxValue: 10
min_data_in_leaf IntegerParameterRanges MinValue: 10, MaxValue: 20