Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Ottimizza un modello Light GBM
L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati di addestramento e di convalida. L'ottimizzazione del modello si concentra sui seguenti iperparametri:
Nota
La funzione dell'obiettivo di apprendimento viene assegnata automaticamente in base al tipo di attività di classificazione, che è determinata dal numero di numeri interi univoci nella colonna dell'etichetta. Per ulteriori informazioni, consulta GBMIperparametri della luce.
-
Una funzione dell’obiettivo di apprendimento da ottimizzare durante l’addestramento dei modelli
-
Un parametro di valutazione utilizzato per valutare le prestazioni del modello durante la convalida
-
Un insieme di iperparametri e un intervallo di valori per ciascuno da utilizzare quando si ottimizza automaticamente il modello
L'ottimizzazione automatica del modello ricerca gli iperparametri specificati per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro di valutazione scelto.
Nota
La regolazione automatica dei modelli per Light GBM è disponibile solo su Amazon SageMaker SDKs, non sulla SageMaker console.
Per ulteriori informazioni sull'ottimizzazione del modello, consulta Ottimizzazione automatica del modello con SageMaker.
Metriche di valutazione calcolate dall'algoritmo Light GBM
L'GBMalgoritmo SageMaker Light calcola le seguenti metriche da utilizzare per la convalida del modello. Il parametro di valutazione viene assegnato automaticamente in base al tipo di attività di classificazione, che è determinata dal numero di numeri interi univoci nella colonna dell'etichetta.
Nome parametro | Descrizione | Direzione dell'ottimizzazione | Modello regex |
---|---|---|---|
rmse |
radice dell'errore quadratico medio | minimizza | "rmse: ([0-9\\.]+)" |
l1 |
media degli errori assoluti | minimizza | "l1: ([0-9\\.]+)" |
l2 |
errore quadratico medio | minimizza | "l2: ([0-9\\.]+)" |
huber |
huber loss (perdita di huber) | minimizza | "huber: ([0-9\\.]+)" |
fair |
perdita equa | minimizza | "fair: ([0-9\\.]+)" |
binary_logloss |
entropia binaria incrociata | massimizza | "binary_logloss: ([0-9\\.]+)" |
binary_error |
errore binario | minimizza | "binary_error: ([0-9\\.]+)" |
auc |
AUC | massimizza | "auc: ([0-9\\.]+)" |
average_precision |
punteggio di precisione media | massimizza | "average_precision: ([0-9\\.]+)" |
multi_logloss |
entropia incrociata multiclasse | massimizza | "multi_logloss: ([0-9\\.]+)" |
multi_error |
punteggio di errore multiclasse | minimizza | "multi_error: ([0-9\\.]+)" |
auc_mu |
AUC-mu | massimizza | "auc_mu: ([0-9\\.]+)" |
cross_entropy |
entropia incrociata | minimizza | "cross_entropy: ([0-9\\.]+)" |
Iperparametri Tunable Light GBM
Ottimizza il GBM modello Light con i seguenti iperparametri. Gli iperparametri che hanno il maggiore effetto sull'ottimizzazione delle metriche di GBM valutazione di Light sono:learning_rate
,,, num_leaves
feature_fraction
, bagging_fraction
e. bagging_freq
max_depth
min_data_in_leaf
Per un elenco di tutti gli GBM iperparametri Light, vedete. GBMIperparametri della luce
Nome parametro | Tipo parametro | Intervalli consigliati |
---|---|---|
learning_rate |
ContinuousParameterRanges | MinValue: 0,001, MaxValue: 0,01 |
num_leaves |
IntegerParameterRanges | MinValue: 10, MaxValue: 10 |
feature_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue: 1,0 |
bagging_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue: 1,0 |
bagging_freq |
IntegerParameterRanges | MinValue: 0, MaxValue: 10 |
max_depth |
IntegerParameterRanges | MinValue: 15, MaxValue: 10 |
min_data_in_leaf |
IntegerParameterRanges | MinValue: 10, MaxValue: 20 |