Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Optimieren Sie ein LightGBM-Modell
Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Die Modelloptimierung konzentriert sich auf die folgenden Hyperparameter:
Anmerkung
Die Lernzielfunktion wird automatisch auf der Grundlage der Art der Klassifikationsaufgabe zugewiesen, die durch die Anzahl der eindeutigen Ganzzahlen in der Beschriftungsspalte bestimmt wird. Weitere Informationen finden Sie unter LightGBM-Hyperparameter.
-
Eine Lernzielfunktion zur Optimierung beim Modelltraining
-
Eine Bewertungsmetrik, die verwendet wird, um die Modellleistung während der Validierung zu bewerten
-
Ein Satz von Hyperparametern und ein Wertebereich für jeden, der bei der automatischen Abstimmung des Modells verwendet werden kann
Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.
Anmerkung
Die automatische Modelloptimierung für LightGBM ist nur über die Amazon SageMaker AI verfügbar SDKs, nicht über die SageMaker AI-Konsole.
Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit KI SageMaker .
Mit dem LightGBM-Algorithmus berechnete Bewertungsmetriken
Der SageMaker AI LightGBM-Algorithmus berechnet die folgenden Metriken, die für die Modellvalidierung verwendet werden sollen. Die Bewertungsmetrik wird automatisch auf der Grundlage der Art der Klassifizierungsaufgabe zugewiesen, die durch die Anzahl der eindeutigen Ganzzahlen in der Beschriftungspalte bestimmt wird.
Metrikname | Beschreibung | Optimierungsrichtung | Regex-Muster |
---|---|---|---|
rmse |
Wurzel des mittleren quadratischen Fehlers | Minimieren | "rmse: ([0-9\\.]+)" |
l1 |
Mittlerer absoluter Fehler. | Minimieren | "l1: ([0-9\\.]+)" |
l2 |
Mittlerer quadratischer Fehler. | Minimieren | "l2: ([0-9\\.]+)" |
huber |
Huber-Verlust | Minimieren | "huber: ([0-9\\.]+)" |
fair |
fairer Verlust | Minimieren | "fair: ([0-9\\.]+)" |
binary_logloss |
Binärkreuzentropie | Maximieren | "binary_logloss: ([0-9\\.]+)" |
binary_error |
Binärfehler | Minimieren | "binary_error: ([0-9\\.]+)" |
auc |
AUC | Maximieren | "auc: ([0-9\\.]+)" |
average_precision |
durchschnittliche Präzisionspunktzahl | Maximieren | "average_precision: ([0-9\\.]+)" |
multi_logloss |
Kreuzentropie mit mehreren Klassen | Maximieren | "multi_logloss: ([0-9\\.]+)" |
multi_error |
Mehrklassen-Fehlerbewertung | Minimieren | "multi_error: ([0-9\\.]+)" |
auc_mu |
AUC-MU | Maximieren | "auc_mu: ([0-9\\.]+)" |
cross_entropy |
Kreuz-Entropie | Minimieren | "cross_entropy: ([0-9\\.]+)" |
Optimierbare LightGBM-Hyperparameter
Optimieren Sie das LightGBM-Modell mit den folgenden Hyperparametern. Die Hyperparameter, die den größten Einfluss auf die Optimierung der LightGBM-Bewertungsmetriken haben, sind: learning_rate
, num_leaves
, feature_fraction
, bagging_fraction
, bagging_freq
, max_depth
and min_data_in_leaf
. Eine Liste aller LightGBM-Hyperparameter finden Sie unter LightGBM-Hyperparameter.
Name des Parameters | Parametertyp | Empfohlene Bereiche |
---|---|---|
learning_rate |
ContinuousParameterRanges | MinValue: 0,001,: 0,01 MaxValue |
num_leaves |
IntegerParameterRanges | MinValue: 10, MaxValue: 100 |
feature_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue: 1,0 |
bagging_fraction |
ContinuousParameterRanges | MinValue: 0,1, MaxValue: 1,0 |
bagging_freq |
IntegerParameterRanges | MinValue: 0, MaxValue: 10 |
max_depth |
IntegerParameterRanges | MinValue: 15, MaxValue: 10 |
min_data_in_leaf |
IntegerParameterRanges | MinValue: 10, MaxValue: 20 |