Optimieren Sie ein LightGBM-Modell - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Optimieren Sie ein LightGBM-Modell

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Die Modelloptimierung konzentriert sich auf die folgenden Hyperparameter:

Anmerkung

Die Lernzielfunktion wird automatisch auf der Grundlage der Art der Klassifikationsaufgabe zugewiesen, die durch die Anzahl der eindeutigen Ganzzahlen in der Beschriftungsspalte bestimmt wird. Weitere Informationen finden Sie unter LightGBM-Hyperparameter.

  • Eine Lernzielfunktion zur Optimierung beim Modelltraining

  • Eine Bewertungsmetrik, die verwendet wird, um die Modellleistung während der Validierung zu bewerten

  • Ein Satz von Hyperparametern und ein Wertebereich für jeden, der bei der automatischen Abstimmung des Modells verwendet werden kann

Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Anmerkung

Die automatische Modelloptimierung für LightGBM ist nur über die Amazon SageMaker AI verfügbar SDKs, nicht über die SageMaker AI-Konsole.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit KI SageMaker .

Mit dem LightGBM-Algorithmus berechnete Bewertungsmetriken

Der SageMaker AI LightGBM-Algorithmus berechnet die folgenden Metriken, die für die Modellvalidierung verwendet werden sollen. Die Bewertungsmetrik wird automatisch auf der Grundlage der Art der Klassifizierungsaufgabe zugewiesen, die durch die Anzahl der eindeutigen Ganzzahlen in der Beschriftungspalte bestimmt wird.

Metrikname Beschreibung Optimierungsrichtung Regex-Muster
rmse Wurzel des mittleren quadratischen Fehlers Minimieren "rmse: ([0-9\\.]+)"
l1 Mittlerer absoluter Fehler. Minimieren "l1: ([0-9\\.]+)"
l2 Mittlerer quadratischer Fehler. Minimieren "l2: ([0-9\\.]+)"
huber Huber-Verlust Minimieren "huber: ([0-9\\.]+)"
fair fairer Verlust Minimieren "fair: ([0-9\\.]+)"
binary_logloss Binärkreuzentropie Maximieren "binary_logloss: ([0-9\\.]+)"
binary_error Binärfehler Minimieren "binary_error: ([0-9\\.]+)"
auc AUC Maximieren "auc: ([0-9\\.]+)"
average_precision durchschnittliche Präzisionspunktzahl Maximieren "average_precision: ([0-9\\.]+)"
multi_logloss Kreuzentropie mit mehreren Klassen Maximieren "multi_logloss: ([0-9\\.]+)"
multi_error Mehrklassen-Fehlerbewertung Minimieren "multi_error: ([0-9\\.]+)"
auc_mu AUC-MU Maximieren "auc_mu: ([0-9\\.]+)"
cross_entropy Kreuz-Entropie Minimieren "cross_entropy: ([0-9\\.]+)"

Optimierbare LightGBM-Hyperparameter

Optimieren Sie das LightGBM-Modell mit den folgenden Hyperparametern. Die Hyperparameter, die den größten Einfluss auf die Optimierung der LightGBM-Bewertungsmetriken haben, sind: learning_rate, num_leaves, feature_fraction, bagging_fraction, bagging_freq, max_depth and min_data_in_leaf. Eine Liste aller LightGBM-Hyperparameter finden Sie unter LightGBM-Hyperparameter.

Name des Parameters Parametertyp Empfohlene Bereiche
learning_rate ContinuousParameterRanges MinValue: 0,001,: 0,01 MaxValue
num_leaves IntegerParameterRanges MinValue: 10, MaxValue: 100
feature_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_freq IntegerParameterRanges MinValue: 0, MaxValue: 10
max_depth IntegerParameterRanges MinValue: 15, MaxValue: 10
min_data_in_leaf IntegerParameterRanges MinValue: 10, MaxValue: 20