Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Optimieren Sie ein LightGBM-Modell

Fokusmodus
Optimieren Sie ein LightGBM-Modell - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Die Modelloptimierung konzentriert sich auf die folgenden Hyperparameter:

Anmerkung

Die Lernzielfunktion wird automatisch auf der Grundlage der Art der Klassifikationsaufgabe zugewiesen, die durch die Anzahl der eindeutigen Ganzzahlen in der Beschriftungsspalte bestimmt wird. Weitere Informationen finden Sie unter LightGBM-Hyperparameter.

  • Eine Lernzielfunktion zur Optimierung beim Modelltraining

  • Eine Bewertungsmetrik, die verwendet wird, um die Modellleistung während der Validierung zu bewerten

  • Ein Satz von Hyperparametern und ein Wertebereich für jeden, der bei der automatischen Abstimmung des Modells verwendet werden kann

Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Anmerkung

Die automatische Modelloptimierung für LightGBM ist nur bei Amazon verfügbar SageMaker SDKs, nicht über die SageMaker KI-Konsole.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit KI SageMaker .

Mit dem LightGBM-Algorithmus berechnete Bewertungsmetriken

Der SageMaker AI LightGBM-Algorithmus berechnet die folgenden Metriken, die für die Modellvalidierung verwendet werden sollen. Die Bewertungsmetrik wird automatisch auf der Grundlage der Art der Klassifizierungsaufgabe zugewiesen, die durch die Anzahl der eindeutigen Ganzzahlen in der Beschriftungspalte bestimmt wird.

Metrikname Beschreibung Optimierungsrichtung Regex-Muster
rmse Wurzel des mittleren quadratischen Fehlers Minimieren "rmse: ([0-9\\.]+)"
l1 Mittlerer absoluter Fehler. Minimieren "l1: ([0-9\\.]+)"
l2 Mittlerer quadratischer Fehler. Minimieren "l2: ([0-9\\.]+)"
huber Huber-Verlust Minimieren "huber: ([0-9\\.]+)"
fair fairer Verlust Minimieren "fair: ([0-9\\.]+)"
binary_logloss Binärkreuzentropie Maximieren "binary_logloss: ([0-9\\.]+)"
binary_error Binärfehler Minimieren "binary_error: ([0-9\\.]+)"
auc AUC Maximieren "auc: ([0-9\\.]+)"
average_precision durchschnittliche Präzisionspunktzahl Maximieren "average_precision: ([0-9\\.]+)"
multi_logloss Kreuzentropie mit mehreren Klassen Maximieren "multi_logloss: ([0-9\\.]+)"
multi_error Mehrklassen-Fehlerbewertung Minimieren "multi_error: ([0-9\\.]+)"
auc_mu AUC-MU Maximieren "auc_mu: ([0-9\\.]+)"
cross_entropy Kreuz-Entropie Minimieren "cross_entropy: ([0-9\\.]+)"

Optimierbare LightGBM-Hyperparameter

Optimieren Sie das LightGBM-Modell mit den folgenden Hyperparametern. Die Hyperparameter, die den größten Einfluss auf die Optimierung der LightGBM-Bewertungsmetriken haben, sind: learning_rate, num_leaves, feature_fraction, bagging_fraction, bagging_freq, max_depth and min_data_in_leaf. Eine Liste aller LightGBM-Hyperparameter finden Sie unter LightGBM-Hyperparameter.

Name des Parameters Parametertyp Empfohlene Bereiche
learning_rate ContinuousParameterRanges MinValue: 0,001,: 0,01 MaxValue
num_leaves IntegerParameterRanges MinValue: 10, MaxValue: 100
feature_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_fraction ContinuousParameterRanges MinValue: 0,1, MaxValue: 1,0
bagging_freq IntegerParameterRanges MinValue: 0, MaxValue: 10
max_depth IntegerParameterRanges MinValue: 15, MaxValue: 10
min_data_in_leaf IntegerParameterRanges MinValue: 10, MaxValue: 20
DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.