GBMHyperparameter für Licht - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

GBMHyperparameter für Licht

Die folgende Tabelle enthält die Teilmenge der Hyperparameter, die für den Amazon SageMaker GBM Light-Algorithmus erforderlich sind oder am häufigsten verwendet werden. Dies sind Parameter, die von Benutzern festgelegt werden, um die Schätzung der Modellparameter aus Daten zu erleichtern. Der SageMaker GBM Light-Algorithmus ist eine Implementierung des Open-Source-Light-Pakets. GBM

Anmerkung

Die Standard-Hyperparameter basieren auf Beispieldatensätzen in der Leichte GBM Musternotizbücher.

Standardmäßig wählt der SageMaker GBM Light-Algorithmus automatisch eine Bewertungsmetrik und eine Zielfunktion aus, die auf der Art des Klassifizierungsproblems basieren. Der GBM Light-Algorithmus erkennt die Art des Klassifizierungsproblems anhand der Anzahl der Labels in Ihren Daten. Bei Regressionsproblemen ist die Bewertungsmetrik der quadratische Mittelwert des Fehlers und die Zielfunktion der L2-Verlust. Bei binären Klassifikationsproblemen entsprechen die Bewertungsmetrik und die Zielfunktion beide der binären Kreuzentropie. Bei Klassifikationsproblemen mit mehreren Klassen ist die Bewertungsmetrik die Mehrklassen-Kreuzentropie und die Zielfunktion Softmax. Sie können den metric Hyperparameter verwenden, um die Standard-Bewertungsmetrik zu ändern. In der folgenden Tabelle finden Sie weitere Informationen zu GBM Light-Hyperparametern, einschließlich Beschreibungen, gültiger Werte und Standardwerte.

Name des Parameters Beschreibung
num_boost_round

Die maximale Anzahl von Booster-Iterationen. Hinweis: Intern GBM erstellt Light num_class * num_boost_round Bäume für Klassifikationsprobleme mit mehreren Klassen.

Gültige Werte: Ganzzahl, Bereich: Positive Ganzzahl.

Standardwert: 100.

early_stopping_rounds

Das Training wird beendet, wenn sich eine Metrik eines Validierungsdatenpunkts in der letzten early_stopping_rounds Runde nicht verbessert hat. Wenn early_stopping_rounds kleiner als oder gleich Null ist, wird dieser Hyperparameter ignoriert.

Gültige Werte: Ganzzahl.

Standardwert: 10.

metric

Evaluationsmetriken für die Datenvalidierung. Wenn metric auf den Standardwert "auto" gesetzt ist, wählt der Algorithmus automatisch eine Bewertungsmetrik aus, die auf der Art des Klassifizierungsproblems basiert:

  • rmse für Regression

  • binary_logloss für binäre Klassifikation

  • multi_logloss für Mehrklassen-Klassifizierung

Gültige Werte: String, einer der folgenden Werte: ("auto", "rmse", "l1", "l2", "huber", "fair", "binary_logloss", "binary_error", "auc", "average_precision", "multi_logloss", "multi_error", "auc_mu", oder "cross_entropy").

Standardwert: "auto".

learning_rate

Die Geschwindigkeit, mit der die Modellgewichte aktualisiert werden, nachdem die einzelnen Trainingssbeispiele durchgearbeitet wurden.

Gültige Werte: Float, Bereich: (0.0, 1.0).

Standardwert: 0.1.

num_leaves

Die maximale Anzahl von Blättern in einem Baum.

Gültige Werte: Ganzzahl, Bereich: (1,131072).

Standardwert: 64.

feature_fraction

Eine Teilmenge von Features, die bei jeder Iteration ausgewählt werden müssen (Baum). Muss kleiner als 1.0 sein.

Gültige Werte: Float, Bereich: (0.0, 1.0).

Standardwert: 0.9.

bagging_fraction

Eine Teilmenge von Features, die einem Teil der Daten ähnlich sind zu feature_fraction, aber bagging_fraction ohne Resampling zufällig ausgewählt wird.

Gültige Werte: Float, Bereich: (0.0, 1.0].

Standardwert: 0.9.

bagging_freq

Die Häufigkeit, mit der das Einpacken durchgeführt wird. Bei jeder bagging_freq Iteration wählt Light GBM nach dem Zufallsprinzip einen Prozentsatz der Daten aus, die für die nächste Iteration verwendet werden sollen. bagging_freq Dieser Prozentsatz wird durch den bagging_fraction Hyperparameter bestimmt. Wenn bagging_freq der Wert Null ist, ist das Einpacken deaktiviert.

Gültige Werte: Ganzzahl, Bereich: Nicht-negative ganze Zahl.

Standardwert: 1.

max_depth

Die maximale Tiefe eines Baummodells. Dies wird verwendet, um Überanpassungen zu vermeiden, wenn die Datenmenge klein ist. Wenn max_depth kleiner oder gleich Null ist, bedeutet dies, dass es keine Grenze für die maximale Tiefe gibt.

Gültige Werte: Ganzzahl.

Standardwert: 6.

min_data_in_leaf

Die minimale Datenmenge in einem Blatt. Kann für Überanpassungen verwendet werden.

Gültige Werte: Ganzzahl, Bereich: Nicht-negative ganze Zahl.

Standardwert: 3.

max_delta_step

Wird verwendet, um die maximale Leistung von Baumblättern zu begrenzen. Wenn max_delta_step kleiner als oder gleich 0 ist, gibt es keine Einschränkung. Die endgültige maximale Leistung von Blättern beträgt learning_rate * max_delta_step.

Gültige Werte: Gleitkommazahl.

Standardwert: 0.0.

lambda_l1

L1-Regularisation.

Gültige Werte: Float, Bereich: Nicht-negativer Float.

Standardwert: 0.0.

lambda_l2

L2-Regularisation.

Gültige Werte: Float, Bereich: Nicht-negativer Float.

Standardwert: 0.0.

boosting

Boosting-Typ

Gültige Werte: String, einer der folgenden Werte: ("gbdt", "rf", "dart", or "goss").

Standardwert: "gbdt".

min_gain_to_split

Die Mindestverstärkung für die Durchführung einer Teilung. Kann verwendet werden, um das Training zu beschleunigen.

Gültige Werte: Ganzzahl, Float: Nicht-negativer Float.

Standardwert: 0.0.

scale_pos_weight

Das Gewicht der Etiketten mit positiver Klasse. Wird nur für binäre Klassifikationsaufgaben verwendet. scale_pos_weight kann nicht verwendet werden, wenn is_unbalance auf "True" gesetzt ist.

Gültige Werte: Float, Bereich: Positiver Float.

Standardwert: 1.0.

tree_learner

Baumschüler-Typ.

Gültige Werte: String, einer der folgenden Werte: ("serial", "feature", "data", or "voting").

Standardwert: "serial".

feature_fraction_bynode

Wählt eine Teilmenge zufälliger Features auf jedem Baumknoten aus. Ist beispielsweise feature_fraction_bynode gleich 0.8, so werden 80 % der Features ausgewählt. Kann für Überanpassungen verwendet werden.

Gültige Werte: Ganzzahl, Bereich: (0.0, 1.0].

Standardwert: 1.0.

is_unbalance

Wird auf "True" eingestellt, wenn die Trainingsdaten unausgewogen sind. Wird nur für binäre Klassifikationsaufgaben verwendet. is_unbalance kann nicht mit scale_pos_weight verwendet werden.

Gültige Werte: String, entweder: ("True" or "False").

Standardwert: "False".

max_bin

Die maximale Anzahl von Bins, die verwendet werden, um Feature-Werte zusammenzufassen. Eine geringe Anzahl von Bins kann die Trainingsgenauigkeit verringern, aber die allgemeine Leistung erhöhen. Kann für Überanpassungen verwendet werden.

Gültige Werte: Ganzzahl, Bereich: (1, ∞).

Standardwert: 255.

tweedie_variance_power

Steuert die Varianz der Tweedie-Verteilung. Stellen Sie dies näher an 2.0, um in Richtung einer Gamma-Verteilung zu wechseln. Stellen Sie dies näher an 1.0, um in Richtung einer Poisson-Verteilung zu wechseln. Wird nur für Regressionsaufgaben verwendet.

Gültige Werte: Float, Bereich: [1.0, 2.0).

Standardwert: 1.5.

num_threads

Anzahl der parallel Threads, die zum Ausführen von Light verwendet wurdenGBM. Der Wert 0 bedeutet die Standardanzahl von Threads in OpenMP.

Gültige Werte: Ganzzahl, Bereich: Nicht-negative ganze Zahl.

Standardwert: 0.

verbosity

Die Ausführlichkeit von Drucknachrichten. Ist verbosity kleiner als 0, werden in Drucknachrichten nur schwerwiegende Fehler angezeigt. Ist verbosity auf 0 gesetzt, enthalten Drucknachrichten Fehler und Warnungen. Istverbosity gleich 1, werden Drucknachrichten mit weiteren Informationen angezeigt. Ein verbosity größer als 1 zeigt die meisten Informationen in gedruckten Nachrichten an und kann zum Debuggen verwendet werden.

Gültige Werte: Ganzzahl

Standardwert: 1.