Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Tunen Sie ein XGBoost Modell

Fokusmodus
Tunen Sie ein XGBoost Modell - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die automatische Modelloptimierung, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Training und in den Validierungsdatensätzen testen. Sie wählen drei Arten von Hyperparametern:

  • eine objective Lernfunktion zur Optimierung beim Modelltraining

  • einen eval_metric, der während der Validierung zur Bewertung der Modellleistung verwendet werden kann

  • ein Satz von Hyperparametern und ein Wertebereich für jeden, der bei der automatischen Abstimmung des Modells verwendet werden kann

Sie wählen die Bewertungsmetrik aus einer Reihe von Bewertungsmetriken aus, die der Algorithmus berechnet. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die Bewertungsmetrik optimiert.

Anmerkung

Automatisches Modell-Tuning für XGBoost 0,90 ist nur bei Amazon verfügbar SageMaker SDKs, nicht über die SageMaker KI-Konsole.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit KI SageMaker .

Vom Algorithmus berechnete Bewertungsmetriken XGBoost

Der XGBoost Algorithmus berechnet die folgenden Metriken, die für die Modellvalidierung verwendet werden sollen. Beim Optimieren des Modells wählen Sie eine dieser Metriken aus, um das Modell zu evaluieren. Eine vollständige Liste der gültigen eval_metric Werte finden Sie unter Parameter für XGBoost Lernaufgaben

Metrikname Beschreibung Optimierungsrichtung
validation:accuracy

Klassifizierungsrate, berechnet als #(richtig)/#(alle Fälle).

Maximieren

validation:auc

Area Under a Curve (Fläche unter der Kurve).

Maximieren

validation:error

Binäre Klassifikationsfehlerrate, als Anzahl (falscher Fälle)/Anzahl (aller Fälle) berechnet.

Minimieren

validation:f1

Indikator für die Klassifizierungsgenauigkeit, berechnet als harmonisches Mittel von Präzision und Wiedererkennung.

Maximieren

validation:logloss

Negative log-likelihood.

Minimieren

validation:mae

Mittlerer absoluter Fehler.

Minimieren

validation:map

Mittlere durchschnittliche Präzision.

Maximieren

validation:merror

Mehrklassen-Klassifizierungsfehlerrate, als Anzahl (falscher Fälle)/Anzahl (aller Fälle) berechnet.

Minimieren

validation:mlogloss

Negative log-likelihood für Mehrklassen-Klassifizierung.

Minimieren

validation:mse

Mittlerer quadratischer Fehler.

Minimieren

validation:ndcg

Normalisierter reduzierter kumulativer Gewinn.

Maximieren

validation:rmse

Wurzel des mittleren quadratischen Prognosefehlers (Root Mean Square Error)

Minimieren

Einstellbare Hyperparameter XGBoost

Optimieren Sie das XGBoost Modell mit den folgenden Hyperparametern. Die Hyperparameter, die den größten Einfluss auf die Optimierung der XGBoost Bewertungsmetriken haben, sind:alpha,min_child_weight, subsampleeta, und. num_round

Name des Parameters Parametertyp Empfohlene Bereiche
alpha

ContinuousParameterRanges

MinValue: 0, MaxValue: 100

colsample_bylevel

ContinuousParameterRanges

MinValue: 0,1, MaxValue: 1

colsample_bynode

ContinuousParameterRanges

MinValue: 0,1, MaxValue: 1

colsample_bytree

ContinuousParameterRanges

MinValue: 0,5, MaxValue: 1

eta

ContinuousParameterRanges

MinValue: 0,1, MaxValue: 0,5

gamma

ContinuousParameterRanges

MinValue: 0, MaxValue: 5

lambda

ContinuousParameterRanges

MinValue: 0, MaxValue: 100

max_delta_step

IntegerParameterRanges

[0, 10]

max_depth

IntegerParameterRanges

[0, 10]

min_child_weight

ContinuousParameterRanges

MinValue: 0, MaxValue: 120

num_round

IntegerParameterRanges

[1, 4000]

subsample

ContinuousParameterRanges

MinValue: 0,5, MaxValue: 1

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.