Abstimmen eines linearen Learner-Modells - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Abstimmen eines linearen Learner-Modells

Die automatische Modelloptimierung, auch bekannt als Hyperparameter-Optimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Dataset testen. Sie wählen die optimierbaren Hyperparameter, eine Reihe von Werten für jeden Parameter und eine objektive Metrik aus. Sie wählen die objektive Metrik aus den Metriken aus, die der Algorithmus berechnet. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Der Algorithmus für lineares Lernen verfügt außerdem über einen internen Mechanismus für Optimierungshyperparameter, der von der hier beschriebenen automatischen Funktion zur Modelloptimierung getrennt ist. Standardmäßig optimiert der Algorithmus für lineares Lernen Hyperparameter durch paralleles Schulen mehrerer Modelle. Wenn Sie die automatische Modelloptimierung verwenden, die wird der interne Optimierungsmechanismus für lineares Lernen automatisch ausgeschaltet. Dadurch wird die Anzahl der parallelen Modelle, num_models, auf 1 festgelegt. Der Algorithmus ignoriert jeden Wert, den Sie für num_models festgelegt haben.

Mehr Informationen über die Modelloptimierung finden Sie unter Automatische Modelloptimierung mit SageMaker.

Mit dem linearen Learner-Algorithmus berechnete Metriken

Der Algorithmus für lineares Lernen meldet die Metriken in der folgenden Tabelle (berechnet während der Schulung). Wählen Sie eine dieser Metriken als objektive Metrik aus. Um Überanpassung zu vermeiden, empfehlen wir, das Modell anhand einer Validierungs- anstelle einer Schulungsmetrik zu optimieren.

Metrikname Beschreibung Optimierungsrichtung
test:absolute_loss

Der absolute Verlust des endgültigen Modells auf dem Testdatensatz. Diese objektive Metrik gilt nur für die Regression.

Minimieren

test:binary_classification_accuracy

Die Genauigkeit des endgültigen Modells im Testdataset. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

test:binary_f_beta

Der F-Betawert des endgültigen Modells für den Testdatensatz. Standardmäßig handelt es sich um die F1-Bewertung. Dies ist das harmonische Mittel von Genauigkeit und Wiedererkennung. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

test:dcg

Der abgezinste kumulative Gewinn des endgültigen Modells aus dem Testdatensatz. Diese objektive Metrik ist nur für die Klassifizierung in mehreren Klassen gültig.

Maximieren

test:macro_f_beta

Der F-Betawert des endgültigen Modells für den Testdatensatz. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

test:macro_precision

Die Genauigkeit des endgültigen Modells für den Testdatensatz. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

test:macro_recall

Der Recall-Wert des endgültigen Modells für den Testdatensatz. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

test:mse

Der mittlere quadratische Fehler des endgültigen Modells für den Testdatensatz. Diese objektive Metrik gilt nur für die Regression.

Minimieren

test:multiclass_accuracy

Die Genauigkeit des endgültigen Modells im Testdataset. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

test:multiclass_top_k_accuracy

Die Genauigkeit unter den obersten k Labels, die im Testdatensatz vorhergesagt wurde. Wenn Sie diese Metrik als Ziel wählen, empfehlen wir, den Wert von k mithilfe des accuracy_top_k Hyperparameters festzulegen. Diese Zielmetrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

test:objective_loss

Der Mittelwert der objektiven Verlustfunktion im Testdataset, nachdem das Modell geschult wurde. Standardmäßig ist der Verlust ein logistischer Verlust für die binäre Klassifizierung und ein quadratischer Verlust für die Regression. Um den Verlust auf andere Typen festzulegen, verwenden Sie den loss-Hyperparameter.

Minimieren

test:precision

Die Präzision des endgültigen Modells im Testdataset. Wenn Sie diese Metrik als objektive Metrik auswählen, empfehlen wir Ihnen, einen Ziel-Recall festzulegen, indem Sie die binary_classifier_model_selection-Hyperparameter auf precision_at_target_recall festlegen und den Wert für den target_recall-Hyperparameter angeben. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

test:recall

Der Recall des endgültigen Modells im Testdataset. Wenn Sie diese Metrik als Ziel auswählen, empfehlen wir Ihnen, eine Zielpräzision festzulegen, indem Sie die Hyperparameter binary_classifier_model_selection auf recall_at_target_precision festlegen und den Wert für den Hyperparameter target_precision angeben. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

test:roc_auc_score

Die Fläche unter der Empfangskennlinie (ROC-Kurve) des endgültigen Modells auf dem Testdatensatz. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

validation:absolute_loss

Der absolute Verlust des endgültigen Modells auf dem Validierungsdatensatz. Diese objektive Metrik gilt nur für die Regression.

Minimieren

validation:binary_classification_accuracy

Die Genauigkeit des endgültigen Modells im Validierungsdataset. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

validation:binary_f_beta

Der F-Betawert des endgültigen Modells für den Validierungsdatensatz. Standardmäßig ist der F-Beta-Score der F1-Score, der das harmonische Mittel der validation:precision and validation:recall Metriken ist. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

validation:dcg

Der abgezinste kumulative Gewinn des endgültigen Modells aus dem Validierungsdatensatz. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

validation:macro_f_beta

Der F-Betawert des endgültigen Modells für den Validierungsdatensatz. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

validation:macro_precision

Die Genauigkeit des endgültigen Modells für den Validierungsdatensatz. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

validation:macro_recall

Der Recall-Wert des endgültigen Modells für den Validierungsdatensatz. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

validation:mse

Der mittlere quadratische Fehler des endgültigen Modells für den Validierungsdatensatz. Diese objektive Metrik gilt nur für die Regression.

Minimieren

validation:multiclass_accuracy

Die Genauigkeit des endgültigen Modells im Validierungsdataset. Diese objektive Metrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

validation:multiclass_top_k_accuracy

Die Genauigkeit unter den obersten k Labels, die im Validierungsdatensatz vorhergesagt wurde. Wenn Sie diese Metrik als Ziel wählen, empfehlen wir, den Wert von k mithilfe des accuracy_top_k Hyperparameters festzulegen. Diese Zielmetrik ist nur für die Klassifizierung mehrerer Klassen gültig.

Maximieren

validation:objective_loss

Der Mittelwert der objektiven Verlustfunktion im Validierungsdataset jeder Epoche. Standardmäßig ist der Verlust ein logistischer Verlust für die binäre Klassifizierung und ein quadratischer Verlust für die Regression. Um den Verlust auf andere Typen festzulegen, verwenden Sie den loss-Hyperparameter.

Minimieren

validation:precision

Die Genauigkeit des endgültigen Modells im Validierungsdataset. Wenn Sie diese Metrik als objektive Metrik auswählen, empfehlen wir Ihnen, einen Ziel-Recall festzulegen, indem Sie die binary_classifier_model_selection-Hyperparameter auf precision_at_target_recall festlegen und den Wert für den target_recall-Hyperparameter angeben. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

validation:recall

Die Sensitivität des endgültigen Modells im Validierungsdataset. Wenn Sie diese Metrik als Ziel auswählen, empfehlen wir Ihnen, eine Zielpräzision festzulegen, indem Sie die Hyperparameter binary_classifier_model_selection auf recall_at_target_precision festlegen und den Wert für den Hyperparameter target_precision angeben. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

validation:rmse

Der mittlere quadratische Fehler des endgültigen Modells für den Validierungsdatensatz. Diese objektive Metrik gilt nur für die Regression.

Minimieren

validation:roc_auc_score

Die Fläche unter der Empfangscharakteristikkurve (ROC-Kurve) des endgültigen Modells auf dem Validierungsdatensatz. Diese objektive Metrik ist nur für die binäre Klassifizierung gültig.

Maximieren

Abstimmung von Hyperparametern für lineare Learner

Sie können ein Modell für lineares Lernen mit den folgenden Hyperparametern optimieren.

Name des Parameters Parametertyp Empfohlene Bereiche
wd

ContinuousParameterRanges

MinValue: 1e-7, MaxValue: 1

l1

ContinuousParameterRanges

MinValue: 1e-7, MaxValue: 1

learning_rate

ContinuousParameterRanges

MinValue: 1e-5, MaxValue: 1

mini_batch_size

IntegerParameterRanges

MinValue: 100, MaxValue: 5000

use_bias

CategoricalParameterRanges

[True, False]

positive_example_weight_mult

ContinuousParameterRanges

MinValue: 1e-5, MaxValue: 1e5