Führen Sie eine automatische Modelloptimierung durch mit SageMaker - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Führen Sie eine automatische Modelloptimierung durch mit SageMaker

Amazon SageMaker Automatic Model Tuning (AMT) findet die beste Version eines Modells, indem es viele Trainingsjobs mit Ihrem Datensatz ausführt. Die SageMaker automatische Modelloptimierung von Amazon (AMT) wird auch als Hyperparameter-Tuning bezeichnet. Dazu AMT verwendet es den Algorithmus und die Bereiche von Hyperparametern, die Sie angeben. Es wählt dann die Hyperparameterwerte aus, die ein Modell erstellen, das gemessen an einer von Ihnen gewählten Metrik die beste Leistung erbringt.

Beispiel: Ausführen eines binären Klassifizierungsproblems für einen Marketing-Datensatz. Ihr Ziel ist es, die Fläche unter der Kennzahl Kurve (AUC) des Algorithmus zu maximieren, indem Sie ein Verwenden Sie den XGBoost-Algorithmus mit Amazon SageMaker Modell trainieren. Sie möchten herausfinden, mit welchen Werten für die Hyperparameter etaalpha,min_child_weight und max_depth das Modell am besten trainiert werden kann. Geben Sie einen Wertebereich für diese Hyperparameter an. Anschließend sucht das SageMaker Hyperparameter-Tuning innerhalb der Bereiche nach einer Kombination, die zu einem Trainingsjob führt, der ein Modell mit dem höchsten Wert AUC erzeugt. Um Ressourcen zu schonen oder bestimmte Erwartungen an die Modellqualität zu erfüllen, richten Sie Abschlusskriterien ein, sodass die Feinabstimmung beendet wird, wenn die Kriterien erfüllt sind.

Sie können es SageMaker AMT mit integrierten Algorithmen, benutzerdefinierten Algorithmen oder SageMaker vorgefertigten Containern für Frameworks für maschinelles Lernen verwenden.

SageMaker AMTkann eine Amazon EC2 Spot-Instance verwenden, um die Kosten bei der Ausführung von Trainingsjobs zu optimieren. Weitere Informationen finden Sie unter Verwenden von Managed Spot Training in Amazon SageMaker.

Bevor Sie die Hyperparameter-Optimierung verwenden, sollte ein eindeutig definiertes Machine-Learning-Problem vorliegen, darunter:

  • Ein Datensatz

  • Verständnis für die Art des Algorithmus, den Sie trainieren müssen

  • Eine klare Vorstellung davon, wie Erfolg ermittelt wird

Bereiten Sie Ihren Datensatz und Ihren Algorithmus so vor, dass sie in einem Trainingsjob funktionieren SageMaker und ihn mindestens einmal erfolgreich ausführen. Weitere Informationen zum Einrichten und Ausführen eines Trainingsauftrags finden Sie unter Leitfaden für die Einrichtung bei Amazon SageMaker.