Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Qualität des Modells
Aufträge zur Überwachung der Modellqualität überwachen die Leistung eines Modells, indem sie die Vorhersagen des Modells mit den tatsächlichen Ground-Truth-Bezeichnungen vergleichen, die das Modell vorherzusagen versucht. Zu diesem Zweck führt die Überwachung der Modellqualität Daten, die aus Echtzeit- oder Batch-Inferenzen erfasst wurden, mit tatsächlichen Etiketten zusammen, die Sie in einem Amazon-S3-Bucket speichern, und vergleicht dann die Vorhersagen mit den tatsächlichen Labels.
Um die Modellqualität zu messen, verwendet Model Monitor Metriken, die vom ML-Problemtyp abhängen. Wenn Ihr Modell beispielsweise für ein Regressionsproblem bestimmt ist, ist eine der ausgewerteten Metriken der mittlere quadratische Fehler (mse). Informationen zu allen Metriken, die für die verschiedenen ML-Problemtypen verwendet wurden, finden Sie unter Modellqualitätsmetriken und CloudWatch Amazon-Überwachung.
Die Überwachung der Modellqualität folgt den gleichen Schritten wie die Überwachung der Datenqualität, fügt jedoch den zusätzlichen Schritt hinzu, die tatsächlichen Labels aus Amazon S3 mit den Vorhersagen zusammenzuführen, die vom Echtzeit-Inferenzendpunkt oder vom Batch-Transformationsjob erfasst wurden. Gehen Sie folgendermaßen vor, um die Modellqualität zu überwachen:
-
Aktivieren der Datenerfassung. Dadurch werden Inferenzeingaben und -ausgaben von einem Echtzeit-Inferenzendpunkt oder einem Batch-Transformationsauftrag erfasst und die Daten in Amazon S3 gespeichert. Weitere Informationen finden Sie unter Datenerfassung.
-
Erstellen einer Baseline In diesem Schritt führen Sie einen Baseline-Auftrag aus, der Vorhersagen aus dem Modell mit Ground-Truth-Beschriftungen in einem Baseline-Datensatz vergleicht. Der Baseline-Auftrag erstellt automatisch statistische Basisregeln und Einschränkungen, die Schwellenwerte definieren, anhand derer die Modellleistung bewertet wird. Weitere Informationen finden Sie unter Erstellen Sie eine Basislinie für die Modellqualität.
-
Definieren und planen Sie Aufgaben zur Überwachung der Modellqualität. Spezifische Informationen und Codebeispiele für Jobs zur Überwachung der Modellqualität finden Sie unterPlanen Sie Jobs zur Überwachung der Modellqualität. Allgemeine Informationen zu Überwachungsaufträgen finden Sie unter Zeitplan für Überwachungsaufgaben.
-
Ingest Ground-Truth-Beschriftungen, die Modellüberwachung mit erfassten Vorhersagedaten aus einem Echtzeit-Inferenzendpunkt oder einem Batch-Transformationsauftrag zusammenführen. Weitere Informationen finden Sie unter Investieren Sie Ground Truth Labels und führen Sie sie mit Vorhersagen zusammen.
-
Integrieren Sie die Überwachung der Modellqualität mit Amazon CloudWatch. Weitere Informationen finden Sie unter Überwachung der Qualitätsmetriken von Modellen mit CloudWatch.
-
Interpretieren Sie die Ergebnisse eines Überwachungsauftrags. Weitere Informationen finden Sie unter Interpretieren von Ergebnissen.
-
Verwenden Sie SageMaker Studio, um die Überwachung der Modellqualität zu aktivieren und die Ergebnisse zu visualisieren. Weitere Informationen finden Sie unter Visualisieren Sie Ergebnisse für Echtzeit-Endgeräte in Amazon Studio SageMaker .