Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Referenz: Datei mit der Übersicht über die Trainingsergebnisse
Die Übersicht über die Trainingsergebnisse enthält Metriken, die Sie zur Bewertung Ihres Modells verwenden können. Die Übersichtsdatei wird auch verwendet, um Metriken auf der Seite mit den Trainingsergebnissen der Konsole anzuzeigen. Die Übersichtsdatei wird nach dem Training in einem Amazon-S3-Bucket gespeichert. Rufen Sie DescribeProjectVersion
auf, um die Übersichtsdatei zu erhalten. Beispielcode finden Sie unter Zugreifen auf die Übersichtsdatei und den Snapshot des Evaluierungsmanifests (SDK).
Übersichtsdatei
Das Folgende JSON ist das Format der Übersichtsdatei.
EvaluationDetails (Abschnitt 3)
Übersichtsinformationen über die Trainingsaufgabe. Dazu gehören das ARN Projekt, zu dem das Modell gehört (ProjectVersionArn)
, Datum und Uhrzeit des Abschlusses der Schulung), die Version des Modells, die bewertet wurde (EvaluationEndTimestamp
) und eine Liste der während des Trainings erkannten Labels (Labels
). Ebenfalls enthalten ist die Anzahl der Bilder, die für das Training (NumberOfTrainingImages
) und die Bewertung (NumberOfTestingImages
) verwendet wurden.
AggregatedEvaluationResults (Abschnitt 1)
Sie können AggregatedEvaluationResults
verwenden, um die Gesamtleistung des trainierten Modells zu bewerten, wenn es mit dem Testdatensatz verwendet wird. Aggregierte Metriken sind für die Metriken Precision
, Recall
und F1Score
enthalten. Für die Objekterkennung (die Objektposition auf einem Bild) werden AverageRecall
(mAR) und AveragePrecision
(mAP) Metriken zurückgegeben. Für die Klassifizierung (der Objekttyp in einem Bild) wird eine Metrik mit einer Konfusionsmatrix zurückgegeben.
LabelEvaluationResults (Abschnitt 2)
Sie können labelEvaluationResults
verwenden, um die Leistung einzelner Labels zu bewerten. Die Labels sind nach dem F1-Wert der einzelnen Labels sortiert. Die enthaltenen Metriken sind Precision
, Recall
, F1Score
und Threshold
(werden zur Klassifizierung verwendet).
Der Dateiname ist wie folgt formatiert: EvaluationSummary-ProjectName-VersionName.json
.
{ "Version": "integer", // section-3 "EvaluationDetails": { "ProjectVersionArn": "string", "EvaluationEndTimestamp": "string", "Labels": "[string]", "NumberOfTrainingImages": "int", "NumberOfTestingImages": "int" }, // section-1 "AggregatedEvaluationResults": { "Metrics": { "Precision": "float", "Recall": "float", "F1Score": "float", // The following 2 fields are only applicable to object detection "AveragePrecision": "float", "AverageRecall": "float", // The following field is only applicable to classification "ConfusionMatrix":[ { "GroundTruthLabel": "string", "PredictedLabel": "string", "Value": "float" }, ... ], } }, // section-2 "LabelEvaluationResults": [ { "Label": "string", "NumberOfTestingImages", "int", "Metrics": { "Threshold": "float", "Precision": "float", "Recall": "float", "F1Score": "float" }, }, ... ] }