本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
参考:训练结果摘要文件
训练结果摘要包含可用于评估模型的指标。该摘要文件还用于在控制台训练结果页面中显示指标。训练结束后,该摘要文件存储在 Amazon S3 存储桶中。要获取摘要文件,请调用 DescribeProjectVersion
。有关代码示例,请参阅 访问摘要文件和评估清单快照 (SDK)。
摘要文件
以下JSON是摘要文件的格式。
EvaluationDetails (第 3 节)
有关训练任务的概要信息。这包括模型所属ARN的项目 (ProjectVersionArn)
、训练完成的日期和时间、评估的模型版本 (EvaluationEndTimestamp
) 以及训练期间检测到的标签列表 (Labels
)。 还包括用于训练 (NumberOfTrainingImages
) 和评估 (NumberOfTestingImages
) 的图像数量。
AggregatedEvaluationResults (第 1 节)
可以结合使用 AggregatedEvaluationResults
与测试数据集来评估经过训练的模型的整体性能。包括 Precision
、Recall
和 F1Score
指标的汇总指标。对于物体检测(图像上的物体位置),将返回 AverageRecall
(mAR) 和 AveragePrecision
(mAP) 指标。对于分类(图像中物体的类型),将返回混淆矩阵指标。
LabelEvaluationResults (第 2 节)
可以使用 labelEvaluationResults
来评估单个标签的性能。这些标签按各标签的 F1 分数排序。包含的指标有 Precision
、Recall
、F1Score
和 Threshold
(用于分类)。
文件名格式如下:EvaluationSummary-ProjectName-VersionName.json
。
{ "Version": "integer", // section-3 "EvaluationDetails": { "ProjectVersionArn": "string", "EvaluationEndTimestamp": "string", "Labels": "[string]", "NumberOfTrainingImages": "int", "NumberOfTestingImages": "int" }, // section-1 "AggregatedEvaluationResults": { "Metrics": { "Precision": "float", "Recall": "float", "F1Score": "float", // The following 2 fields are only applicable to object detection "AveragePrecision": "float", "AverageRecall": "float", // The following field is only applicable to classification "ConfusionMatrix":[ { "GroundTruthLabel": "string", "PredictedLabel": "string", "Value": "float" }, ... ], } }, // section-2 "LabelEvaluationResults": [ { "Label": "string", "NumberOfTestingImages", "int", "Metrics": { "Threshold": "float", "Precision": "float", "Recall": "float", "F1Score": "float" }, }, ... ] }