本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
參考:訓練結果摘要檔案
訓練結果摘要會包含可用於評估模型的指標。摘要檔案也可用於在主控台訓練結果頁面中顯示指標。摘要檔案會在訓練後存放在 Amazon S3 儲存貯體中。若要取得摘要檔案,請致電 DescribeProjectVersion
。如需範例程式碼,請參閱 存取摘要檔案和評估資訊清單快照集 (SDK)。
摘要檔案
以下JSON是摘要檔案的格式。
EvaluationDetails (第三條)
訓練任務的概觀資訊。這包括模型所屬ARN的專案 (ProjectVersionArn)
、訓練完成的日期和時間、評估的模型版本 (EvaluationEndTimestamp
),以及訓練期間偵測到的標籤清單 (Labels
)。 還包括用於培訓(NumberOfTrainingImages
)和評估(NumberOfTestingImages
)圖像的數量。
AggregatedEvaluationResults (第一條)
與測試資料集搭配使用時,您可以使用 AggregatedEvaluationResults
來評估訓練過模型的整體效能。包含 Precision
、Recall
和 F1Score
指標的彙總指標。針對物件偵測 (影像上的物件位置),會傳回 AverageRecall
(mAR) 和 AveragePrecision
(mAP) 指標。針對分類 (影像中的物件類型),會傳回混淆矩陣指標。
LabelEvaluationResults (第二條)
您可以使用 labelEvaluationResults
來評估個別標籤的效能。標籤會按每個標籤的 F1 分數排序。包含的指標為 Precision
、Recall
、F1Score
、和 Threshold
(用於分類)。
檔案名稱採下列格式:EvaluationSummary-ProjectName-VersionName.json
。
{ "Version": "integer", // section-3 "EvaluationDetails": { "ProjectVersionArn": "string", "EvaluationEndTimestamp": "string", "Labels": "[string]", "NumberOfTrainingImages": "int", "NumberOfTestingImages": "int" }, // section-1 "AggregatedEvaluationResults": { "Metrics": { "Precision": "float", "Recall": "float", "F1Score": "float", // The following 2 fields are only applicable to object detection "AveragePrecision": "float", "AverageRecall": "float", // The following field is only applicable to classification "ConfusionMatrix":[ { "GroundTruthLabel": "string", "PredictedLabel": "string", "Value": "float" }, ... ], } }, // section-2 "LabelEvaluationResults": [ { "Label": "string", "NumberOfTestingImages", "int", "Metrics": { "Threshold": "float", "Precision": "float", "Recall": "float", "F1Score": "float" }, }, ... ] }