As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Referência: arquivo de resumo dos resultados do treinamento
O resumo dos resultados do treinamento contém métricas que é possível usar para avaliar seu modelo. O arquivo de resumo também é usado para exibir métricas na página de resultados do treinamento do console. O arquivo de resumo é armazenado em um bucket do Amazon S3 após o treinamento. Para obter o arquivo de resumo, chame DescribeProjectVersion
. Para obter um código de exemplo, consulte Acessando o arquivo de resumo e o instantâneo do manifesto de avaliação () SDK.
Arquivo de resumo
A seguir JSON está o formato do arquivo de resumo.
EvaluationDetails (seção 3)
Informações gerais sobre a tarefa de treinamento. Isso inclui o ARN projeto ao qual o modelo pertence ()ProjectVersionArn)
, a data e a hora em que o treinamento foi concluído, a versão do modelo que foi avaliada (EvaluationEndTimestamp
) e uma lista de rótulos detectados durante o treinamento (Labels
). Também está incluído o número de imagens usadas para treinamento (NumberOfTrainingImages
) e avaliação (NumberOfTestingImages
).
AggregatedEvaluationResults (seção 1)
É possível usar AggregatedEvaluationResults
para avaliar o desempenho geral do modelo treinado quando usado com o conjunto de dados de teste. As métricas agregadas estão incluídas para as métricas Precision
, Recall
e F1Score
. Para detecção de objetos (a localização do objeto em uma imagem), as métricas AverageRecall
(mAR) e AveragePrecision
(mAP) são retornadas. Para classificação (o tipo de objeto em uma imagem), uma métrica de matriz de confusão é retornada.
LabelEvaluationResults (seção 2)
É possível usar labelEvaluationResults
para avaliar o desempenho de rótulos individuais. Os rótulos são classificados pela pontuação F1 de cada rótulo. As métricas incluídas são Precision
, Recall
, F1Score
e Threshold
(usadas para classificação).
O nome do arquivo é formatado da seguinte maneira: EvaluationSummary-ProjectName-VersionName.json
.
{ "Version": "integer", // section-3 "EvaluationDetails": { "ProjectVersionArn": "string", "EvaluationEndTimestamp": "string", "Labels": "[string]", "NumberOfTrainingImages": "int", "NumberOfTestingImages": "int" }, // section-1 "AggregatedEvaluationResults": { "Metrics": { "Precision": "float", "Recall": "float", "F1Score": "float", // The following 2 fields are only applicable to object detection "AveragePrecision": "float", "AverageRecall": "float", // The following field is only applicable to classification "ConfusionMatrix":[ { "GroundTruthLabel": "string", "PredictedLabel": "string", "Value": "float" }, ... ], } }, // section-2 "LabelEvaluationResults": [ { "Label": "string", "NumberOfTestingImages", "int", "Metrics": { "Threshold": "float", "Precision": "float", "Recall": "float", "F1Score": "float" }, }, ... ] }