Referência: arquivo de resumo dos resultados do treinamento - Rekognition

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Referência: arquivo de resumo dos resultados do treinamento

O resumo dos resultados do treinamento contém métricas que é possível usar para avaliar seu modelo. O arquivo de resumo também é usado para exibir métricas na página de resultados do treinamento do console. O arquivo de resumo é armazenado em um bucket do Amazon S3 após o treinamento. Para obter o arquivo de resumo, chame DescribeProjectVersion. Para ver um código demonstrativo, consulte Acessando o arquivo de resumo e o instantâneo do manifesto de avaliação () SDK.

Arquivo de resumo

A seguir JSON está o formato do arquivo de resumo.

EvaluationDetails (seção 3)

Informações gerais sobre a tarefa de treinamento. Isso inclui o ARN projeto ao qual o modelo pertence ()ProjectVersionArn), a data e a hora em que o treinamento foi concluído, a versão do modelo que foi avaliada (EvaluationEndTimestamp) e uma lista de rótulos detectados durante o treinamento (Labels). Também está incluído o número de imagens usadas para treinamento (NumberOfTrainingImages) e avaliação (NumberOfTestingImages).

AggregatedEvaluationResults (seção 1)

É possível usar AggregatedEvaluationResults para avaliar o desempenho geral do modelo treinado quando usado com o conjunto de dados de teste. As métricas agregadas estão incluídas para as métricas Precision, Recall e F1Score. Para detecção de objetos (a localização do objeto em uma imagem), as métricas AverageRecall (mAR) e AveragePrecision (mAP) são retornadas. Para classificação (o tipo de objeto em uma imagem), uma métrica de matriz de confusão é retornada.

LabelEvaluationResults (seção 2)

É possível usar labelEvaluationResults para avaliar o desempenho de rótulos individuais. Os rótulos são classificados pela pontuação F1 de cada rótulo. As métricas incluídas são Precision, Recall, F1Score e Threshold (usadas para classificação).

O nome do arquivo é formatado da seguinte maneira: EvaluationSummary-ProjectName-VersionName.json.

{ "Version": "integer", // section-3 "EvaluationDetails": { "ProjectVersionArn": "string", "EvaluationEndTimestamp": "string", "Labels": "[string]", "NumberOfTrainingImages": "int", "NumberOfTestingImages": "int" }, // section-1 "AggregatedEvaluationResults": { "Metrics": { "Precision": "float", "Recall": "float", "F1Score": "float", // The following 2 fields are only applicable to object detection "AveragePrecision": "float", "AverageRecall": "float", // The following field is only applicable to classification "ConfusionMatrix":[ { "GroundTruthLabel": "string", "PredictedLabel": "string", "Value": "float" }, ... ], } }, // section-2 "LabelEvaluationResults": [ { "Label": "string", "NumberOfTestingImages", "int", "Metrics": { "Threshold": "float", "Precision": "float", "Recall": "float", "F1Score": "float" }, }, ... ] }