Duração do relatório de execução e unidades de inferência usadas - Rekognition

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Duração do relatório de execução e unidades de inferência usadas

Se você treinou e iniciou seu modelo depois de agosto de 2022, pode usar a CloudWatch métrica da InServiceInferenceUnits Amazon para determinar por quantas horas um modelo foi executado e o número de unidades de inferência usadas durante essas horas.

nota

Se você tiver apenas um modelo em uma AWS região, também poderá obter o tempo de execução do modelo rastreando chamadas bem-sucedidas de entrada StartprojectVersion e StopProjectVersion entrada CloudWatch. Essa abordagem não funciona se você executar mais de um modelo na AWS região, pois as métricas não incluem informações sobre o modelo.

Como alternativa, você pode usar AWS CloudTrail para rastrear chamadas para StartProjectVersion e StopProjectVersion (o que inclui o ARN do modelo no requestParameters campo do histórico de eventos). CloudTrail os eventos são limitados a 90 dias, mas você pode armazenar eventos por até 7 anos em um CloudTraillago.

O procedimento a seguir cria gráficos para o seguinte:

  • O número de horas em que um modelo foi executado.

  • O número de unidades de inferência que um modelo usou.

É possível escolher um período de até 15 meses no passado. Para obter mais informações sobre a retenção de métricas, consulte Retenção de métricas.

Para determinar a duração do modelo e as unidades de inferência usadas para um modelo
  1. Faça login no AWS Management Console e abra o CloudWatch console em https://console.aws.amazon.com/cloudwatch/.

  2. No painel de navegação esquerdo, escolha Todas as métricas em Métricas.

  3. No painel inferior, escolha a guia Origem.

  4. Certifique-se de que o botão Painel está selecionado.

  5. Na caixa de edição, substitua o JSON existente pelo JSON a seguir. Altere os seguintes valores:

    • Project_Name: o projeto que contém o modelo que você deseja representar graficamente.

    • Version_Name: a versão do modelo que você deseja representar graficamente.

    • AWS_Region— A AWS região que contém o modelo. Verifique se o CloudWatch console está na mesma AWS região, verificando o seletor de região na barra de navegação na parte superior da página. Atualize conforme for necessário.

    { "sparkline": true, "metrics": [ [ { "expression": "SUM(m1)*m1", "label": "Inference units used", "id": "e1" } ], [ { "expression": "DATAPOINT_COUNT(m1)*m1/m1", "label": "Hours running", "id": "e2" } ], [ "AWS/Rekognition", "InServiceInferenceUnits", "ProjectName", "Project_Name", "VersionName", "Version_Name", { "id": "m1", "visible": false } ] ], "view": "singleValue", "stacked": false, "region": "AWS_Region", "stat": "Average", "period": 3600, "title": "Hours run and inference units used" }
  6. Selecione Atualizar.

  7. Na parte superior da página, escolha uma linha do tempo. É preciso ver os números das unidades de inferência usadas e as horas de execução durante a linha do tempo. As lacunas no gráfico indicam momentos em que o modelo não estava em execução. A captura de tela do console abaixo mostra as unidades de inferência usadas e as horas de execução em períodos de tempo, com um tempo personalizado de 2 semanas definido, com os valores mais altos de 214 unidades de inferência e 209 horas de execução.

    Gráfico mostrando as unidades de inferência.
  8. (Opcional) Adicione o gráfico a um painel, selecione Ações e Adicionar ao painel: aprimorado.