Executando seu modelo treinado do Amazon Lookout for Vision - Amazon Lookout for Vision

Aviso de fim do suporte: em 31 de outubro de 2025, o suporte para o Amazon Lookout for Vision AWS será interrompido. Depois de 31 de outubro de 2025, você não poderá mais acessar o console do Lookout for Vision ou os recursos do Lookout for Vision. Para obter mais informações, visite esta postagem do blog.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Executando seu modelo treinado do Amazon Lookout for Vision

Para detectar anomalias em imagens com seu modelo, você deve primeiro iniciar seu modelo com a operação startModel. O console do Amazon Lookout for Vision fornece comandos AWS CLI que é possível utilizar para iniciar e parar o modelo. Esta seção inclui um exemplo de código que você pode usar.

Depois que seu modelo for iniciado, você poderá usar a operação DetectAnomalies para detectar anomalias em uma imagem. Para obter mais informações, consulte Detectar as anomalias de uma imagem.

Unidades de inferência

Quando você inicia seu modelo, o Amazon Lookout for Vision provisiona no mínimo um recurso computacional, conhecido como unidade de inferência. Você especifica o número de unidades de inferência a serem usadas no parâmetro MinInferenceUnits de entrada da StartModel API. A alocação padrão para um modelo é 1 unidade de inferência.

Importante

Você é cobrado pelo número de horas em que seu modelo está em execução e pelo número de unidades de inferência que seu modelo usa enquanto está em execução, com base em como você configura a execução do seu modelo. Por exemplo, se você iniciar o modelo com duas unidades de inferência e usar o modelo por 8 horas, você será cobrado por 16 horas de inferência (8 horas de tempo de execução* duas unidades de inferência). Para obter mais informações, consulte Definição de preço do Amazon Lookout for Vision. Se você não interromper explicitamente seu modelo chamando StopModel, você será cobrado mesmo que não esteja analisando ativamente as imagens com seu modelo.

As transações por segundo (TPS) que uma única unidade de inferência suporta são afetadas pelo seguinte:

  • O algoritmo que o Lookout for Vision usa para treinar o modelo. Quando você treina um modelo, vários modelos são treinados. O Lookout for Vision seleciona o modelo com o melhor desempenho com base no tamanho do conjunto de dados e em sua composição de imagens normais e anômalas.

  • Imagens de alta resolução exigem mais tempo para análise.

  • Imagens menores (medidas em MBs) são analisadas mais rapidamente do que imagens maiores.

Gerenciando a produtividade com unidades de inferência

Você pode aumentar ou diminuir a produtividade do seu modelo, dependendo das demandas da sua aplicação. Para aumentar a produtividade, use unidades de inferência adicionais. Cada unidade de inferência adicional aumenta sua velocidade de processamento em uma unidade de inferência. Para obter informações sobre como calcular o número de unidades de inferência necessárias, consulte Calcular unidades de inferência para os modelos Amazon Rekognition Custom Labels e Amazon Lookout for Vision. Se quiser alterar a taxa de transferência suportada do modelo, você tem duas opções:

Adicionar ou remover unidades de inferência manualmente

Pare o modelo e reinicie com o número necessário de unidades de inferência. A desvantagem dessa abordagem é que o modelo não pode receber solicitações durante a reinicialização e não pode ser usado para lidar com picos de demanda. Use essa abordagem se seu modelo tiver uma taxa de transferência estável e seu caso de uso puder tolerar de 10 a 20 minutos de tempo de inatividade. Um exemplo seria se você quiser fazer chamadas em lote para seu modelo usando uma programação semanal.

Unidades de inferência de escala automática

Se seu modelo precisar acomodar picos de demanda, o Amazon Lookout for Vision pode escalar automaticamente o número de unidades de inferência que seu modelo usa. À medida que a demanda aumenta, o Amazon Lookout for Vision adiciona unidades de inferência adicionais ao modelo e as remove quando a demanda diminui.

Para permitir que o Lookout for Vision escale automaticamente as unidades de inferência de um modelo, inicie o modelo e defina o número máximo de unidades de inferência que ele pode usar usando o parâmetro MaxInferenceUnits. Definir um número máximo de unidades de inferência permite gerenciar o custo de execução do modelo limitando o número de unidades de inferência disponíveis para ele. Se você não especificar um número máximo de unidades, o Lookout for Vision não escalará automaticamente seu modelo, usando apenas o número de unidades de inferência com as quais você começou. Para obter informações sobre o número máximo de unidades de inferência, consulte Service Quotas.

Também é possível especificar um número mínimo de unidades de inferência usando o parâmetro MinInferenceUnits. Isto permite que você especifique o throughput mínimo para seu modelo, em que uma única unidade de inferência representa uma hora de tempo de processamento.

nota

Você não pode definir o número máximo de unidades de inferência com o console Lookout for Vision. Em vez disso, especifique o parâmetro de entrada MaxInferenceUnits para a operação StartModel.

O Lookout for Vision fornece as seguintes métricas do Amazon CloudWatch Logs que você pode usar para determinar o status atual do dimensionamento automático de um modelo.

Métrica Descrição

DesiredInferenceUnits

O número de unidades de inferência para as quais o Lookout for Vision está aumentando ou diminuindo.

InServiceInferenceUnits

O número de unidades de inferência que o modelo está usando.

Se DesiredInferenceUnits =InServiceInferenceUnits, o Lookout for Vision não está atualmente escalando o número de unidades de inferência.

Se DesiredInferenceUnits >InServiceInferenceUnits, o Lookout for Vision está aumentando para o valor de. DesiredInferenceUnits

Se DesiredInferenceUnits <InServiceInferenceUnits, o Lookout for Vision está diminuindo para o valor de. DesiredInferenceUnits

Para obter mais informações sobre as métricas retornadas pelo Lookout for Vision e as dimensões de filtragem, consulte Monitoramento do Lookout for Vision com o Amazon CloudWatch.

Para saber o número máximo de unidades de inferência que você solicitou para um modelo, chame DescribeModel e verifique o campo na resposta MaxInferenceUnits.

Uma VPC com zonas de disponibilidade e uma zona Wavelength.

Amazon Lookout for Vision; distribui unidades de inferência em várias zonas de disponibilidade em uma região AWS para oferecer maior disponibilidade. Para obter mais informações, consulte Zonas de disponibilidade. Para ajudar a proteger seus modelos de produção contra interrupções na zona de disponibilidade e falhas na unidade de inferência, inicie seus modelos de produção com pelo menos duas unidades de inferência.

Se ocorrer uma interrupção na zona de disponibilidade, todas as unidades de inferência na zona de disponibilidade ficarão indisponíveis e a capacidade do modelo será reduzida. As chamadas para DetectAnomalies são redistribuídas nas unidades de inferência restantes. Essas chamadas são bem-sucedidas se não excederem as transações por segundo (TPS) suportadas das unidades de inferência restantes. Depois que a AWS repara a zona de disponibilidade, as unidades de inferência são reiniciadas e a capacidade total é restaurada.

Se uma única unidade de inferência falhar, o Amazon Lookout for Vision iniciará automaticamente uma nova unidade de inferência na mesma zona de disponibilidade. A capacidade do modelo é reduzida até que a nova unidade de inferência seja iniciada.