Ejecución de un modelo Amazon Lookout for Vision formado - Amazon Lookout for Vision

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ejecución de un modelo Amazon Lookout for Vision formado

Para detectar anomalías en las imágenes del modelo, primero debe iniciar el modelo con la operación StartModel. La consola Amazon Lookout for Vision proporciona AWS CLI órdenes que puede usar para iniciar y detener el modelo. En esta sección se incluye un ejemplo de código que puede utilizar.

Una vez iniciado el modelo, puede utilizar la DetectAnomalies operación para detectar anomalías en una imagen. Para obtener más información, consulte Detección de anomalías en una imagen.

Unidades de inferencia

Al iniciar el modelo, Amazon Lookout for Vision aprovisiona un mínimo de un recurso de cómputo, conocido como unidad de inferencia. Usted especifica el número de unidades de inferencia que se van a utilizar en el parámetro MinInferenceUnits de entrada a la API StartModel. La asignación predeterminada para un modelo es 1 unidad de inferencia.

importante

Se le cobrará por el número de horas que el modelo esté en ejecución y por el número de unidades de inferencia que utilice mientras se ejecute, en función de cómo configure la ejecución del modelo. Por ejemplo, si inicia el modelo con dos unidades de inferencia y lo utiliza durante 8 horas, se le cobrarán 16 horas de inferencia (8 horas de tiempo de ejecución x dos unidades de inferencia). Para obtener más información, consulte Precios de Amazon Lookout for Vision. Si no detiene el modelo de forma explícita usando StopModel, se le cobrará incluso si no está analizando activamente las imágenes con el modelo.

Las transacciones por segundo (TPS) que engloba una sola unidad de inferencia se ven afectadas por lo siguiente:

  • El algoritmo que Lookout for Vision usa para formar el modelo. Cuando entrena un modelo, se entrenan varios modelos. Lookout for Vision selecciona el modelo con el mejor rendimiento en función del tamaño del conjunto de datos y su composición de imágenes normales y anómalas.

  • Las imágenes con mayor resolución exigen más tiempo de análisis.

  • Las imágenes de menor tamaño (medidas en MB) se analizan más rápido que las imágenes más grandes.

Gestión del rendimiento con unidades de inferencia

Puede aumentar o disminuir el rendimiento del modelo en función de las exigencias de su aplicación. Para aumentar el rendimiento, utilice unidades de inferencia adicionales. Cada unidad de inferencia adicional aumenta la velocidad de procesamiento en una unidad de inferencia. Para obtener información sobre cómo calcular el número de unidades de inferencia que necesita, consulte Calcular unidades de inferencia en los modelos Etiquetas personalizadas de Amazon Rekognition y Amazon Lookout for Vision. Si desea cambiar el rendimiento permitido para su modelo, tiene dos opciones:

Cómo añadir o eliminar unidades de inferencia manualmente

Detenga el modelo y luego reinícielo con el número correspondiente de unidades de inferencia. La desventaja de este método es que el modelo no puede recibir solicitudes mientras se reinicia y no se puede utilizar para gestionar los picos de demanda. Utilice este método si su modelo tiene un rendimiento constante y en su caso podría tolerar entre 10 y 20 minutos de inactividad. Un ejemplo de ello sería si deseara realizar llamadas por lotes en su modelo utilizando un calendario semanal.

Escalado automático de unidades de inferencia

Si su modelo tiene que adaptarse a picos de demanda, Etiquetas personalizadas de Amazon Lookout for Vision ahora puede escalar el número de unidades de inferencia que utiliza el modelo. A medida que aumenta la demanda, Etiquetas personalizadas de Amazon Lookout for Vision añade unidades de inferencia adicionales al modelo y las elimina cuando la demanda decrece.

Para permitir que Etiquetas personalizadas de Lookout for Vision escale automáticamente las unidades de inferencia de un modelo, inícielo y elija el número máximo de unidades de inferencia que puede utilizar mediante el parámetro MaxInferenceUnits. Si define un número máximo de unidades de inferencia, podrá administrar los costes de ejecutar el modelo al limitar el número de unidades de inferencia disponibles. Si no indica un número máximo de unidades, Lookout for Vision no escalará automáticamente el modelo, sino que solo utilizará el número de unidades de inferencia con las que comenzó. Para obtener información sobre el número máximo de unidades de inferencia, consulte Service Quotas.

También puede indicar un número mínimo de unidades de inferencia mediante el parámetro MinInferenceUnits. Esto le permite especificar el rendimiento mínimo del modelo, donde una sola unidad de inferencia representa 1 hora de tiempo de procesamiento.

nota

No puede establecer el número máximo de unidades de inferencia con la consola Lookout for Vision. En su lugar, indique el parámetro de entrada MaxInferenceUnits en la operación StartModel.

Lookout for Vision proporciona los siguientes Registros de Amazon CloudWatch Logs que puede utilizar para determinar el estado actual de escalado automático de un modelo.

Métrica Descripción

DesiredInferenceUnits

El número de unidades de inferencia a las que Lookout for Vision se amplía o se reduce.

InServiceInferenceUnits

El número de unidades de inferencia que utiliza el modelo.

Si es DesiredInferenceUnits =InServiceInferenceUnits, Lookout for Vision no está escalando actualmente el número de unidades de inferencia.

Si es DesiredInferenceUnits >InServiceInferenceUnits, Lookout for Vision se amplía hasta alcanzar el valor de DesiredInferenceUnits.

Si es DesiredInferenceUnits <InServiceInferenceUnits, Lookout for Vision se reduce al valor de DesiredInferenceUnits.

Para obtener más información sobre las métricas devueltas por Lookout for Vision y las dimensiones de filtrado, consulte Monitorización de Lookout for Vision con Amazon CloudWatch.

Para saber el número máximo de unidades de inferencia que ha solicitado para un modelo, llame DescribeModel y revise el campo MaxInferenceUnits en la respuesta.

Zonas de disponibilidad

Amazon Lookout for Vision distribuye las unidades de inferencia en varias zonas de disponibilidad de una región de AWS para ofrecer una mayor disponibilidad. Para obtener más información, consulte Zonas de disponibilidad. Para proteger los modelos de producción de las interrupciones en las zonas de disponibilidad y de los errores en las unidades de inferencia, inicie los modelos de producción con al menos dos unidades de inferencia.

Si se produce una interrupción en la zona de disponibilidad, todas las unidades de inferencia de la zona de disponibilidad no estarán disponibles y la capacidad del modelo se reducirá. Las llamadas a DetectAnomalies se redistribuyen entre las unidades de inferencia restantes. Estas llamadas se realizan correctamente si no superan las transacciones por segundo (TPS) permitidas de las unidades de inferencia restantes. Una vez que AWS repara la zona de disponibilidad, se reinician las unidades de inferencia y se restablece la capacidad total.

Si una sola unidad de inferencia falla, Amazon Lookout for Vision iniciará automáticamente una nueva unidad de inferencia en la misma zona de disponibilidad. La capacidad del modelo se reduce hasta que se inicie la nueva unidad de inferencia.