Exécution de votre modèle Amazon Lookout for Vision entraîné - Amazon Lookout for Vision

Avis de fin de support : le 31 octobre 2025, le support d'Amazon Lookout for Vision AWS sera interrompu. Après le 31 octobre 2025, vous ne pourrez plus accéder à la console Lookout for Vision ni aux ressources Lookout for Vision. Pour plus d'informations, consultez ce billet de blog.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Exécution de votre modèle Amazon Lookout for Vision entraîné

Pour détecter des anomalies dans les images avec votre modèle, vous devez d'abord démarrer votre modèle avec l'StartModelopération. La console Amazon Lookout for Vision AWS CLI fournit des commandes que vous pouvez utiliser pour démarrer et arrêter votre modèle. Cette section contient un exemple de code que vous pouvez utiliser.

Après le démarrage de votre modèle, vous pouvez utiliser cette DetectAnomalies opération pour détecter des anomalies dans une image. Pour en savoir plus, consultez Détecter des anomalies dans une image.

Unités d'inférence

Lorsque vous démarrez votre modèle, Amazon Lookout for Vision fournit au moins une ressource de calcul, appelée unité d'inférence. Vous spécifiez le nombre d'unités d'inférence à utiliser dans le paramètre MinInferenceUnits d'entrée de l'StartModelAPI. L'allocation par défaut pour un modèle est de 1 unité d'inférence.

Important

Vous êtes facturé en fonction du nombre d'heures pendant lesquelles votre modèle fonctionne et du nombre d'unités d'inférence qu'il utilise pendant son exécution, en fonction de la façon dont vous configurez le fonctionnement de votre modèle. Par exemple, si vous démarrez le modèle avec deux unités d'inférence et que vous l'utilisez pendant 8 heures, 16 heures d'inférence vous sont facturées (8 heures de fonctionnement x deux unités d'inférence). Pour plus d'informations, consultez la page de tarification d'Amazon Lookout for Vision. Si vous n'arrêtez pas explicitement votre modèle en appelant StopModel, des frais vous seront facturés même si vous n'analysez pas activement les images avec votre modèle.

Les transactions par seconde (TPS) prises en charge par une seule unité d'inférence sont affectées par les facteurs suivants :

  • Algorithme utilisé par Lookout for Vision pour entraîner le modèle. Lorsque vous entraînez un modèle, plusieurs modèles sont entraînés. Lookout for Vision sélectionne le modèle présentant les meilleures performances en fonction de la taille du jeu de données et de sa composition d'images normales et anormales.

  • Les images à haute résolution nécessitent plus de temps pour l'analyse.

  • Les images de petite taille (mesurées en Mo) sont analysées plus rapidement que les images de grande taille.

Gestion du débit à l'aide d'unités d'inférence

Vous pouvez augmenter ou diminuer le débit de votre modèle en fonction des exigences de votre application. Pour augmenter le débit, utilisez des unités d'inférence supplémentaires. Chaque unité d'inférence supplémentaire augmente votre vitesse de traitement d'une unité d'inférence. Pour plus d'informations sur le calcul du nombre d'unités d'inférence dont vous avez besoin, consultez Calculer les unités d'inférence pour les modèles Amazon Rekognition Custom Labels et Amazon Lookout for Vision. Si vous souhaitez modifier le débit pris en charge par votre modèle, deux options s'offrent à vous :

Ajouter ou supprimer manuellement des unités d'inférence

Arrêtez le modèle, puis redémarrez-le avec le nombre d'unités d'inférence requis. L'inconvénient de cette approche est que le modèle ne peut pas recevoir de demandes pendant le redémarrage et ne peut pas être utilisé pour gérer les pics de demande. Utilisez cette approche si le débit de votre modèle est stable et que votre cas d'utilisation peut tolérer 10 à 20 minutes d'indisponibilité. Par exemple, si vous souhaitez effectuer des appels groupés vers votre modèle selon un calendrier hebdomadaire.

Unités d'inférence à échelle automatique

Si votre modèle doit faire face à des pics de demande, Amazon Lookout for Vision peut automatiquement ajuster le nombre d'unités d'inférence utilisées par votre modèle. À mesure que la demande augmente, Amazon Lookout for Vision ajoute des unités d'inférence supplémentaires au modèle et les supprime lorsque la demande diminue.

Pour permettre à Lookout for Vision de redimensionner automatiquement les unités d'inférence d'un modèle, démarrez le modèle et définissez le nombre maximum d'unités d'inférence qu'il peut utiliser à l'aide du paramètre. MaxInferenceUnits La définition d'un nombre maximum d'unités d'inférence vous permet de gérer le coût d'exécution du modèle en limitant le nombre d'unités d'inférence disponibles. Si vous ne spécifiez pas de nombre maximum d'unités, Lookout for Vision ne redimensionnera pas automatiquement votre modèle, en utilisant uniquement le nombre d'unités d'inférence avec lequel vous avez commencé. Pour plus d'informations concernant le nombre maximum d'unités d'inférence, consultez la section Service Quotas.

Vous pouvez également spécifier un nombre minimum d'unités d'inférence à l'aide du MinInferenceUnits paramètre. Cela vous permet de spécifier le débit minimum pour votre modèle, où une seule unité d'inférence représente 1 heure de traitement.

Note

Vous ne pouvez pas définir le nombre maximum d'unités d'inférence avec la console Lookout for Vision. Spécifiez plutôt le paramètre MaxInferenceUnits d'entrée de l'StartModelopération.

Lookout for Vision fournit les métriques CloudWatch Amazon Logs suivantes que vous pouvez utiliser pour déterminer l'état actuel du dimensionnement automatique d'un modèle.

Métrique Description

DesiredInferenceUnits

Le nombre d'unités d'inférence par rapport auxquelles Lookout for Vision augmente ou diminue.

InServiceInferenceUnits

Le nombre d'unités d'inférence utilisées par le modèle.

Si DesiredInferenceUnits =InServiceInferenceUnits, Lookout for Vision ne redimensionne pas actuellement le nombre d'unités d'inférence.

Si DesiredInferenceUnits >InServiceInferenceUnits, Lookout for Vision passe à la valeur DesiredInferenceUnits de.

Si DesiredInferenceUnits <InServiceInferenceUnits, Lookout for Vision est réduit à la valeur DesiredInferenceUnits de.

Pour plus d'informations concernant les métriques renvoyées par Lookout for Vision et les dimensions de filtrage, consultez la section Surveillance de Lookout for Vision avec Amazon. CloudWatch

Pour connaître le nombre maximum d'unités d'inférence que vous avez demandées pour un modèle, appelez DescribeModelet vérifiez le MaxInferenceUnits champ dans la réponse.

Zones de disponibilité

Amazon Lookout for Vision distribue des unités d'inférence dans plusieurs zones de disponibilité au sein AWS d'une région afin d'améliorer la disponibilité. Pour plus d'informations, consultez la section Zones de disponibilité. Pour protéger vos modèles de production contre les pannes de zone de disponibilité et les défaillances des unités d'inférence, démarrez vos modèles de production avec au moins deux unités d'inférence.

En cas de panne de la zone de disponibilité, toutes les unités d'inférence de la zone de disponibilité ne sont pas disponibles et la capacité du modèle est réduite. Les appels à DetectAnomaliessont redistribués entre les unités d'inférence restantes. Ces appels réussissent s'ils ne dépassent pas les transactions par seconde (TPS) prises en charge par les unités d'inférence restantes. Une fois la zone de disponibilité AWS réparée, les unités d'inférence sont redémarrées et leur capacité maximale est rétablie.

En cas de défaillance d'une seule unité d'inférence, Amazon Lookout for Vision lance automatiquement une nouvelle unité d'inférence dans la même zone de disponibilité. La capacité du modèle est réduite jusqu'au démarrage de la nouvelle unité d'inférence.