Avis de fin de support : le 31 octobre 2025, le support d'Amazon Lookout for Vision AWS sera interrompu. Après le 31 octobre 2025, vous ne pourrez plus accéder à la console Lookout for Vision ni aux ressources Lookout for Vision. Pour plus d'informations, consultez ce billet de blog
Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Exécution de votre modèle Amazon Lookout for Vision entraîné
Pour détecter des anomalies dans les images avec votre modèle, vous devez d'abord démarrer votre modèle avec l'StartModelopération. La console Amazon Lookout for Vision AWS CLI fournit des commandes que vous pouvez utiliser pour démarrer et arrêter votre modèle. Cette section contient un exemple de code que vous pouvez utiliser.
Après le démarrage de votre modèle, vous pouvez utiliser cette DetectAnomalies
opération pour détecter des anomalies dans une image. Pour en savoir plus, consultez Détecter des anomalies dans une image.
Rubriques
Unités d'inférence
Lorsque vous démarrez votre modèle, Amazon Lookout for Vision fournit au moins une ressource de calcul, appelée unité d'inférence. Vous spécifiez le nombre d'unités d'inférence à utiliser dans le paramètre MinInferenceUnits
d'entrée de l'StartModel
API. L'allocation par défaut pour un modèle est de 1 unité d'inférence.
Important
Vous êtes facturé en fonction du nombre d'heures pendant lesquelles votre modèle fonctionne et du nombre d'unités d'inférence qu'il utilise pendant son exécution, en fonction de la façon dont vous configurez le fonctionnement de votre modèle. Par exemple, si vous démarrez le modèle avec deux unités d'inférence et que vous l'utilisez pendant 8 heures, 16 heures d'inférence vous sont facturées (8 heures de fonctionnement x deux unités d'inférence). Pour plus d'informations, consultez la page de tarification d'Amazon Lookout for Vision
Les transactions par seconde (TPS) prises en charge par une seule unité d'inférence sont affectées par les facteurs suivants :
Algorithme utilisé par Lookout for Vision pour entraîner le modèle. Lorsque vous entraînez un modèle, plusieurs modèles sont entraînés. Lookout for Vision sélectionne le modèle présentant les meilleures performances en fonction de la taille du jeu de données et de sa composition d'images normales et anormales.
Les images à haute résolution nécessitent plus de temps pour l'analyse.
Les images de petite taille (mesurées en Mo) sont analysées plus rapidement que les images de grande taille.
Gestion du débit à l'aide d'unités d'inférence
Vous pouvez augmenter ou diminuer le débit de votre modèle en fonction des exigences de votre application. Pour augmenter le débit, utilisez des unités d'inférence supplémentaires. Chaque unité d'inférence supplémentaire augmente votre vitesse de traitement d'une unité d'inférence. Pour plus d'informations sur le calcul du nombre d'unités d'inférence dont vous avez besoin, consultez Calculer les unités d'inférence pour les modèles Amazon Rekognition Custom Labels et Amazon
Ajouter ou supprimer manuellement des unités d'inférence
Arrêtez le modèle, puis redémarrez-le avec le nombre d'unités d'inférence requis. L'inconvénient de cette approche est que le modèle ne peut pas recevoir de demandes pendant le redémarrage et ne peut pas être utilisé pour gérer les pics de demande. Utilisez cette approche si le débit de votre modèle est stable et que votre cas d'utilisation peut tolérer 10 à 20 minutes d'indisponibilité. Par exemple, si vous souhaitez effectuer des appels groupés vers votre modèle selon un calendrier hebdomadaire.
Unités d'inférence à échelle automatique
Si votre modèle doit faire face à des pics de demande, Amazon Lookout for Vision peut automatiquement ajuster le nombre d'unités d'inférence utilisées par votre modèle. À mesure que la demande augmente, Amazon Lookout for Vision ajoute des unités d'inférence supplémentaires au modèle et les supprime lorsque la demande diminue.
Pour permettre à Lookout for Vision de redimensionner automatiquement les unités d'inférence d'un modèle, démarrez le modèle et définissez le nombre maximum d'unités d'inférence qu'il peut utiliser à l'aide du paramètre. MaxInferenceUnits
La définition d'un nombre maximum d'unités d'inférence vous permet de gérer le coût d'exécution du modèle en limitant le nombre d'unités d'inférence disponibles. Si vous ne spécifiez pas de nombre maximum d'unités, Lookout for Vision ne redimensionnera pas automatiquement votre modèle, en utilisant uniquement le nombre d'unités d'inférence avec lequel vous avez commencé. Pour plus d'informations concernant le nombre maximum d'unités d'inférence, consultez la section Service Quotas.
Vous pouvez également spécifier un nombre minimum d'unités d'inférence à l'aide du MinInferenceUnits
paramètre. Cela vous permet de spécifier le débit minimum pour votre modèle, où une seule unité d'inférence représente 1 heure de traitement.
Note
Vous ne pouvez pas définir le nombre maximum d'unités d'inférence avec la console Lookout for Vision. Spécifiez plutôt le paramètre MaxInferenceUnits
d'entrée de l'StartModel
opération.
Lookout for Vision fournit les métriques CloudWatch Amazon Logs suivantes que vous pouvez utiliser pour déterminer l'état actuel du dimensionnement automatique d'un modèle.
Métrique | Description |
---|---|
|
Le nombre d'unités d'inférence par rapport auxquelles Lookout for Vision augmente ou diminue. |
|
Le nombre d'unités d'inférence utilisées par le modèle. |
Si DesiredInferenceUnits
=InServiceInferenceUnits
, Lookout for Vision ne redimensionne pas actuellement le nombre d'unités d'inférence.
Si DesiredInferenceUnits
>InServiceInferenceUnits
, Lookout for Vision passe à la valeur DesiredInferenceUnits
de.
Si DesiredInferenceUnits
<InServiceInferenceUnits
, Lookout for Vision est réduit à la valeur DesiredInferenceUnits
de.
Pour plus d'informations concernant les métriques renvoyées par Lookout for Vision et les dimensions de filtrage, consultez la section Surveillance de Lookout for Vision avec Amazon. CloudWatch
Pour connaître le nombre maximum d'unités d'inférence que vous avez demandées pour un modèle, appelez DescribeModelet vérifiez le MaxInferenceUnits
champ dans la réponse.
Zones de disponibilité
Amazon Lookout for Vision distribue des unités d'inférence dans plusieurs zones de disponibilité au sein AWS d'une région afin d'améliorer la disponibilité. Pour plus d'informations, consultez la section Zones de disponibilité
En cas de panne de la zone de disponibilité, toutes les unités d'inférence de la zone de disponibilité ne sont pas disponibles et la capacité du modèle est réduite. Les appels à DetectAnomaliessont redistribués entre les unités d'inférence restantes. Ces appels réussissent s'ils ne dépassent pas les transactions par seconde (TPS) prises en charge par les unités d'inférence restantes. Une fois la zone de disponibilité AWS réparée, les unités d'inférence sont redémarrées et leur capacité maximale est rétablie.
En cas de défaillance d'une seule unité d'inférence, Amazon Lookout for Vision lance automatiquement une nouvelle unité d'inférence dans la même zone de disponibilité. La capacité du modèle est réduite jusqu'au démarrage de la nouvelle unité d'inférence.