Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Comprendre les opérations non liées au stockage et au stockage API
Amazon Rekognition propose deux types d'opérations. API Il s’agit des opérations hors stockage, au cours desquelles aucune information n’est stockée par Amazon Rekognition, et des opérations de stockage au cours desquelles certaines informations de visages sont stockées par Amazon Rekognition.
Opérations hors stockage
Amazon Rekognition fournit les opérations non liées au stockage suivantes pour les API images :
Amazon Rekognition fournit les opérations non liées au stockage suivantes pour les API vidéos :
Ces opérations sont appelées API opérations non liées au stockage, car lorsque vous effectuez l'appel d'opération, Amazon Rekognition ne conserve aucune information découverte concernant l'image d'entrée. Comme pour toutes les autres opérations API Amazon Rekognition, aucun octet d'image d'entrée n'est conservé par des opérations autres que le stockage. API
Les exemples de scénarios suivants montrent les domaines dans lesquels vous pouvez intégrer des API opérations autres que le stockage dans votre application. Ces scénarios partent du principe que vous disposez d’un référentiel d’images local.
Exemple 1 : Une application trouve dans votre référentiel local des images contenant des étiquettes spécifiques
Tout d’abord, vous détectez des étiquettes à l’aide de l’opération DetectLabels
d’Amazon Rekognition dans chacune des images de votre référentiel, puis vous créez un index côté client, comme indiqué ci-dessous :
Label ImageID tree image-1 flower image-1 mountain image-1 tulip image-2 flower image-2 apple image-3
Ensuite, votre application peut consulter cet index pour rechercher dans votre référentiel local des images qui contiennent une étiquette spécifique. Par exemple, afficher des images qui contiennent un arbre.
Chaque étiquette détectée par Amazon Rekognition est associée à une valeur de fiabilité. Celle-ci indique le niveau de fiabilité correspondant à la présence de l’étiquette dans l’image d’entrée. Vous pouvez utiliser cette valeur pour exécuter un filtrage supplémentaire côté client des étiquettes. Le filtrage dépend des exigences de votre application en matière de fiabilité de la détection. Par exemple, si vous avez besoin d’étiquettes précises, vous pouvez filtrer et sélectionner uniquement les étiquettes ayant une fiabilité plus élevée (95 % ou plus, par exemple). Si votre application ne nécessite pas une valeur de fiabilité très élevée, vous pouvez choisir de filtrer les étiquettes ayant une valeur de fiabilité plus faible (plus proche de 50 %).
Exemple 2 : Une application permettant d’afficher des images de visage optimisées
Tout d’abord, vous pouvez détecter les visages dans chacune des images de votre référentiel local à l’aide de l’opération DetectFaces
Amazon Rekognition, puis créer un index côté client. Pour chaque visage, l’opération renvoie des métadonnées qui incluent un cadre de délimitation, des repères faciaux (la position de la bouche et des oreilles, par exemple) et des attributs du visage (masculin ou féminin, par exemple). Vous pouvez stocker ces métadonnées dans un index local côté client, comme indiqué ci-dessous :
ImageID FaceID FaceMetaData image-1 face-1 <boundingbox>, etc. image-1 face-2 <boundingbox>, etc. image-1 face-3 <boundingbox>, etc. ...
Dans cet index, la clé primaire est une combinaison de ImageID
et de FaceID
.
Ensuite, vous pouvez utiliser les informations contenues dans l’index pour améliorer les images de votre référentiel local lorsque votre application les affiche. Par exemple, vous pouvez ajouter un cadre de délimitation autour du visage ou mettre en évidence les caractéristiques faciales.
Opérations basées sur le stockage API
Amazon Rekognition Image IndexFacesprend en charge cette opération, que vous pouvez utiliser pour détecter des visages sur une image et conserver les informations relatives aux traits faciaux détectés dans une collection Amazon Rekognition. Il s'agit d'un exemple d'APIopération basée sur le stockage, car le service conserve les informations sur le serveur.
Amazon Rekognition Image fournit les opérations de stockage suivantes : API
Amazon Rekognition Video fournit les opérations de stockage suivantes : API
Pour stocker des informations faciales, vous devez d'abord créer une collection de visages dans l'une des AWS régions de votre compte. Vous spécifiez cette collection de visages lorsque vous appelez l’opération IndexFaces
. Une fois que vous avez créé une collection de visages et stocké les informations des caractéristiques faciales de tous les visages, vous pouvez explorer la collection à la recherche de correspondances de visage. Par exemple, vous pouvez détecter le plus grand visage dans une image et rechercher des visages semblables dans un ensemble en appelant searchFacesByImage.
Les informations de visage stockées dans les collections par IndexFaces
sont accessibles pour les opérations Vidéo Amazon Rekognition. Par exemple, vous pouvez rechercher dans une vidéo des personnes dont les visages correspondent à ceux d'une collection existante en appelant StartFaceSearch.
Pour en savoir plus sur la création et la gestion des collections, consultez Recherche de visages dans une collection.
Note
Les collections stockent des vecteurs de visages, qui sont des représentations mathématiques de visages. Les collections ne stockent pas d'images de visages.
Exemple 1 : Une application qui authentifie l’accès à un bâtiment
Vous commencez par la création d’une collection de visages pour stocker les images de badges numérisés à l’aide de l’opération IndexFaces
, qui extrait les visages et les stocke comme vecteurs d’image explorables. Puis, lorsqu’un employé entre dans le bâtiment, une image de son visage est capturée et envoyée à l’opération SearchFacesByImage
. Si la correspondance des visages offre un score de similarité suffisamment élevé (par exemple, 99 %), vous pouvez authentifier l’employé.