Exécuter l'inférence de Machine Learning - AWS IoT Greengrass

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Exécuter l'inférence de Machine Learning

Avec AWS IoT Greengrass, vous pouvez effectuer des inférences d'apprentissage automatique (ML) sur vos appareils périphériques à partir de données générées localement à l'aide de modèles conçus dans le cloud. Vous bénéficiez d'une faible latence et de coûts d'inférence locale réduits, tout en profitant des avantages de la puissance du cloud computing pour les modèles de formation et les traitements complexes.

AWS IoT Greengrass rend les étapes nécessaires à l'inférence plus efficaces. Vous pouvez entraîner vos modèles d'inférence n'importe où et les déployer localement en tant que composants d'apprentissage automatique. Par exemple, vous pouvez créer et entraîner des modèles d'apprentissage profond dans Amazon SageMaker AI ou des modèles de vision par ordinateur dans Amazon Lookout for Vision. Vous pouvez ensuite stocker ces modèles dans un compartiment Amazon S3, afin de pouvoir les utiliser comme artefacts dans vos composants pour effectuer des inférences sur vos appareils principaux.

Comment fonctionne l'inférence AWS IoT Greengrass ML

AWS fournit des composants d'apprentissage automatique que vous pouvez utiliser pour créer des déploiements en une étape afin d'effectuer des inférences d'apprentissage automatique sur votre appareil. Vous pouvez également utiliser ces composants comme modèles pour créer des composants personnalisés répondant à vos besoins spécifiques.

AWS fournit les catégories suivantes de composants d'apprentissage automatique :

  • Composant du modèle : contient des modèles d'apprentissage automatique sous forme d'artefacts Greengrass.

  • Composant d'exécution : contient le script qui installe le framework d'apprentissage automatique et ses dépendances sur le périphérique principal de Greengrass.

  • Composant d'inférence : contient le code d'inférence et inclut les dépendances des composants pour installer le framework d'apprentissage automatique et télécharger des modèles d'apprentissage automatique préentraînés.

Chaque déploiement que vous créez pour effectuer une inférence d'apprentissage automatique comprend au moins un composant qui exécute votre application d'inférence, installe l'infrastructure d'apprentissage automatique et télécharge vos modèles d'apprentissage automatique. Pour effectuer un exemple d'inférence avec les composants AWS fournis, vous déployez un composant d'inférence sur votre périphérique principal, qui inclut automatiquement le modèle et les composants d'exécution correspondants en tant que dépendances. Pour personnaliser vos déploiements, vous pouvez intégrer ou remplacer les composants du modèle d'exemple par des composants de modèle personnalisés, ou vous pouvez utiliser les recettes de composants pour les composants AWS fournis comme modèles pour créer vos propres composants d'inférence, de modèle et d'exécution personnalisés.

Pour effectuer une inférence d'apprentissage automatique à l'aide de composants personnalisés :

  1. Créez un composant de modèle. Ce composant contient les modèles d'apprentissage automatique que vous souhaitez utiliser pour effectuer des inférences. AWS fournit des exemples de modèles préentraînés DLR et TensorFlow Lite. Pour utiliser un modèle personnalisé, créez votre propre composant de modèle.

  2. Créez un composant d'exécution. Ce composant contient les scripts nécessaires pour installer le moteur d'apprentissage automatique pour vos modèles. AWS fournit des exemples de composants d'exécution pour Deep Learning Runtime (DLR) et TensorFlow Lite. Pour utiliser d'autres environnements d'exécution avec vos modèles personnalisés et votre code d'inférence, créez vos propres composants d'exécution.

  3. Créez un composant d'inférence. Ce composant contient votre code d'inférence et inclut votre modèle et vos composants d'exécution en tant que dépendances. AWS fournit des exemples de composants d'inférence pour la classification d'images et la détection d'objets à l'aide de DLR and TensorFlow Lite. Pour effectuer d'autres types d'inférence ou pour utiliser des modèles et des environnements d'exécution personnalisés, créez votre propre composant d'inférence.

  4. Déployez le composant d'inférence. Lorsque vous déployez ce composant, il déploie AWS IoT Greengrass également automatiquement les dépendances du modèle et du composant d'exécution.

Pour commencer à utiliser les composants AWS fournis, consultezTutoriel : Effectuer une inférence de classification d'images d'échantillons à l'aide TensorFlow de Lite.

Pour plus d'informations sur la création de composants d'apprentissage automatique personnalisés, consultezPersonnalisez vos composants d'apprentissage automatique.

Qu'est-ce qui est différent dans AWS IoT Greengrass la version 2 ?

AWS IoT Greengrass consolide les unités fonctionnelles pour l'apprentissage automatique, telles que les modèles, les environnements d'exécution et le code d'inférence, en composants qui vous permettent d'utiliser un processus en une étape pour installer le moteur d'apprentissage automatique, télécharger vos modèles entraînés et effectuer des inférences sur votre appareil.

En utilisant les composants d'apprentissage automatique AWS fournis, vous avez la possibilité de commencer à effectuer des inférences par apprentissage automatique à l'aide d'exemples de code d'inférence et de modèles préentraînés. Vous pouvez intégrer des composants de modèles personnalisés pour utiliser vos propres modèles entraînés sur mesure avec les composants d'inférence et d'exécution fournis. AWS Pour une solution d'apprentissage automatique entièrement personnalisée, vous pouvez utiliser les composants publics comme modèles pour créer des composants personnalisés et utiliser le type d'exécution, de modèle ou d'inférence de votre choix.

Prérequis

Pour créer et utiliser des composants d'apprentissage automatique, vous devez disposer des éléments suivants :

  • Un appareil Greengrass Core. Si vous n'en avez pas, veuillez consulter Tutoriel : Débuter avec AWS IoT Greengrass V2.

  • 500 Mo d'espace de stockage local minimum pour utiliser les exemples de composants d'apprentissage automatique AWS fournis.

Sources de modèles prises en charge

AWS IoT Greengrass prend en charge l'utilisation de modèles d'apprentissage automatique personnalisés qui sont stockés dans Amazon S3. Vous pouvez également utiliser les tâches d'empaquetage Amazon SageMaker AI Edge pour créer directement des composants de modèle pour vos modèles compilés par SageMaker AI Neo. Pour plus d'informations sur l'utilisation d' SageMaker AI Edge Manager avec AWS IoT Greengrass, consultezUtiliser Amazon SageMaker AI Edge Manager sur les appareils principaux de Greengrass. Vous pouvez également utiliser Amazon Lookout for Vision pour les tâches d'empaquetage de modèles afin de créer des composants de modèle pour vos modèles Lookout for Vision. Pour plus d'informations sur l'utilisation de Lookout for Vision AWS IoT Greengrass avec, Amazon Lookout for Vision consultez.

Les compartiments S3 qui contiennent vos modèles doivent répondre aux exigences suivantes :

  • Ils ne doivent pas être chiffrés à l'aide de SSE -C. Pour les compartiments qui utilisent le chiffrement côté serveur, l'inférence basée sur l'apprentissage AWS IoT Greengrass automatique prend actuellement en charge uniquement les options de chiffrement SSE -S3 ou SSE -. KMS Pour plus d'informations sur les options de chiffrement côté serveur, consultez la section Protection des données à l'aide du chiffrement côté serveur dans le guide de l'utilisateur d'Amazon Simple Storage Service.

  • Leurs noms ne doivent pas inclure de points (.). Pour plus d'informations, consultez la règle concernant l'utilisation de compartiments de type hébergé virtuel SSL dans la section Règles de dénomination des compartiments du guide de l'utilisateur d'Amazon Simple Storage Service.

  • Les compartiments S3 qui stockent les sources de vos modèles doivent se trouver dans Compte AWS les mêmes compartiments Région AWS que vos composants d'apprentissage automatique.

  • AWS IoT Greengrass doit avoir read l'autorisation d'accéder à la source du modèle. Pour permettre l'accès AWS IoT Greengrass aux compartiments S3, le rôle d'appareil Greengrass doit autoriser s3:GetObject l'action. Pour plus d'informations sur le rôle de l'appareil, consultezAutoriser les appareils principaux à interagir avec les AWS services.

Runtimes d'apprentissage automatique pris en charge

AWS IoT Greengrass vous permet de créer des composants personnalisés pour utiliser n'importe quel environnement d'apprentissage automatique de votre choix pour effectuer des inférences d'apprentissage automatique avec vos modèles entraînés sur mesure. Pour plus d'informations sur la création de composants d'apprentissage automatique personnalisés, consultezPersonnalisez vos composants d'apprentissage automatique.

Pour rendre le processus de démarrage de l'apprentissage automatique plus efficace, AWS IoT Greengrass fournit des exemples de composants d'inférence, de modèle et d'exécution qui utilisent les environnements d'exécution d'apprentissage automatique suivants :

AWS-composants d'apprentissage automatique fournis

Le tableau suivant répertorie les composants AWS fournis utilisés pour l'apprentissage automatique.

Note

Plusieurs composants AWS fournis dépendent de versions mineures spécifiques du noyau Greengrass. En raison de cette dépendance, vous devez mettre à jour ces composants lorsque vous mettez à jour le noyau Greengrass vers une nouvelle version mineure. Pour plus d'informations sur les versions spécifiques du noyau dont dépend chaque composant, consultez la rubrique correspondante sur les composants. Pour plus d'informations sur la mise à jour du noyau, consultezMettre à jour le logiciel AWS IoT Greengrass principal (OTA).

Composant Description Type de composant Systèmes d'exploitation pris en charge Open source
Lookout for Vision Edge Agent Déploie le moteur d'exécution Amazon Lookout for Vision sur l'appareil principal de Greengrass, afin que vous puissiez utiliser la vision par ordinateur pour détecter les défauts des produits industriels. Générique Linux Non
SageMaker Gestionnaire AI Edge Déploie l'agent Amazon SageMaker AI Edge Manager sur l'appareil principal de Greengrass. Générique Linux, Windows Non
Classification des images DLR Composant d'inférence qui utilise le magasin de modèles de classification d'DLRimages et le composant DLR d'exécution comme dépendances pour installerDLR, télécharger des exemples de modèles de classification d'images et effectuer une inférence de classification d'images sur les appareils pris en charge. Générique Linux, Windows Non
Détection d'objets DLR Composant d'inférence qui utilise le magasin de modèles de détection d'DLRobjets et le composant DLR d'exécution comme dépendances pour installerDLR, télécharger des exemples de modèles de détection d'objets et effectuer une inférence de détection d'objets sur les appareils pris en charge. Générique Linux, Windows Non
DLRmagasin de modèles de classification d'images Composant de modèle contenant des exemples de ResNet 50 modèles de classification d'images sous forme d'artefacts Greengrass. Générique Linux, Windows Non
DLRmagasin de modèles de détection d'objets Composant de modèle contenant des exemples de modèles de détection YOLOv3 d'objets sous forme d'artefacts Greengrass. Générique Linux, Windows Non
Temps d'exécution du DLR Composant d'exécution qui contient un script d'installation utilisé pour l'installation DLR et ses dépendances sur le périphérique principal Greengrass. Générique Linux, Windows Non
TensorFlow Classification d'images Lite Composant d'inférence qui utilise le magasin de modèles de classification d'images TensorFlow Lite et le composant d'exécution TensorFlow Lite comme dépendances pour installer TensorFlow Lite, télécharger des exemples de modèles de classification d'images et effectuer une inférence de classification d'images sur les appareils pris en charge. Générique Linux, Windows Non
TensorFlow Détection d'objets allégée Composant d'inférence qui utilise le magasin de modèles de détection d'objets TensorFlow Lite et le composant d'exécution TensorFlow Lite comme dépendances pour installer TensorFlow Lite, télécharger des exemples de modèles de détection d'objets et effectuer une inférence de détection d'objets sur les appareils pris en charge. Générique Linux, Windows Non
TensorFlow Boutique de modèles de classification d'images Lite Composant de modèle contenant un exemple de modèle MobileNet v1 en tant qu'artefact Greengrass. Générique Linux, Windows Non
TensorFlow Boutique de modèles de détection d'objets Lite Composant de modèle contenant un exemple de MobileNet modèle Single Shot Detection (SSD) sous forme d'artefact Greengrass. Générique Linux, Windows Non
TensorFlow Temps d'exécution allégé Composant d'exécution contenant un script d'installation utilisé pour installer TensorFlow Lite et ses dépendances sur le périphérique principal de Greengrass. Générique Linux, Windows Non