Périphériques en périphérie - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Périphériques en périphérie

Amazon SageMaker Neo fournit un support de compilation pour les frameworks d'apprentissage automatique les plus courants. Vous pouvez déployer vos appareils en périphérie néo-compilés, tels que le Raspberry Pi 3, le Sitara de Texas Instruments, le Jetson TX1, etc. Pour obtenir la liste complète des cadres et des appareils en périphérie pris en charge, veuillez consulter.Supported Frameworks, Devices, Systems, and Architectures (Cadres, périphériques, systèmes et architectures pris en charge).

Vous devez configurer votre périphérique Edge afin qu'il puisse utiliser AWS les services. Pour ce faire, vous pouvez installer DLR et Boto3 sur votre périphérique. Pour ce faire, vous devez configurer les informations d'authentification. Voir AWS Configuration de Boto3 pour plus d'informations. Une fois votre modèle compilé et votre appareil en périphérie configuré, vous pouvez télécharger le modèle d'Amazon S3 sur votre appareil en périphérie. À partir de là, vous pouvez utiliser le Deep Learning Runtime (DLR) (Runtime deep learning) pour lire le modèle compilé et faire des inférences.

Nous recommandons aux utilisateurs débutants de consulter le guide de Démarrer. Ce guide vous explique comment configurer vos informations d'identification, compiler un modèle, le déployer sur un Raspberry Pi 3 et faire des inférences sur les images.