Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esecuzione dell'inferenza di Machine Learning
Con AWS IoT Greengrass, puoi eseguire inferenze di machine learning (ML) sui tuoi dispositivi edge su dati generati localmente utilizzando modelli addestrati sul cloud. In questo modo si beneficia della bassa latenza e dei risparmi sui costi dell'inferenza locale e si sfrutta la potenza del cloud computing per modelli di formazione ed elaborazioni complesse.
AWS IoT Greengrass rende più efficienti i passaggi necessari per eseguire l'inferenza. È possibile addestrare i modelli di inferenza ovunque e distribuirli localmente come componenti di apprendimento automatico. Ad esempio, puoi creare e addestrare modelli di deep learning in Amazon SageMaker AI
Argomenti
- Come funziona l'inferenza ML AWS IoT Greengrass
- Cosa c'è di diverso nella AWS IoT Greengrass versione 2?
- Requisiti
- Origini di modello supportate
- Runtime di machine learning supportati
- AWS-componenti di apprendimento automatico forniti
- Usa Amazon SageMaker AI Edge Manager sui dispositivi core Greengrass
- Usa Amazon Lookout Greengrass visione.
- Personalizza i tuoi componenti di machine learning
- Risoluzione dei problemi di inferenza dell'apprendimento automatico
Come funziona l'inferenza ML AWS IoT Greengrass
AWS fornisce componenti di machine learning che è possibile utilizzare per creare distribuzioni in un'unica fase per eseguire inferenze di machine learning sul dispositivo. È inoltre possibile utilizzare questi componenti come modelli per creare componenti personalizzati per soddisfare requisiti specifici.
AWS fornisce le seguenti categorie di componenti di machine learning:
-
Componente del modello: contiene modelli di apprendimento automatico come artefatti Greengrass.
-
Componente Runtime: contiene lo script che installa il framework di machine learning e le sue dipendenze sul dispositivo principale Greengrass.
-
Componente di inferenza: contiene il codice di inferenza e include le dipendenze dei componenti per installare il framework di machine learning e scaricare modelli di machine learning preaddestrati.
Ogni implementazione creata per eseguire l'inferenza dell'apprendimento automatico è costituita da almeno un componente che esegue l'applicazione di inferenza, installa il framework di apprendimento automatico e scarica i modelli di apprendimento automatico. Per eseguire l'inferenza di esempio con i componenti AWS forniti, distribuisci un componente di inferenza sul tuo dispositivo principale, che include automaticamente il modello e i componenti di runtime corrispondenti come dipendenze. Per personalizzare le distribuzioni, è possibile collegare o sostituire i componenti del modello di esempio con componenti del modello personalizzati oppure utilizzare le ricette dei componenti AWS forniti come modelli per creare componenti di inferenza, modello e runtime personalizzati.
Per eseguire inferenze di machine learning utilizzando componenti personalizzati:
-
Crea un componente del modello. Questo componente contiene i modelli di machine learning da utilizzare per eseguire l'inferenza. AWS fornisce esempi di modelli pre-addestrati DLR e TensorFlow Lite. Per utilizzare un modello personalizzato, crea il tuo componente del modello.
-
Crea un componente di runtime. Questo componente contiene gli script necessari per installare il runtime di machine learning per i tuoi modelli. AWS fornisce componenti di runtime di esempio per Deep Learning Runtime
(DLR) e TensorFlow Lite . Per utilizzare altri runtime con i tuoi modelli personalizzati e il codice di inferenza, crea i tuoi componenti di runtime. -
Crea un componente di inferenza. Questo componente contiene il codice di inferenza e include i componenti del modello e del runtime come dipendenze. AWS fornisce componenti di inferenza di esempio per la classificazione delle immagini e il rilevamento di oggetti utilizzando DLR and Lite. TensorFlow Per eseguire altri tipi di inferenza o utilizzare modelli e runtime personalizzati, crea il tuo componente di inferenza.
-
Implementa il componente di inferenza. Quando distribuisci questo componente, distribuisce automaticamente AWS IoT Greengrass anche le dipendenze del modello e del componente di runtime.
Per iniziare con i componenti AWS forniti, consulta. Tutorial: eseguire l'inferenza della classificazione delle immagini di esempio utilizzando TensorFlow Lite
Per informazioni sulla creazione di componenti di machine learning personalizzati, consultaPersonalizza i tuoi componenti di machine learning.
Cosa c'è di diverso nella AWS IoT Greengrass versione 2?
AWS IoT Greengrass consolida le unità funzionali per l'apprendimento automatico, come modelli, runtime e codice di inferenza, in componenti che consentono di utilizzare un processo in un'unica fase per installare il runtime di machine learning, scaricare i modelli addestrati ed eseguire inferenze sul dispositivo.
Utilizzando i componenti di machine learning AWS forniti, hai la flessibilità di iniziare a eseguire inferenze di machine learning con codice di inferenza di esempio e modelli preaddestrati. È possibile collegare componenti di modelli personalizzati per utilizzare modelli personalizzati con i componenti di inferenza e di runtime forniti. AWS Per una soluzione di machine learning completamente personalizzata, è possibile utilizzare i componenti pubblici come modelli per creare componenti personalizzati e utilizzare qualsiasi tipo di runtime, modello o inferenza desiderato.
Requisiti
Per creare e utilizzare componenti di machine learning, è necessario disporre di quanto segue:
-
Un dispositivo principale Greengrass. Se non lo hai, consultare Tutorial: Guida introduttiva a AWS IoT Greengrass V2.
-
Almeno 500 MB di spazio di archiviazione locale per utilizzare i componenti AWS di machine learning di esempio forniti.
Origini di modello supportate
AWS IoT Greengrass supporta l'utilizzo di modelli di machine learning personalizzati archiviati in Amazon S3. Puoi anche utilizzare i processi di packaging edge di Amazon SageMaker AI per creare direttamente componenti del modello per i tuoi modelli NEO-compilati con SageMaker AI. Per informazioni sull'utilizzo di SageMaker AI Edge Manager con AWS IoT Greengrass, consulta. Usa Amazon SageMaker AI Edge Manager sui dispositivi core Greengrass Puoi anche utilizzare i processi di packaging dei modelli Amazon Lookout for Vision per creare componenti del modello per i tuoi modelli Lookout for Vision. Per ulteriori informazioni sull'utilizzo di Lookout for Vision AWS IoT Greengrass con, Usa Amazon Lookout Greengrass visione. vedere.
I bucket S3 che contengono i tuoi modelli devono soddisfare i seguenti requisiti:
-
Non devono essere crittografati utilizzando SSE -C. Per i bucket che utilizzano la crittografia lato server, l'inferenza dell'apprendimento AWS IoT Greengrass automatico attualmente supporta solo le opzioni di crittografia SSE -S3 o -. SSE KMS Per ulteriori informazioni sulle opzioni di crittografia lato server, consulta Protezione dei dati utilizzando la crittografia lato server nella Guida per l'utente di Amazon Simple Storage Service.
-
I loro nomi non devono includere periodi ().
.
Per ulteriori informazioni, consulta la regola sull'utilizzo di bucket in stile host virtuale contenuta SSL in Regole per la denominazione dei bucket nella Amazon Simple Storage Service User Guide. -
I bucket S3 che memorizzano i sorgenti del modello devono trovarsi negli stessi Account AWS componenti di machine learning. Regione AWS
-
AWS IoT Greengrass deve avere l'
read
autorizzazione alla fonte del modello. Per consentire l'accesso AWS IoT Greengrass ai bucket S3, il ruolo del dispositivo Greengrass deve consentire l'azione.s3:GetObject
Per ulteriori informazioni sul ruolo del dispositivo, consulta. Autorizza i dispositivi principali a interagire con i servizi AWS
Runtime di machine learning supportati
AWS IoT Greengrass ti consente di creare componenti personalizzati per utilizzare qualsiasi runtime di machine learning di tua scelta per eseguire inferenze di machine learning con i tuoi modelli addestrati su misura. Per informazioni sulla creazione di componenti di machine learning personalizzati, consulta. Personalizza i tuoi componenti di machine learning
Per rendere più efficiente il processo di introduzione all'apprendimento automatico, AWS IoT Greengrass fornisce esempi di componenti di inferenza, modello e runtime che utilizzano i seguenti runtime di machine learning:
-
Deep Learning Runtime
(DLR) v1.6.0 e v1.3.0 -
TensorFlow Lite
v2.5.0
AWS-componenti di apprendimento automatico forniti
La tabella seguente elenca i componenti AWS forniti utilizzati per l'apprendimento automatico.
Nota
Diversi componenti AWS forniti dipendono da versioni minori specifiche del nucleo Greengrass. A causa di questa dipendenza, è necessario aggiornare questi componenti quando si aggiorna il nucleo di Greengrass a una nuova versione secondaria. Per informazioni sulle versioni specifiche del nucleo da cui dipende ogni componente, consultate l'argomento relativo ai componenti. Per ulteriori informazioni sull'aggiornamento del nucleo, vedere. Aggiornamento del software AWS IoT Greengrass Core (OTA)
Componente | Descrizione | Tipo di componente | Sistema operativo supportato | Open source |
---|---|---|---|---|
Lookout for Vision Edge Agent | Implementa il runtime Amazon Lookout for Vision sul dispositivo principale Greengrass, in modo da poter utilizzare la visione artificiale per trovare difetti nei prodotti industriali. | Generico | Linux | No |
SageMaker Gestione AI Edge | Implementa l'agente Amazon SageMaker AI Edge Manager sul dispositivo principale Greengrass. | Generico | Linux, Windows | No |
Classificazione delle immagini DLR | Componente di inferenza che utilizza l'archivio del modello di classificazione delle DLR immagini e il componente DLR runtime come dipendenze per installareDLR, scaricare modelli di classificazione delle immagini di esempio ed eseguire inferenze di classificazione delle immagini sui dispositivi supportati. | Generico | Linux, Windows | No |
Rilevamento di oggetti DLR | Componente di inferenza che utilizza l'archivio del modello di rilevamento degli DLR oggetti e il componente DLR runtime come dipendenze per installareDLR, scaricare modelli di rilevamento di oggetti di esempio ed eseguire inferenze per il rilevamento degli oggetti sui dispositivi supportati. | Generico | Linux, Windows | No |
DLRarchivio di modelli di classificazione delle immagini | Componente del modello che contiene esempi di modelli di classificazione delle immagini ResNet -50 come artefatti Greengrass. | Generico | Linux, Windows | No |
DLRarchivio di modelli di rilevamento di oggetti | Componente del modello che contiene modelli di rilevamento di YOLOv3 oggetti di esempio come artefatti Greengrass. | Generico | Linux, Windows | No |
Runtime DLR | Componente di runtime che contiene uno script di installazione utilizzato per l'installazione DLR e le sue dipendenze sul dispositivo principale Greengrass. | Generico | Linux, Windows | No |
TensorFlow Classificazione delle immagini Lite | Componente di inferenza che utilizza l' TensorFlow archivio del modello di classificazione delle immagini TensorFlow Lite e il componente runtime Lite come dipendenze per installare TensorFlow Lite, scaricare modelli di classificazione delle immagini di esempio ed eseguire inferenze di classificazione delle immagini sui dispositivi supportati. | Generico | Linux, Windows | No |
TensorFlow Rilevamento di oggetti Lite | Componente di inferenza che utilizza l'archivio del modello di rilevamento degli oggetti TensorFlow Lite e il componente runtime TensorFlow Lite come dipendenze per installare TensorFlow Lite, scaricare modelli di rilevamento di oggetti di esempio ed eseguire inferenze per il rilevamento degli oggetti sui dispositivi supportati. | Generico | Linux, Windows | No |
TensorFlow Archivio di modelli di classificazione delle immagini Lite | Componente del modello che contiene un modello MobileNet v1 di esempio come artefatto Greengrass. | Generico | Linux, Windows | No |
TensorFlow Archivio di modelli Lite per il rilevamento di oggetti | Componente del modello che contiene un MobileNet modello Single Shot Detection (SSD) di esempio come artefatto Greengrass. | Generico | Linux, Windows | No |
TensorFlow Runtime Lite | Componente di runtime che contiene uno script di installazione utilizzato per installare TensorFlow Lite e le sue dipendenze sul dispositivo principale Greengrass. | Generico | Linux, Windows | No |