Modelli di distribuzione - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Modelli di distribuzione

Puoi distribuire il modulo di elaborazione su dispositivi edge con risorse limitate: scaricando il modello compilato da Amazon S3 sul tuo dispositivo e utilizzando DLR oppure puoi utilizzare AWS IoT Greengrass.

Prima di andare avanti, assicurati che il tuo dispositivo edge sia supportato da SageMaker Neo. Consulta Framework, dispositivi, sistemi e architetture supportati per scoprire quali dispositivi edge sono supportati. Assicurati di aver specificato il dispositivo edge di destinazione quando hai inviato il processo di compilazione, consulta Usare Neo per compilare un modello.

Implementazione di un modello compilato (DLR)

DLR è un runtime compatto e comune per modelli di deep learning e modelli di alberi decisionali. DLR utilizza il runtime TVM, il runtime Treelite, NVIDIA TensorRT™ e può includere altri runtime specifici dell'hardware. DLR fornisce API Python/C++ unificate per caricare ed eseguire modelli compilati su vari dispositivi.

Puoi installare l'ultima versione del pacchetto DLR utilizzando il seguente comando pip:

pip install dlr

Per l'installazione di DLR su destinazioni GPU o dispositivi edge non x86, consulta Rilasci per binari predefiniti o Installazione di DLR per creare DLR dall’origine. Ad esempio, per installare DLR per Raspberry Pi 3, puoi usare:

pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl

Implementazione di un modello (AWS IoT Greengrass)

AWS IoT Greengrass estende le funzionalità cloud ai dispositivi locali. Consente ai dispositivi di raccogliere e analizzare i dati più vicini all'origine delle informazioni, reagire autonomamente a eventi locali e comunicare in modo sicuro tra di loro sulle reti locali. Con AWS IoT Greengrass, puoi eseguire inferenze di machine learning all'edge su dati generati localmente utilizzando modelli addestrati sul cloud. Attualmente, puoi implementare modelli su tutti i dispositivi AWS IoT Greengrass basati su processori delle serie ARM Cortex-A, Intel Atom e Nvidia Jetson. Per ulteriori informazioni sulla distribuzione di un'applicazione di inferenza Lambda per eseguire inferenze di machine learning con AWS IoT Greengrass, vedi Come configurare l'inferenza ottimizzata per l'apprendimento automatico utilizzando la console di gestione. AWS