AWS IoT Greengrass Version 1 è entrato nella fase di estensione della vita utile il 30 giugno 2023. Per ulteriori informazioni, consulta la politica AWS IoT Greengrass V1 di manutenzione. Dopo questa data, AWS IoT Greengrass V1 non rilascerà aggiornamenti che forniscano funzionalità, miglioramenti, correzioni di bug o patch di sicurezza. I dispositivi che funzionano AWS IoT Greengrass V1 non subiranno interruzioni e continueranno a funzionare e a connettersi al cloud. Ti consigliamo vivamente di eseguire la migrazione a AWS IoT Greengrass Version 2, che aggiunge nuove importanti funzionalità e supporto per piattaforme aggiuntive.
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Connettore ML Image Classification
Questo connettore è entrato nella fase di vita prolungata e AWS IoT Greengrass non rilascerà aggiornamenti che forniscano funzionalità, miglioramenti alle funzionalità esistenti, patch di sicurezza o correzioni di bug. Per ulteriori informazioni, consulta AWS IoT Greengrass Version 1politica di manutenzione.
I connettori ML Image Classification forniscono un servizio di inferenza di machine learning (ML) che viene eseguito sul core. AWS IoT Greengrass Questo servizio di inferenza locale esegue la classificazione delle immagini utilizzando un modello addestrato dall'algoritmo di classificazione delle SageMaker immagini.
Le funzioni Lambda definite dall'utente utilizzano il Machine AWS IoT Greengrass Learning SDK per inviare richieste di inferenza al servizio di inferenza locale. Il servizio esegue l'inferenza in locale e restituisce le probabilità che l'immagine di input appartenga a categorie specifiche.
AWS IoT Greengrass fornisce le seguenti versioni di questo connettore, disponibile per più piattaforme.
- Version 2
-
Connector |
Descrizione e ARN |
Classificazione delle immagini ML Aarch64 JTX2 |
Servizio di inferenza di classificazione delle immagini per NVIDIA Jetson TX2. Supporta l'accelerazione GPU.
ARN: arn:aws:greengrass:region ::/connectors/ImageClassificationAarch64JTX2/versions/2 |
Classificazione delle immagini ML x86_64 |
Servizio di inferenza di classificazione delle immagini per le piattaforme x86_64.
ARN: arn:aws:greengrass:region ::/connectors/ImageClassificationx86-64/versions/2 |
Classificazione delle immagini ML ARMv7 |
Servizio di inferenza di classificazione delle immagini per le piattaforme ARMv7.
ARN: arn:aws:greengrass:region ::/connectors/ImageClassificationARMv7/versions/2 |
- Version 1
-
Connector |
Descrizione e ARN |
Classificazione delle immagini ML Aarch64 JTX2 |
Servizio di inferenza di classificazione delle immagini per NVIDIA Jetson TX2. Supporta l'accelerazione GPU.
ARN: arn:aws:greengrass:region ::/connectors/ImageClassificationAarch64JTX2/versions/1 |
Classificazione delle immagini ML x86_64 |
Servizio di inferenza di classificazione delle immagini per le piattaforme x86_64.
ARN: arn:aws:greengrass:region ::/connectors/ImageClassificationx86-64/versions/1 |
Classificazione delle immagini ML Armv7 |
Servizio di inferenza di classificazione delle immagini per le piattaforme Armv7.
ARN: arn:aws:greengrass:region ::/connectors/ImageClassificationARMv7/versions/1 |
Per informazioni sulle modifiche di ogni versione, consulta Changelog.
Requisiti
Questi connettori presentano i seguenti requisiti:
- Version 2
-
-
AWS IoT GreengrassCore Software v1.9.3 o versione successiva.
-
Python versione 3.7 o 3.8 installata sul dispositivo principale e aggiunta alla variabile di ambiente PATH.
Per usare Python 3.8, esegui il seguente comando per creare un collegamento simbolico dalla cartella di installazione predefinita di Python 3.7 ai binari Python 3.8 installati.
sudo ln -s path-to-python-3.8
/python3.8 /usr/bin/python3.7
Questo configura il dispositivo in modo che soddisfi il requisito Python per AWS IoT Greengrass.
-
Dipendenze per il framework Apache MXNet installato sul dispositivo core. Per ulteriori informazioni, consulta Installazione delle dipendenze MXNet in AWS IoT Greengrass Core.
-
Una risorsa ML nel gruppo Greengrass che fa riferimento a una fonte SageMaker del modello. Questo modello deve essere addestrato dall'algoritmo di classificazione delle SageMaker immagini. Per ulteriori informazioni, consulta Algoritmo di classificazione delle immagini nella Amazon SageMaker Developer Guide.
-
Il connettore ML Feedback aggiunto al gruppo Greengrass e configurato. Questo è obbligatorio solo se desideri utilizzare il connettore per caricare i dati di input del modello e pubblicare le previsioni in un argomento MQTT.
-
Il ruolo del gruppo Greengrass è configurato per consentire l'sagemaker:DescribeTrainingJob
azione sul lavoro di formazione target, come mostrato nel seguente esempio di politica IAM.
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"sagemaker:DescribeTrainingJob"
],
"Resource": "arn:aws:sagemaker:region
:account-id
:training-job:training-job-name
"
}
]
}
Per il requisito del ruolo di gruppo, è necessario configurare il ruolo in modo da concedere le autorizzazioni necessarie e assicurarsi che il ruolo sia stato aggiunto al gruppo. Per ulteriori informazioni, consultare Gestione del ruolo del gruppo Greengrass (console) o Gestione del ruolo del gruppo Greengrass (CLI).
Puoi concedere alle risorse un accesso granulare o condizionale (ad esempio, utilizzando uno schema di denominazione con il carattere jolly *). Se in futuro cambierai il tipo di formazione desiderato, assicurati di aggiornare il ruolo del gruppo.
-
AWS IoT GreengrassPer interagire con questo connettore è necessario Machine Learning SDK v1.1.0.
- Version 1
-
-
AWS IoT GreengrassCore Software v1.7 o versione successiva.
-
Python versione 2.7 installato sul dispositivo principale e aggiunto alla variabile di ambiente PATH.
-
Dipendenze per il framework Apache MXNet installato sul dispositivo core. Per ulteriori informazioni, consulta Installazione delle dipendenze MXNet in AWS IoT Greengrass Core.
-
Una risorsa ML nel gruppo Greengrass che fa riferimento a una fonte SageMaker del modello. Questo modello deve essere addestrato dall'algoritmo di classificazione delle SageMaker immagini. Per ulteriori informazioni, consulta Algoritmo di classificazione delle immagini nella Amazon SageMaker Developer Guide.
-
Il ruolo del gruppo Greengrass è configurato per consentire l'sagemaker:DescribeTrainingJob
azione sul lavoro di formazione target, come mostrato nel seguente esempio di politica IAM.
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"sagemaker:DescribeTrainingJob"
],
"Resource": "arn:aws:sagemaker:region
:account-id
:training-job:training-job-name
"
}
]
}
Per il requisito del ruolo di gruppo, è necessario configurare il ruolo in modo da concedere le autorizzazioni necessarie e assicurarsi che il ruolo sia stato aggiunto al gruppo. Per ulteriori informazioni, consultare Gestione del ruolo del gruppo Greengrass (console) o Gestione del ruolo del gruppo Greengrass (CLI).
Puoi concedere alle risorse un accesso granulare o condizionale (ad esempio, utilizzando uno schema di denominazione con il carattere jolly *). Se in futuro cambierai il tipo di formazione desiderato, assicurati di aggiornare il ruolo del gruppo.
-
AWS IoT GreengrassPer interagire con questo connettore è necessario Machine Learning SDK v1.0.0 o versione successiva.
Parametri del connettore
Questi connettori forniscono i seguenti parametri.
- Version 2
-
MLModelDestinationPath
-
Il percorso locale assoluto della risorsa ML all'interno dell'ambiente Lambda. Si tratta del percorso di destinazione specificato per la risorsa ML.
Se hai creato la risorsa ML nella console, si tratta del percorso locale.
Nome visualizzato nella AWS IoT console: percorso di destinazione del modello
Obbligatorio: true
Tipo: string
Modello valido: .+
MLModelResourceId
-
L'ID della risorsa ML che fa riferimento al modello di origine.
Nome visualizzato nella AWS IoT console: risorsa SageMaker ARN del lavoro
Obbligatorio: true
Tipo: string
Modello valido: [a-zA-Z0-9:_-]+
MLModelSageMakerJobArn
-
L'ARN del processo di SageMaker formazione che rappresenta l'origine del SageMaker modello. Il modello deve essere addestrato dall'algoritmo di classificazione delle SageMaker immagini.
Nome visualizzato nella AWS IoT console: SageMaker job ARN
Richiesto: true
Tipo: string
Modello valido: ^arn:aws:sagemaker:[a-zA-Z0-9-]+:[0-9]+:training-job/[a-zA-Z0-9][a-zA-Z0-9-]+$
LocalInferenceServiceName
-
Il nome del servizio di inferenza locale. Le funzioni Lambda definite dall'utente richiamano il servizio passando il nome alla funzione invoke_inference_service
del Machine AWS IoT Greengrass Learning SDK. Per un esempio, consulta Esempio di utilizzo.
Nome visualizzato nella AWS IoT console: nome del servizio di inferenza locale
Obbligatorio: true
Tipo: string
Modello valido: [a-zA-Z0-9][a-zA-Z0-9-]{1,62}
LocalInferenceServiceTimeoutSeconds
-
L'intervallo di tempo (in secondi) prima che la richiesta di inferenza venga terminata. Il valore minimo è 1.
Nome visualizzato nella AWS IoT console: Timeout (secondo)
Richiesto: true
Tipo: string
Modello valido: [1-9][0-9]*
LocalInferenceServiceMemoryLimitKB
-
La quantità di memoria (in KB) a cui ha accesso il servizio. Il valore minimo è 1.
Nome visualizzato nella AWS IoT console: limite di memoria (KB)
Richiesto: true
Tipo: string
Modello valido: [1-9][0-9]*
GPUAcceleration
-
Il contesto di calcolo della CPU o GPU (accelerata). Questa proprietà si applica solo al connettore ML Image Classification Aarch64 JTX2.
Nome visualizzato nella console: accelerazione GPU AWS IoT
Richiesto: true
Tipo: string
Valori validi: CPU
o GPU
MLFeedbackConnectorConfigId
-
L'ID della configurazione di feedback da utilizzare per caricare i dati di input del modello. Deve corrispondere all'ID di una configurazione di feedback definita per il connettore ML Feedback.
Questo parametro è obbligatorio solo se desideri utilizzare il connettore ML Feedback per caricare i dati di input del modello e pubblicare le previsioni in un argomento MQTT.
Nome visualizzato nella AWS IoT console: ID di configurazione del connettore ML Feedback
Obbligatorio: false
Tipo: string
Modello valido: ^$|^[a-zA-Z0-9][a-zA-Z0-9-]{1,62}$
- Version 1
-
MLModelDestinationPath
-
Il percorso locale assoluto della risorsa ML all'interno dell'ambiente Lambda. Si tratta del percorso di destinazione specificato per la risorsa ML.
Se hai creato la risorsa ML nella console, si tratta del percorso locale.
Nome visualizzato nella AWS IoT console: percorso di destinazione del modello
Obbligatorio: true
Tipo: string
Modello valido: .+
MLModelResourceId
-
L'ID della risorsa ML che fa riferimento al modello di origine.
Nome visualizzato nella AWS IoT console: risorsa SageMaker ARN del lavoro
Obbligatorio: true
Tipo: string
Modello valido: [a-zA-Z0-9:_-]+
MLModelSageMakerJobArn
-
L'ARN del processo di SageMaker formazione che rappresenta l'origine del SageMaker modello. Il modello deve essere addestrato dall'algoritmo di classificazione delle SageMaker immagini.
Nome visualizzato nella AWS IoT console: SageMaker job ARN
Richiesto: true
Tipo: string
Modello valido: ^arn:aws:sagemaker:[a-zA-Z0-9-]+:[0-9]+:training-job/[a-zA-Z0-9][a-zA-Z0-9-]+$
LocalInferenceServiceName
-
Il nome del servizio di inferenza locale. Le funzioni Lambda definite dall'utente richiamano il servizio passando il nome alla funzione invoke_inference_service
del Machine AWS IoT Greengrass Learning SDK. Per un esempio, consulta Esempio di utilizzo.
Nome visualizzato nella AWS IoT console: nome del servizio di inferenza locale
Obbligatorio: true
Tipo: string
Modello valido: [a-zA-Z0-9][a-zA-Z0-9-]{1,62}
LocalInferenceServiceTimeoutSeconds
-
L'intervallo di tempo (in secondi) prima che la richiesta di inferenza venga terminata. Il valore minimo è 1.
Nome visualizzato nella AWS IoT console: Timeout (secondo)
Richiesto: true
Tipo: string
Modello valido: [1-9][0-9]*
LocalInferenceServiceMemoryLimitKB
-
La quantità di memoria (in KB) a cui ha accesso il servizio. Il valore minimo è 1.
Nome visualizzato nella AWS IoT console: limite di memoria (KB)
Richiesto: true
Tipo: string
Modello valido: [1-9][0-9]*
GPUAcceleration
-
Il contesto di calcolo della CPU o GPU (accelerata). Questa proprietà si applica solo al connettore ML Image Classification Aarch64 JTX2.
Nome visualizzato nella console: accelerazione GPU AWS IoT
Richiesto: true
Tipo: string
Valori validi: CPU
o GPU
Esempio di creazione di un connettore (AWS CLI)
I seguenti comandi CLI creano una ConnectorDefinition
versione iniziale che contiene un connettore ML Image Classification.
- Esempio: istanza CPU
-
Questo esempio crea un'istanza del connettore ML Image Classification ARMv7l.
aws greengrass create-connector-definition --name MyGreengrassConnectors --initial-version '{
"Connectors": [
{
"Id": "MyImageClassificationConnector",
"ConnectorArn": "arn:aws:greengrass:region
::/connectors/ImageClassificationARMv7/versions/2",
"Parameters": {
"MLModelDestinationPath": "/path-to-model",
"MLModelResourceId": "my-ml-resource",
"MLModelSageMakerJobArn": "arn:aws:sagemaker:us-west-2:123456789012:training-job:MyImageClassifier",
"LocalInferenceServiceName": "imageClassification",
"LocalInferenceServiceTimeoutSeconds": "10",
"LocalInferenceServiceMemoryLimitKB": "500000",
"MLFeedbackConnectorConfigId": "MyConfig0"
}
}
]
}'
- Esempio: istanza GPU
-
Questo esempio crea un'istanza del connettore ML Image Classification Aarch64 JTX2, che supporta l'accelerazione GPU su una scheda NVIDIA Jetson TX2.
aws greengrass create-connector-definition --name MyGreengrassConnectors --initial-version '{
"Connectors": [
{
"Id": "MyImageClassificationConnector",
"ConnectorArn": "arn:aws:greengrass:region
::/connectors/ImageClassificationAarch64JTX2/versions/2",
"Parameters": {
"MLModelDestinationPath": "/path-to-model",
"MLModelResourceId": "my-ml-resource",
"MLModelSageMakerJobArn": "arn:aws:sagemaker:us-west-2:123456789012:training-job:MyImageClassifier",
"LocalInferenceServiceName": "imageClassification",
"LocalInferenceServiceTimeoutSeconds": "10",
"LocalInferenceServiceMemoryLimitKB": "500000",
"GPUAcceleration": "GPU",
"MLFeedbackConnectorConfigId": "MyConfig0"
}
}
]
}'
La funzione Lambda di questi connettori ha un ciclo di vita prolungato.
Nella AWS IoT Greengrass console, puoi aggiungere un connettore dalla pagina Connettori del gruppo. Per ulteriori informazioni, consulta Nozioni di base sui connettori Greengrass (console).
Questi connettori accettano un file di immagine come input. I file di immagine di input devono essere in formato png
o jpeg
. Per ulteriori informazioni, consulta Esempio di utilizzo.
Questi connettori non accettano messaggi MQTT come dati di input.
Dati di output
Questi connettori restituiscono una previsione formattata per l'oggetto identificato nell'immagine di input:
[0.3,0.1,0.04,...]
La previsione contiene un elenco di valori che corrispondono alle categorie utilizzate nel set di dati di training durante il training del modello. Ogni valore rappresenta la probabilità che l'immagine rientri nella categoria corrispondente. La categoria con la probabilità più alta è la previsione dominante.
Questi connettori non pubblicano messaggi MQTT come dati di output.
Esempio di utilizzo
L'esempio seguente della funzione Lambda utilizza il AWS IoT GreengrassMachine Learning SDK per interagire con un connettore ML Image Classification.
In questo esempio viene inizializzato un client SDK e viene chiamata in modo sincrono la funzione invoke_inference_service
di SDK per richiamare il servizio di inferenza locale. Trasferisce il tipo di algoritmo, il nome del servizio, il tipo di immagine e il contenuto dell'immagine. Quindi, l'esempio analizza la risposta del servizio per ottenere i risultati di probabilità (previsioni).
- Python 3.7
-
import logging
from threading import Timer
import numpy as np
import greengrass_machine_learning_sdk as ml
# We assume the inference input image is provided as a local file
# to this inference client Lambda function.
with open('/test_img/test.jpg', 'rb') as f:
content = bytearray(f.read())
client = ml.client('inference')
def infer():
logging.info('invoking Greengrass ML Inference service')
try:
resp = client.invoke_inference_service(
AlgoType='image-classification',
ServiceName='imageClassification',
ContentType='image/jpeg',
Body=content
)
except ml.GreengrassInferenceException as e:
logging.info('inference exception {}("{}")'.format(e.__class__.__name__, e))
return
except ml.GreengrassDependencyException as e:
logging.info('dependency exception {}("{}")'.format(e.__class__.__name__, e))
return
logging.info('resp: {}'.format(resp))
predictions = resp['Body'].read().decode("utf-8")
logging.info('predictions: {}'.format(predictions))
# The connector output is in the format: [0.3,0.1,0.04,...]
# Remove the '[' and ']' at the beginning and end.
predictions = predictions[1:-1]
count = len(predictions.split(','))
predictions_arr = np.fromstring(predictions, count=count, sep=',')
# Perform business logic that relies on the predictions_arr, which is an array
# of probabilities.
# Schedule the infer() function to run again in one second.
Timer(1, infer).start()
return
infer()
def function_handler(event, context):
return
- Python 2.7
-
import logging
from threading import Timer
import numpy
import greengrass_machine_learning_sdk as gg_ml
# The inference input image.
with open("/test_img/test.jpg", "rb") as f:
content = f.read()
client = gg_ml.client("inference")
def infer():
logging.info("Invoking Greengrass ML Inference service")
try:
resp = client.invoke_inference_service(
AlgoType="image-classification",
ServiceName="imageClassification",
ContentType="image/jpeg",
Body=content,
)
except gg_ml.GreengrassInferenceException as e:
logging.info('Inference exception %s("%s")', e.__class__.__name__, e)
return
except gg_ml.GreengrassDependencyException as e:
logging.info('Dependency exception %s("%s")', e.__class__.__name__, e)
return
logging.info("Response: %s", resp)
predictions = resp["Body"].read()
logging.info("Predictions: %s", predictions)
# The connector output is in the format: [0.3,0.1,0.04,...]
# Remove the '[' and ']' at the beginning and end.
predictions = predictions[1:-1]
predictions_arr = numpy.fromstring(predictions, sep=",")
logging.info("Split into %s predictions.", len(predictions_arr))
# Perform business logic that relies on predictions_arr, which is an array
# of probabilities.
# Schedule the infer() function to run again in one second.
Timer(1, infer).start()
infer()
# In this example, the required AWS Lambda handler is never called.
def function_handler(event, context):
return
La invoke_inference_service
funzione nel AWS IoT Greengrass Machine Learning SDK accetta i seguenti argomenti.
Argomento |
Descrizione |
AlgoType
|
Il nome del tipo di algoritmo da utilizzare per l'inferenza. Attualmente è supportato solo image-classification .
Obbligatorio: true
Tipo: string
Valori validi: image-classification |
ServiceName
|
Il nome del servizio di inferenza locale. Utilizza il nome specificato per il parametro LocalInferenceServiceName al momento della configurazione del connettore.
Richiesto: true
Tipo: string |
ContentType
|
Il tipo mime dell'immagine di input.
Richiesto: true
Tipo: string
Valori validi: image/jpeg, image/png |
Body
|
Il contenuto del file immagine di input.
Richiesto: true
Tipo: binary |
Installazione delle dipendenze MXNet in AWS IoT Greengrass Core
Per utilizzare un connettore ML Image Classification, è necessario installare le dipendenze per il framework Apache MXNet sul dispositivo principale. I connettori utilizzano il framework per servire il modello ML.
Questi connettori sono forniti di una libreria MXNet precompilata, perciò non è necessario installare il framework MXNet sul dispositivo core.
AWS IoT Greengrass fornisce script per installare le dipendenze per le seguenti piattaforme e dispositivi comuni (o da utilizzare come riferimento per l'installazione). Se utilizzi una piattaforma o un dispositivo diverso, consulta la documentazione MXNet per la configurazione.
Prima di installare le dipendenze MXNet, assicurati che le librerie di sistema richieste (nelle versioni minime specificate) siano presenti sul dispositivo.
- NVIDIA Jetson TX2
-
-
Installa CUDA Toolkit 9.0 e cuDNN 7.0. Puoi seguire le istruzioni di Configurazione di altri dispositivi nel tutorial Nozioni di base.
-
Abilita i repository universali in modo che il connettore sia in grado di installare l'open software gestito dalla community. Per ulteriori informazioni, consulta Repository/Ubuntu nella documentazione Ubuntu.
-
Apri il file /etc/apt/sources.list
.
-
Assicurati che le seguenti righe non presentino commenti.
deb http://ports.ubuntu.com/ubuntu-ports/ xenial universe
deb-src http://ports.ubuntu.com/ubuntu-ports/ xenial universe
deb http://ports.ubuntu.com/ubuntu-ports/ xenial-updates universe
deb-src http://ports.ubuntu.com/ubuntu-ports/ xenial-updates universe
-
Salva una copia del seguente script di installazione nel file nvidiajtx2.sh
del dispositivo core.
Python 3.7Python 2.7
- Python 3.7
#!/bin/bash
set -e
echo "Installing dependencies on the system..."
echo 'Assuming that universe repos are enabled and checking dependencies...'
apt-get -y update
apt-get -y dist-upgrade
apt-get install -y liblapack3 libopenblas-dev liblapack-dev libatlas-base-dev
apt-get install -y python3.7 python3.7-dev
python3.7 -m pip install --upgrade pip
python3.7 -m pip install numpy==1.15.0
python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
echo 'Dependency installation/upgrade complete.'
Se OpenCV non viene installato correttamente utilizzando questo script, puoi provare a compilare dall'origine. Per ulteriori informazioni, consulta Installazione in Linux nella documentazione di OpenCV o fai riferimento ad altre risorse online per la tua piattaforma.
- Python 2.7
#!/bin/bash
set -e
echo "Installing dependencies on the system..."
echo 'Assuming that universe repos are enabled and checking dependencies...'
apt-get -y update
apt-get -y dist-upgrade
apt-get install -y liblapack3 libopenblas-dev liblapack-dev libatlas-base-dev python-dev
echo 'Install latest pip...'
wget https://bootstrap.pypa.io/get-pip.py
python get-pip.py
rm get-pip.py
pip install numpy==1.15.0 scipy
echo 'Dependency installation/upgrade complete.'
-
Dalla directory in cui avete salvato il file, eseguite il seguente comando:
sudo nvidiajtx2.sh
- x86_64 (Ubuntu or Amazon Linux)
-
-
Salva una copia del seguente script di installazione nel file x86_64.sh
del dispositivo core.
Python 3.7Python 2.7
- Python 3.7
#!/bin/bash
set -e
echo "Installing dependencies on the system..."
release=$(awk -F= '/^NAME/{print $2}' /etc/os-release)
if [ "$release" == '"Ubuntu"' ]; then
# Ubuntu. Supports EC2 and DeepLens. DeepLens has all the dependencies installed, so
# this is mostly to prepare dependencies on Ubuntu EC2 instance.
apt-get -y update
apt-get -y dist-upgrade
apt-get install -y libgfortran3 libsm6 libxext6 libxrender1
apt-get install -y python3.7 python3.7-dev
elif [ "$release" == '"Amazon Linux"' ]; then
# Amazon Linux. Expect python to be installed already
yum -y update
yum -y upgrade
yum install -y compat-gcc-48-libgfortran libSM libXrender libXext
else
echo "OS Release not supported: $release"
exit 1
fi
python3.7 -m pip install --upgrade pip
python3.7 -m pip install numpy==1.15.0
python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
echo 'Dependency installation/upgrade complete.'
Se OpenCV non viene installato correttamente utilizzando questo script, puoi provare a compilare dall'origine. Per ulteriori informazioni, consulta Installazione in Linux nella documentazione di OpenCV o fai riferimento ad altre risorse online per la tua piattaforma.
- Python 2.7
#!/bin/bash
set -e
echo "Installing dependencies on the system..."
release=$(awk -F= '/^NAME/{print $2}' /etc/os-release)
if [ "$release" == '"Ubuntu"' ]; then
# Ubuntu. Supports EC2 and DeepLens. DeepLens has all the dependencies installed, so
# this is mostly to prepare dependencies on Ubuntu EC2 instance.
apt-get -y update
apt-get -y dist-upgrade
apt-get install -y libgfortran3 libsm6 libxext6 libxrender1 python-dev python-pip
elif [ "$release" == '"Amazon Linux"' ]; then
# Amazon Linux. Expect python to be installed already
yum -y update
yum -y upgrade
yum install -y compat-gcc-48-libgfortran libSM libXrender libXext python-pip
else
echo "OS Release not supported: $release"
exit 1
fi
pip install numpy==1.15.0 scipy opencv-python
echo 'Dependency installation/upgrade complete.'
-
Dalla directory in cui hai salvato il file, esegui il comando seguente:
sudo x86_64.sh
- Armv7 (Raspberry Pi)
-
-
Salva una copia del seguente script di installazione nel file armv7l.sh
del dispositivo core.
Python 3.7Python 2.7
- Python 3.7
#!/bin/bash
set -e
echo "Installing dependencies on the system..."
apt-get update
apt-get -y upgrade
apt-get install -y liblapack3 libopenblas-dev liblapack-dev
apt-get install -y python3.7 python3.7-dev
python3.7 -m pip install --upgrade pip
python3.7 -m pip install numpy==1.15.0
python3.7 -m pip install opencv-python || echo 'Error: Unable to install OpenCV with pip on this platform. Try building the latest OpenCV from source (https://github.com/opencv/opencv).'
echo 'Dependency installation/upgrade complete.'
Se OpenCV non viene installato correttamente utilizzando questo script, puoi provare a compilare dall'origine. Per ulteriori informazioni, consulta Installazione in Linux nella documentazione di OpenCV o fai riferimento ad altre risorse online per la tua piattaforma.
- Python 2.7
#!/bin/bash
set -e
echo "Installing dependencies on the system..."
apt-get update
apt-get -y upgrade
apt-get install -y liblapack3 libopenblas-dev liblapack-dev python-dev
# python-opencv depends on python-numpy. The latest version in the APT repository is python-numpy-1.8.2
# This script installs python-numpy first so that python-opencv can be installed, and then install the latest
# numpy-1.15.x with pip
apt-get install -y python-numpy python-opencv
dpkg --remove --force-depends python-numpy
echo 'Install latest pip...'
wget https://bootstrap.pypa.io/get-pip.py
python get-pip.py
rm get-pip.py
pip install --upgrade numpy==1.15.0 picamera scipy
echo 'Dependency installation/upgrade complete.'
-
Dalla directory in cui hai salvato il file, esegui il comando seguente:
sudo bash armv7l.sh
Su un Raspberry Pi, l'utilizzo di pip
per installare dipendenze di machine learning è un'operazione con elevati requisiti di memoria che può esaurire la memoria del dispositivo e causarne il blocco. Per risolvere il problema, è possibile aumentare temporaneamente la dimensione di swap:
In /etc/dphys-swapfile
, aumenta il valore della variabile CONF_SWAPSIZE
e quindi esegui il comando seguente per riavviare dphys-swapfile
.
/etc/init.d/dphys-swapfile restart
Registrazione e risoluzione dei problemi
A seconda delle impostazioni del gruppo, i registri degli eventi e degli errori vengono scritti CloudWatch nei registri, nel file system locale o in entrambi. I log di questo connettore utilizzano il prefisso LocalInferenceServiceName
. Se il connettore si comporta inaspettatamente, controlla i log del connettore. Questi di solito contengono utili informazioni di debug, ad esempio una dipendenza della libreria ML mancante o la causa di un errore di avvio del connettore.
Se il AWS IoT Greengrass gruppo è configurato per scrivere registri locali, il connettore scrive i file di registro su. greengrass-root
/ggc/var/log/user/region
/aws/
Per ulteriori informazioni sulla registrazione di Greengrass, vedere. Monitoraggio con i log AWS IoT Greengrass
Utilizzate le seguenti informazioni per risolvere i problemi relativi ai connettori ML Image Classification.
Librerie di sistema richieste
Le schede seguenti elencano le librerie di sistema richieste per ogni connettore ML Image Classification.
- ML Image Classification Aarch64 JTX2
-
Libreria |
Versione minima |
ld-linux-aarch64.so.1 | GLIBC_2.17 |
libc.so.6 | GLIBC_2.17 |
libcublas.so.9.0 | non applicabile |
libcudart.so.9.0 | non applicabile |
libcudnn.so.7 | non applicabile |
libcufft.so.9.0 | non applicabile |
libcurand.so.9.0 | non applicabile |
libcusolver.so.9.0 | non applicabile |
libgcc_s.so.1 | GCC_4.2.0 |
libgomp.so.1 | GOMP_4.0, OMP_1.0 |
libm.so.6 | GLIBC_2.23 |
libpthread.so.0 | GLIBC_2.17 |
librt.so.1 | GLIBC_2.17 |
libstdc++.so.6 | GLIBCXX_3.4.21, CXXABI_1.3.8 |
- ML Image Classification x86_64
-
Libreria |
Versione minima |
ld-linux-x86-64.so.2 | GCC_4.0.0 |
libc.so.6 | GLIBC_2.4 |
libgfortran.so.3 | GFORTRAN_1.0 |
libm.so.6 | GLIBC_2.23 |
libpthread.so.0 | GLIBC_2.2.5 |
librt.so.1 | GLIBC_2.2.5 |
libstdc++.so.6 | CXXABI_1.3.8, GLIBCXX_3.4.21 |
- ML Image Classification Armv7
-
Libreria |
Versione minima |
ld-linux-armhf.so.3 | GLIBC_2.4 |
libc.so.6 | GLIBC_2.7 |
libgcc_s.so.1 | GCC_4.0.0 |
libgfortran.so.3 | GFORTRAN_1.0 |
libm.so.6 | GLIBC_2.4 |
libpthread.so.0 | GLIBC_2.4 |
librt.so.1 | GLIBC_2.4 |
libstdc++.so.6 | CXXABI_1.3.8, CXXABI_ARM_1.3.3, GLIBCXX_3.4.20 |
Problemi
Sintomo |
Soluzione |
In un Raspberry Pi, il seguente messaggio di errore viene registrato e non si sta utilizzando la fotocamera: Failed to initialize libdc1394
|
Per disabilitare il driver, esegui il seguente comando:
sudo ln /dev/null /dev/raw1394
Questa operazione è effimera e il collegamento simbolico scompare dopo il riavvio. Consulta il manuale di distribuzione del sistema operativo per ulteriori informazioni su come creare automaticamente il link al riavvio.
|
Licenze
I connettori ML Image Classification includono i seguenti software/licenze di terze parti:
Libreria di licenze di Intel OpenMP Runtime. Il runtime Intel® OpenMP* è dotato di doppia licenza, con una licenza commerciale (COM) come parte dei prodotti Intel® Parallel Studio XE Suite e una licenza open source BSD (OSS).
Questo connettore è rilasciato ai sensi del contratto di licenza del software Greengrass Core.
Changelog
La tabella seguente descrive le modifiche apportate a ciascuna versione del connettore.
Versione |
Modifiche |
2 |
È stato aggiunto il MLFeedbackConnectorConfigId parametro per supportare l'uso del connettore ML Feedback per caricare i dati di input del modello, pubblicare previsioni su un argomento MQTT e pubblicare metriche su Amazon. CloudWatch
|
1 |
Versione iniziale.
|
Un gruppo Greengrass può contenere una sola versione del connettore alla volta. Per informazioni sull'aggiornamento di una versione del connettore, consulta Aggiornamento delle versioni dei connettori.
Consulta anche