As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Configurar o dispositivo
Você precisará instalar pacotes em seu dispositivo de borda para que ele possa fazer inferências. Você também precisará instalar o AWS IoT Greengrass core ou o Aprendizado Profundo Runtime (DLR)coco_ssd_mobilenet
e usará o DLR.
-
Instale pacotes adicionais
Além do Boto3, você deve instalar determinadas bibliotecas em seu dispositivo de borda. As bibliotecas instaladas dependem do seu caso de uso.
Por exemplo, para o algoritmo de detecção de
coco_ssd_mobilenet
objetos que você baixou anteriormente, você precisa instalar NumPypara manipulação de dados e estatísticas, o PIL para carregar imagens e o Matplotlib para gerar gráficos. Você também precisa de uma cópia do TensorFlow se quiser avaliar o impacto da compilação com o Neo versus uma linha de base. !pip3 install numpy pillow tensorflow matplotlib
-
Instale o mecanismo de inferência em seu dispositivo
Para executar seu modelo compilado pelo NEO, instale o Aprendizado Profundo Runtime (DLR)
em seu dispositivo. O DLR é um runtime compacto e comum para modelos de aprendizado profundo e modelos de árvore de decisão. Em destinos de CPU x86_64 executando Linux, você pode instalar a versão mais recente do pacote DLR usando o seguinte comando pip
:!pip install dlr
Para instalação do DLR em destinos de GPU ou dispositivos de borda que não sejam x86, consulte Versões
para binários pré-criados ou Instalação do DLR para criar DLR a partir da fonte. Por exemplo, para instalar o DLR para o Raspberry Pi 3, você pode usar: !pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl