Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Configure el dispositivo
Deberá instalar los paquetes en su dispositivo periférico para que su dispositivo pueda hacer inferencias. También debe instalar el núcleo de IoT AWS Greengrass o Tiempo de ejecución de aprendizaje profundo (DLR)coco_ssd_mobilenet
y utilizará el DLR.
-
Instale paquetes adicionales
Además de Boto3, debe instalar determinadas bibliotecas en su dispositivo periférico. Las bibliotecas que vaya a instalar dependen de su caso de uso.
Por ejemplo, para el algoritmo de detección de
coco_ssd_mobilenet
objetos que descargó anteriormente, debe instalarlo NumPypara la manipulación de datos y las estadísticas, PIL para cargar imágenes y Matplotlib para generar gráficos. También necesitará una copia TensorFlow si quiere medir el impacto de compilar con Neo en comparación con una línea base. !pip3 install numpy pillow tensorflow matplotlib
-
Instalar un motor de inferencia en su dispositivo
Para ejecutar su modelo compilado en NEO, instale Tiempo de ejecución de aprendizaje profundo (DLR)
en su dispositivo. DLR es un tiempo de ejecución compacto y común para modelos de aprendizaje profundo y modelos de árboles de decisiones. En los destinos de CPU x86_64 que ejecutan Linux, puede instalar la última versión del paquete DLR mediante el siguiente comando pip
:!pip install dlr
Para instalar DLR en destinos de GPU o dispositivos periféricos que no sean x86, consulte Versiones
para ver los binarios prediseñados o Instalación de DLR para compilar DLR desde el origen. Por ejemplo, para instalar DLR para Raspberry Pi 3, puede usar: !pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl