Haga inferencias en su dispositivo - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Haga inferencias en su dispositivo

En este ejemplo, utilizará Boto3 para descargar el resultado de su trabajo de compilación en su dispositivo periférico. A continuaciónDLR, importará, descargará un ejemplo de imágenes del conjunto de datos, cambiará el tamaño de esta imagen para que coincida con la entrada original del modelo y, a continuación, realizará una predicción.

  1. Descargue el modelo compilado de Amazon S3 a su dispositivo y extráigalo del archivo tar comprimido.

    # Download compiled model locally to edge device object_path = f'output/{model_name}-{target_device}.tar.gz' neo_compiled_model = f'compiled-{model_name}.tar.gz' s3_client.download_file(bucket_name, object_path, neo_compiled_model) # Extract model from .tar.gz so DLR can use it !mkdir ./dlr_model # make a directory to store your model (optional) !tar -xzvf ./compiled-detect.tar.gz --directory ./dlr_model
  2. Importación DLR y un objeto inicializado. DLRModel

    import dlr device = 'cpu' model = dlr.DLRModel('./dlr_model', device)
  3. Descargue una imagen para inferirla y formatéela en función de cómo se formó su modelo.

    En el coco_ssd_mobilenet ejemplo, puedes descargar una imagen del COCOconjunto de datos y, a continuación, reformarla para300x300:

    from PIL import Image # Download an image for model to make a prediction input_image_filename = './input_image.jpg' !curl https://farm9.staticflickr.com/8325/8077197378_79efb4805e_z.jpg --output {input_image_filename} # Format image so model can make predictions resized_image = image.resize((300, 300)) # Model is quantized, so convert the image to uint8 x = np.array(resized_image).astype('uint8')
  4. Se usa DLR para hacer inferencias.

    Por último, puedes usar DLR para hacer una predicción sobre la imagen que acabas de descargar:

    out = model.run(x)

Para ver más ejemplos de cómo hacer inferencias DLR a partir de un modelo compilado en NEO en un dispositivo periférico, consulta el neo-ai-dlr repositorio de Github.