Opciones de implementación de modelos en Amazon SageMaker - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Opciones de implementación de modelos en Amazon SageMaker

Después de entrenar tu modelo de aprendizaje automático, puedes implementarlo con Amazon SageMaker para obtener predicciones. Amazon SageMaker admite las siguientes formas de implementar un modelo, según el caso de uso:

SageMaker también proporciona funciones para administrar los recursos y optimizar el rendimiento de las inferencias al implementar modelos de aprendizaje automático:

  • Para gestionar los modelos en dispositivos periféricos de forma que pueda optimizar, proteger, supervisar y mantener los modelos de aprendizaje automático en flotas de dispositivos periféricos, consulte. Modele la implementación en la periferia con Edge Manager SageMaker Esto se aplica a los dispositivos periféricos, como cámaras inteligentes, robots, ordenadores personales y dispositivos móviles.

  • Para optimizar Gluon, Keras,,MXNet, PyTorch TensorFlow, TensorFlow -Lite y los ONNX modelos con fines de inferencia en máquinas Android, Linux y Windows basadas en procesadores de Ambarella, Intel, Nvidia, QualcommARM, Texas Instruments y NXP Xilinx, consulte. Optimización del rendimiento de los modelos con SageMaker Neo

Para obtener más información acerca de todas las opciones de implementación, consulte Implementar modelos para inferencia.