Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Opciones de implementación de modelos en Amazon SageMaker
Después de entrenar tu modelo de aprendizaje automático, puedes implementarlo con Amazon SageMaker para obtener predicciones. Amazon SageMaker admite las siguientes formas de implementar un modelo, según el caso de uso:
-
Para los puntos de enlace persistentes y en tiempo real que realizan una predicción a la vez, utilice servicios de alojamiento SageMaker en tiempo real. Consulte Inferencia en tiempo real.
-
Utilice Serverless Inference para las cargas de trabajo que tienen períodos de inactividad entre picos de tráfico y que pueden tolerar los arranques en frío. Consulte Implemente modelos con Amazon SageMaker Serverless Inference.
-
Las solicitudes con cargas útiles grandes de hasta 1 GB, tiempos de procesamiento prolongados y requisitos de latencia prácticamente en tiempo real utilizan Amazon SageMaker Asynchronous Inference. Consulte Inferencia asíncrona.
-
Para obtener predicciones para un conjunto de datos completo, utilice la transformación por lotes. SageMaker Consulte Transformación por lotes para inferencias con Amazon SageMaker.
SageMaker también proporciona funciones para administrar los recursos y optimizar el rendimiento de las inferencias al implementar modelos de aprendizaje automático:
-
Para gestionar los modelos en dispositivos periféricos de forma que pueda optimizar, proteger, supervisar y mantener los modelos de aprendizaje automático en flotas de dispositivos periféricos, consulte. Modele la implementación en la periferia con Edge Manager SageMaker Esto se aplica a los dispositivos periféricos, como cámaras inteligentes, robots, ordenadores personales y dispositivos móviles.
-
Para optimizar Gluon, Keras,,MXNet, PyTorch TensorFlow, TensorFlow -Lite y los ONNX modelos con fines de inferencia en máquinas Android, Linux y Windows basadas en procesadores de Ambarella, Intel, Nvidia, QualcommARM, Texas Instruments y NXP Xilinx, consulte. Optimización del rendimiento de los modelos con SageMaker Neo
Para obtener más información acerca de todas las opciones de implementación, consulte Implementar modelos para inferencia.