Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Opciones de implementación de modelos en Amazon SageMaker AI
Después de entrenar el modelo de aprendizaje automático, puede implementarlo con Amazon SageMaker AI para obtener predicciones. Amazon SageMaker AI admite las siguientes formas de implementar un modelo, según el caso de uso:
-
Si busca puntos de enlace persistentes y en tiempo real que hagan una predicción a la vez, utilice los servicios de alojamiento de SageMaker IA en tiempo real. Consulte Inferencia en tiempo real.
-
Utilice Inferencia sin servidor para las cargas de trabajo que tienen períodos de inactividad entre picos de tráfico y que pueden tolerar los arranques en frío. Consulte Implemente modelos con Amazon SageMaker Serverless Inference.
-
Las solicitudes con cargas útiles grandes de hasta 1 GB, tiempos de procesamiento prolongados y requisitos de latencia prácticamente en tiempo real utilizan Amazon SageMaker Asynchronous Inference. Consulte Inferencia asíncrona.
-
Para obtener predicciones para un conjunto de datos completo, utilice la transformación por lotes de IA. SageMaker Consulte Transformación por lotes para inferencias con Amazon AI SageMaker .
SageMaker La IA también proporciona funciones para gestionar los recursos y optimizar el rendimiento de las inferencias al implementar modelos de aprendizaje automático:
-
Para administrar los modelos en dispositivos periféricos de forma que pueda optimizar, proteger, supervisar y mantener los modelos de machine learning en flotas de dispositivos periféricos, consulte Modele la implementación en la periferia con Edge Manager SageMaker . Esto se aplica a dispositivos periféricos, como cámaras inteligentes, robots, ordenadores personales y dispositivos móviles.
-
Para optimizar los modelos Gluon, Keras, MXNet, PyTorch TensorFlow, TensorFlow -Lite y ONNX para la inferencia en máquinas Android, Linux y Windows basadas en procesadores de Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments y Xilinx, consulte. Optimización del rendimiento de los modelos con SageMaker Neo
Para obtener más información acerca de todas las opciones de implementación, consulte Implementar modelos para inferencia.