Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Opciones de implementación de modelos en Amazon SageMaker AI

Modo de enfoque
Opciones de implementación de modelos en Amazon SageMaker AI - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Después de entrenar el modelo de aprendizaje automático, puede implementarlo con Amazon SageMaker AI para obtener predicciones. Amazon SageMaker AI admite las siguientes formas de implementar un modelo, según el caso de uso:

SageMaker La IA también proporciona funciones para gestionar los recursos y optimizar el rendimiento de las inferencias al implementar modelos de aprendizaje automático:

  • Para administrar los modelos en dispositivos periféricos de forma que pueda optimizar, proteger, supervisar y mantener los modelos de machine learning en flotas de dispositivos periféricos, consulte Modele la implementación en la periferia con Edge Manager SageMaker . Esto se aplica a dispositivos periféricos, como cámaras inteligentes, robots, ordenadores personales y dispositivos móviles.

  • Para optimizar los modelos Gluon, Keras, MXNet, PyTorch TensorFlow, TensorFlow -Lite y ONNX para la inferencia en máquinas Android, Linux y Windows basadas en procesadores de Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments y Xilinx, consulte. Optimización del rendimiento de los modelos con SageMaker Neo

Para obtener más información acerca de todas las opciones de implementación, consulte Implementar modelos para inferencia.

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.