Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Instancias en la nube
Amazon SageMaker Neo proporciona soporte de compilación para marcos de aprendizaje automático populares TensorFlow PyTorch, como MXNet y más. Puede implementar su modelo compilado en instancias de nube e instancias de AWS Inferentia. Para obtener una lista completa de los marcos y tipos de instancias compatibles, consulte Marcos y tipos de instancias compatibles.
Puede compilar el modelo de tres maneras: mediante la AWS CLI SageMaker consola o el SageMaker SDK para Python. Consulte Uso de Neo para compilar un modelo para obtener más información. Una vez compilados, los artefactos del modelo se almacenan en el URI del bucket de Amazon S3 que haya especificado durante el trabajo de compilación. Puedes implementar tu modelo compilado en instancias de nube e instancias de AWS Inferentia mediante el SageMaker SDK para Python, AWS SDK for Python (Boto3) AWS CLI, o la AWS consola.
Si despliega el modelo mediante AWS CLI la consola o Boto3, debe seleccionar un URI de Amazon ECR de imagen de Docker para su contenedor principal. Consulte Imágenes de contenedor de inferencias de Neo para obtener una lista de URI de Amazon ECR.