Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Habilitación de la implementación
Al agregar un modelo para compartirlo, puede proporcionar opcionalmente un entorno de inferencia en el que los colaboradores de su organización puedan implementar el modelo compartido para realizar inferencias.
Tras entrenar tu modelo de aprendizaje automático, tendrás que implementarlo en un punto final de Amazon SageMaker AI para realizar inferencias. Esto implica proporcionar un entorno de contenedores, un script de inferencia, los artefactos del modelo generados durante el entrenamiento y seleccionar un tipo de instancia de cómputo adecuado. La configuración adecuada de estos parámetros es fundamental para garantizar que el modelo implementado pueda realizar predicciones precisas y gestionar las solicitudes de inferencia de manera eficiente. Para configurar el modelo de inferencia, siga estos pasos:
-
Agregue un contenedor para usarlo en la inferencia. Puedes traer tu propio contenedor a Amazon ECR o usar un contenedor de aprendizaje profundo de Amazon SageMaker AI.
-
Proporcione Amazon S3 URI a un script de inferencia. Los scripts de inferencia personalizados se ejecutan dentro del contenedor elegido. El script de inferencia debe incluir una función para cargar el modelo y, opcionalmente, funciones que generen predicciones y procesen entradas y salidas. Para obtener más información sobre la creación de scripts de inferencia para el marco que elija, consulte Frameworks
en la SDK documentación de SageMaker Python. Por ejemplo TensorFlow, consulte Cómo implementar los controladores previos o posteriores al procesamiento . -
Proporcione un Amazon S3 URI para los artefactos del modelo. Los artefactos del modelo son el resultado del entrenamiento de un modelo y, por lo general, consisten en parámetros entrenados, una definición del modelo que describe cómo calcular las inferencias y otros metadatos. Si ha entrenado su modelo en SageMaker IA, los artefactos del modelo se guardan como un único TAR archivo comprimido en Amazon S3. Si ha entrenado su modelo fuera de la SageMaker IA, debe crear este único TAR archivo comprimido y guardarlo en una ubicación de Amazon S3.
-
Seleccione un tipo de instancia. Recomendamos una GPU instancia con más memoria para el entrenamiento con lotes de gran tamaño. Para obtener una lista completa de las instancias de SageMaker formación en todas AWS las regiones, consulte la tabla de precios bajo demanda en Amazon SageMaker AI Pricing
.