本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
使用推理管道运行实时预测
您可以在推理管道中使用经训练的模型直接进行实时预测,无需执行外部预处理。配置管道时,您可以选择使用 Amazon 中已有的内置功能转换器 SageMaker。或者,您可以使用几行 scikit-learn 或 Spark 代码来实施自己的转换逻辑。
MLeap
管道中的容器侦听由 SAGEMAKER_BIND_TO_PORT
环境变量指定的端口(而不是 8080)。在推理管道中运行时, SageMaker 会自动将此环境变量提供给容器。如果此环境变量不存在,则容器应默认为使用端口 8080。要指示您的容器使用此要求进行编译,请使用以下命令将标签添加到您的 Dockerfile:
LABEL com.amazonaws.sagemaker.capabilities.accept-bind-to-port=true
如果您的容器需要侦听第二个端口,请在 SAGEMAKER_SAFE_PORT_RANGE
环境变量指定的范围中选择端口。将该值指定为包含范围"XXXX-YYYY"
,格式为,其中XXXX
和YYYY
为多位数整数。 SageMaker 当您在多容器管道中运行容器时,会自动提供此值。
注意
要在包含SageMaker 内置算法的管道中使用自定义 Docker 镜像,您需要亚马逊弹性容器注册表 (AmazonECR) 政策。您的 Amazon ECR 存储库必须授予提取图片的 SageMaker权限。有关更多信息,请参阅 对 Amazon 推理ECR管道权限进行故障排除。
创建和部署推理管道端点
以下代码使用 SparkML 创建和部署实时推理管道模型,并使用串联XGBoost模型创建和部署。 SageMaker SDK
from sagemaker.model import Model from sagemaker.pipeline_model import PipelineModel from sagemaker.sparkml.model import SparkMLModel sparkml_data = 's3://{}/{}/{}'.format(s3_model_bucket, s3_model_key_prefix, 'model.tar.gz') sparkml_model = SparkMLModel(model_data=sparkml_data) xgb_model = Model(model_data=xgb_model.model_data, image=training_image) model_name = 'serial-inference-' + timestamp_prefix endpoint_name = 'serial-inference-ep-' + timestamp_prefix sm_model = PipelineModel(name=model_name, role=role, models=[sparkml_model, xgb_model]) sm_model.deploy(initial_instance_count=1, instance_type='ml.c4.xlarge', endpoint_name=endpoint_name)
请求从推理管道端点进行实时推理
以下示例说明如何通过调用推理端点并以JSON格式传递请求负载来进行实时预测:
import sagemaker from sagemaker.predictor import json_serializer, json_deserializer, Predictor payload = { "input": [ { "name": "Pclass", "type": "float", "val": "1.0" }, { "name": "Embarked", "type": "string", "val": "Q" }, { "name": "Age", "type": "double", "val": "48.0" }, { "name": "Fare", "type": "double", "val": "100.67" }, { "name": "SibSp", "type": "double", "val": "1.0" }, { "name": "Sex", "type": "string", "val": "male" } ], "output": { "name": "features", "type": "double", "struct": "vector" } } predictor = Predictor(endpoint=endpoint_name, sagemaker_session=sagemaker.Session(), serializer=json_serializer, content_type='text/csv', accept='application/json' print(predictor.predict(payload))
您从 predictor.predict(payload)
中得到的响应是模型的推理结果。
实时推理管道示例
您可以使用显示如何部署端点、运行推理请求然后反序列化响应的SKLearn预测变量来运行此示例 noteboo