本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
部署模型
若要將 Amazon SageMaker Neo 編譯的模型部署至HTTPS端點,您必須使用 Amazon SageMaker 託管服務來設定和建立模型的端點。目前,開發人員可以使用 Amazon SageMaker APIs 將模組部署至 ml.c5、ml.c4、ml.m5、ml.m4、ml.p3、ml.p2 和 ml.inf1 執行個體。
如果是 Inferentia
當您部署已編譯的模型時,目標使用的執行個體需要和編譯使用的執行個體相同。這會建立可用來執行推論的 SageMaker 端點。您可以使用下列任一項部署新編譯的模型:Amazon SageMaker SDK for Python
注意
如需使用 AWS CLI、主控台或 Boto3 部署模型,請參閱 Neo 推論容器映像,以選取主要容器URI的推論映像。