本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
雲端執行個體
Amazon SageMaker Neo 為熱門的機器學習架構 (例如 TensorFlow PyTorch、MXNet 等) 提供編譯支援。您可以將編譯後的模型部署到雲端執行個體和 AWS Inferentia 執行個體。如需完整的支援架構和執行個體類型清單,請參閱支援的執行個體類型和架構。
您可以使用下 AWS CLI列三種方式之一來編譯模型:透過、 SageMaker 主控台或 Python SageMaker SDK。如需更多資訊,請參閱使用 Neo 編譯模型。編譯後,您的模型成品會存放在您在編譯任務期間指定的 Amazon S3 儲存貯體 URI 中。您可以使用適用於 Python、、 AWS SDK for Python (Boto3)或主控台的 SageMaker SDK,將編譯 AWS 的模型部署到雲端執行個體和推論執行個體 AWS 。 AWS CLI
如果您使用 AWS CLI主控台或 Boto3 部署模型,則必須為主要容器選取 Docker 映像檔 Amazon ECR URI。如需 Amazon ECR URI 的清單,請參閱 Neo 推論容器映像。