本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
部署 Autopilot 模型以進行即時推論
訓練 Amazon SageMaker Autopilot 模型後,您可以設定端點並以互動方式取得預測。下一節說明將模型部署到 SageMaker 即時推論端點的步驟,以便從模型取得預測。
即時推論
即時推論非常適合您具有即時、互動、低延遲需求的推論工作負載。本節說明如何使用即時推論,以互動方式從模型取得預測。
您可以使用 SageMaker APIs 手動部署模型,該模型在 Autopilot 實驗中產生最佳驗證指標,如下所示。
或者,您也可以在建立 Autopilot 實驗時選擇自動部署選項。如需設定自動部署模型的相關資訊,請參閱 CreateAutoMLJobV2
請求參數中的 ModelDeployConfig
。這會自動建立端點。
注意
若要避免產生不必要的費用,您可以刪除不需要的端點和從模型部署建立的資源。如需依區域定價執行個體的相關資訊,請參閱 Amazon SageMaker Pricing
-
取得候選項目容器定義
從 取得候選容器定義InferenceContainers。推論的容器定義是指專為部署和執行訓練 SageMaker 模型進行預測而設計的容器化環境。
下列 AWS CLI 命令範例使用 DescribeAutoMLJobV2API來取得最佳模型候選的候選定義。
aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name
job-name
--regionregion
-
列出候選
下列 AWS CLI 命令範例使用 ListCandidatesForAutoMLJobAPI來列出所有模型候選項目。
aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name
<job-name>
--region<region>
-
建立 SageMaker 模型
使用先前步驟的容器定義和您選擇的候選者,透過使用 CreateModel 建立 SageMaker 模型API。範例請參閱下列 AWS CLI 命令。
aws sagemaker create-model --model-name '
<your-candidate-name>
' \ --containers ['<container-definition1
>,<container-definition2>
,<container-definition3>
]' \ --execution-role-arn '<execution-role-arn>
' --region '<region>
-
建立一個端點組態
下列 AWS CLI 命令範例使用 CreateEndpointConfigAPI來建立端點組態。
aws sagemaker create-endpoint-config --endpoint-config-name '
<your-endpoint-config-name>
' \ --production-variants '<list-of-production-variants>
' \ --region '<region>
' -
建立端點
下列 AWS CLI 範例使用 CreateEndpointAPI來建立端點。
aws sagemaker create-endpoint --endpoint-name '
<your-endpoint-name>
' \ --endpoint-config-name '<endpoint-config-name-you-just-created>
' \ --region '<region>
'使用 檢查端點部署的進度DescribeEndpointAPI。範例請參閱下列 AWS CLI 命令。
aws sagemaker describe-endpoint —endpoint-name '
<endpoint-name>
' —region<region>
EndpointStatus
變更為後InService
,端點即可用於即時推論。 -
調用端點
下列命令結構會調用端點以進行即時推論。
aws sagemaker invoke-endpoint --endpoint-name '
<endpoint-name>
' \ --region '<region>
' --body '<your-data>
' [--content-type] '<content-type>
'<outfile>