As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Implemente modelos de piloto automático para inferência em tempo real
Depois de treinar seus modelos do Amazon SageMaker Autopilot, você pode configurar um endpoint e obter previsões de forma interativa. A seção a seguir descreve as etapas para implantar seu modelo SageMaker em um endpoint de inferência em tempo real para obter previsões do seu modelo.
Inferência em tempo real
A inferência em tempo real é ideal para workloads de inferência em que você tem requisitos em tempo real, interativos e de baixa latência. Esta seção mostra como você pode usar a inferência em tempo real para obter previsões de forma interativa do seu modelo.
Você pode usar SageMaker APIs para implantar manualmente o modelo que produziu a melhor métrica de validação em um experimento de piloto automático da seguinte maneira.
Como alternativa, você pode escolher a opção de implantação automática ao criar seu experimento de Autopilot. Para obter informações sobre como configurar a implantação automática de modelos, consulte ModelDeployConfig
nos parâmetros de solicitação de CreateAutoMLJobV2
. Isso cria um endpoint automaticamente.
nota
Para evitar cobranças desnecessárias, exclua endpoints e recursos desnecessários criados a partir da implantação do modelo. Para obter informações sobre preços de instâncias por região, consulte Amazon SageMaker Pricing
-
Obtenha as definições do contêiner candidato
Obtenha as definições do contêiner candidato em InferenceContainers. Uma definição de contêiner para inferência se refere ao ambiente em contêineres projetado para implantar e executar seu SageMaker modelo treinado para fazer previsões.
O exemplo de AWS CLI comando a seguir usa o DescribeAutoMLJobV2APIpara obter as definições do candidato ao melhor modelo.
aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name
job-name
--regionregion
-
Listar candidatos
O exemplo de AWS CLI comando a seguir usa o ListCandidatesForAutoMLJobAPIpara listar todos os candidatos ao modelo.
aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name
<job-name>
--region<region>
-
Crie um SageMaker modelo
Use as definições de contêiner das etapas anteriores e um candidato de sua escolha para criar um SageMaker modelo usando CreateModelAPIo. Veja o AWS CLI comando a seguir como exemplo.
aws sagemaker create-model --model-name '
<your-candidate-name>
' \ --containers ['<container-definition1
>,<container-definition2>
,<container-definition3>
]' \ --execution-role-arn '<execution-role-arn>
' --region '<region>
-
Criar uma configuração de endpoint
O exemplo de AWS CLI comando a seguir usa o CreateEndpointConfigAPIpara criar uma configuração de endpoint.
aws sagemaker create-endpoint-config --endpoint-config-name '
<your-endpoint-config-name>
' \ --production-variants '<list-of-production-variants>
' \ --region '<region>
' -
Criar o endpoint
O AWS CLI exemplo a seguir usa o CreateEndpointAPIpara criar o endpoint.
aws sagemaker create-endpoint --endpoint-name '
<your-endpoint-name>
' \ --endpoint-config-name '<endpoint-config-name-you-just-created>
' \ --region '<region>
'Verifique o progresso da implantação do seu endpoint usando o. DescribeEndpointAPI Veja o AWS CLI comando a seguir como exemplo.
aws sagemaker describe-endpoint —endpoint-name '
<endpoint-name>
' —region<region>
Depois que
EndpointStatus
muda paraInService
, o endpoint está pronto para ser usado para inferência em tempo real. -
Invoque o endpoint
A estrutura de comando a seguir invoca o endpoint para inferência em tempo real.
aws sagemaker invoke-endpoint --endpoint-name '
<endpoint-name>
' \ --region '<region>
' --body '<your-data>
' [--content-type] '<content-type>
'<outfile>