Implemente modelos de piloto automático para inferência em tempo real - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Implemente modelos de piloto automático para inferência em tempo real

Depois de treinar seus modelos do Amazon SageMaker Autopilot, você pode configurar um endpoint e obter previsões de forma interativa. A seção a seguir descreve as etapas para implantar seu modelo SageMaker em um endpoint de inferência em tempo real para obter previsões do seu modelo.

Inferência em tempo real

A inferência em tempo real é ideal para workloads de inferência em que você tem requisitos em tempo real, interativos e de baixa latência. Esta seção mostra como você pode usar a inferência em tempo real para obter previsões de forma interativa do seu modelo.

Você pode usar SageMaker APIs para implantar manualmente o modelo que produziu a melhor métrica de validação em um experimento de piloto automático da seguinte maneira.

Como alternativa, você pode escolher a opção de implantação automática ao criar seu experimento de Autopilot. Para obter informações sobre como configurar a implantação automática de modelos, consulte ModelDeployConfig nos parâmetros de solicitação de CreateAutoMLJobV2. Isso cria um endpoint automaticamente.

nota

Para evitar cobranças desnecessárias, exclua endpoints e recursos desnecessários criados a partir da implantação do modelo. Para obter informações sobre preços de instâncias por região, consulte Amazon SageMaker Pricing.

  1. Obtenha as definições do contêiner candidato

    Obtenha as definições do contêiner candidato em InferenceContainers. Uma definição de contêiner para inferência se refere ao ambiente em contêineres projetado para implantar e executar seu SageMaker modelo treinado para fazer previsões.

    O exemplo de AWS CLI comando a seguir usa o DescribeAutoMLJobV2APIpara obter as definições do candidato ao melhor modelo.

    aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
  2. Listar candidatos

    O exemplo de AWS CLI comando a seguir usa o ListCandidatesForAutoMLJobAPIpara listar todos os candidatos ao modelo.

    aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
  3. Crie um SageMaker modelo

    Use as definições de contêiner das etapas anteriores e um candidato de sua escolha para criar um SageMaker modelo usando CreateModelAPIo. Veja o AWS CLI comando a seguir como exemplo.

    aws sagemaker create-model --model-name '<your-candidate-name>' \ --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \ --execution-role-arn '<execution-role-arn>' --region '<region>
  4. Criar uma configuração de endpoint

    O exemplo de AWS CLI comando a seguir usa o CreateEndpointConfigAPIpara criar uma configuração de endpoint.

    aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \ --production-variants '<list-of-production-variants>' \ --region '<region>'
  5. Criar o endpoint

    O AWS CLI exemplo a seguir usa o CreateEndpointAPIpara criar o endpoint.

    aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \ --endpoint-config-name '<endpoint-config-name-you-just-created>' \ --region '<region>'

    Verifique o progresso da implantação do seu endpoint usando o. DescribeEndpointAPI Veja o AWS CLI comando a seguir como exemplo.

    aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>

    Depois que EndpointStatus muda para InService, o endpoint está pronto para ser usado para inferência em tempo real.

  6. Invoque o endpoint

    A estrutura de comando a seguir invoca o endpoint para inferência em tempo real.

    aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>