Habilitar a implantação - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Habilitar a implantação

Quando adicionar um modelo para compartilhar, você pode, opcionalmente, fornecer um ambiente de inferência no qual os colaboradores da sua organização podem implantar o modelo para inferência.

Depois de treinar seu modelo de aprendizado de máquina, você precisará implantá-lo em um SageMaker endpoint da Amazon para inferência. Isso envolve fornecer um ambiente de contêiner, um script de inferência, os artefatos do modelo gerados durante o treinamento e a seleção de um tipo de instância de computação apropriado. Definir essas configurações adequadamente é crucial para garantir que seu modelo implantado possa fazer previsões precisas e lidar com solicitações de inferência com eficiência. Para configurar seu modelo para inferência, siga estas etapas:

  1. Adicione um contêiner a usar para inferência. Você pode trazer seu próprio contêiner na Amazon ECR ou usar um contêiner do Amazon SageMaker Deep Learning.

  2. Forneça o Amazon S3 URI a um script de inferência. Os scripts de inferência personalizados são executados dentro do contêiner escolhido. Seu script de inferência deve incluir uma função para carregamento do modelo e, opcionalmente, funções de geração de previsões e processamento de entrada e saída. Para obter mais informações sobre a criação de scripts de inferência para a estrutura de sua escolha, consulte Frameworks na documentação do Python SageMaker . SDK Por exemplo, para TensorFlow, consulte Como implementar o (s) manipulador (es) de pré e/ou pós-processamento.

  3. Forneça um Amazon S3 URI para artefatos do modelo. Os artefatos do modelo são a saída resultante do treinamento de um modelo e geralmente consistem em parâmetros treinados, uma definição de modelo que descreve como calcular inferências e outros metadados. Se você treinou seu modelo SageMaker, os artefatos do modelo são salvos como um único TAR arquivo compactado no Amazon S3. Se você treinou seu modelo externamente SageMaker, precisará criar esse único TAR arquivo compactado e salvá-lo em um local do Amazon S3.

  4. Selecione um tipo de instância. Recomendamos uma GPU instância com mais memória para treinamento com lotes grandes. Para obter uma lista abrangente de instâncias de SageMaker treinamento em todas AWS as regiões, consulte a tabela de preços sob demanda no Amazon SageMaker Pricing.