Anexe o EI a uma instância do bloco de anotações - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Anexe o EI a uma instância do bloco de anotações

Para testar e avaliar a performance de inferência usando o EI, você pode anexar o EI a uma instâncias do bloco de anotações ao criar ou atualizar essa instância. Você pode então usar o EI no modo local para hospedar um modelo em um endpoint hospedado na instância do bloco de anotações. Você deve testar vários tamanhos de instâncias de bloco de anotações e aceleradores do EI para avaliar a configuração que funciona melhor para o seu caso de uso.

Configuração para usar o EI

Para usar o EI localmente em uma instância do bloco de anotações, crie uma instância de bloco de anotações com uma instância do EI.

Como criar uma instância do bloco de anotações com uma instância do EI
  1. Abra o SageMaker console da Amazon em https://console.aws.amazon.com/sagemaker/.

  2. No painel de navegação, selecione Instâncias do bloco de anotações.

  3. Escolha Criar instância do bloco de anotações.

  4. Para Nome da instância do bloco de anotações, forneça um nome exclusivo para a sua instância de bloco de anotações.

  5. Para o tipo de instância do bloco de anotações, escolha uma instância de CPU, como ml.t2.medium.

  6. Para Elastic Inference (EI) (Inferência elástica (EI)), escolha uma instância na lista, como ml.eia2.medium.

  7. Para a função do IAM, escolha uma função do IAM que tenha as permissões necessárias para usar SageMaker e EI.

  8. (Opcional) Para VPC - Optional (VPC – Opcional), se quiser que a instância do bloco de anotações use uma VPC, escolha uma na lista disponível. Caso contrário, deixe como No VPC (Nenhuma VPC). Se você usa uma VPC, siga as instruções em Usar uma VPC personalizada para conectar-se ao EI.

  9. (Opcional) Para Configuração do ciclo de vida - opcional, deixe como Sem configuração ou escolha uma configuração de ciclo de vida. Para ter mais informações, consulte Personalize uma instância do SageMaker notebook usando um script LCC.

  10. (Opcional) Para chave de criptografia - opcional, opcional) Se você quiser SageMaker usar uma chave AWS Key Management Service (AWS KMS) para criptografar dados no volume de armazenamento de ML anexado à instância do notebook, especifique a chave.

  11. (Opcional) Para Tamanho do volume em GB - opcional, deixe o valor padrão de 5.

  12. (Opcional) Para Tags, adicione tags à instância do bloco de anotações. Uma tag é um rótulo que você atribui para ajudar a gerenciar suas instâncias do bloco de anotações. Uma tag consiste em uma chave e um valor, ambos definidos por você.

  13. Escolha Criar instância do bloco de anotações.

Depois de criar sua instância do bloco de anotações com o EI anexado, você pode criar um bloco de anotações Jupyter e configurar um endpoint EI hospedado localmente na instância do bloco de anotações.

Use EI no modo local em SageMaker

Para usar o EI localmente em um endpoint hospedado em uma instância de notebook, use o modo local com as versões do Amazon SageMaker Python SDK do MXNet ou dos TensorFlow estimadores ou modelos. PyTorch Para obter mais informações sobre o suporte ao modo local no SDK do SageMaker Python, consulte https://github.com/aws/sagemaker-python-sdk#sagemaker-python-sdk-overview.

Use EI no modo local com SageMaker TensorFlow estimadores e modelos

Para usar o EI TensorFlow no modo local, especifique local para instance_type e local_sagemaker_notebook para accelerator_type quando você chama o deploy método de um estimador ou objeto de modelo. Para obter mais informações sobre os TensorFlow estimadores e modelos do Amazon SageMaker Python SDK, consulte https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/index.html.

O código a seguir mostra como usar o modo local com um objeto estimador. Antes de chamar o método deploy, você deve ter:

  • Treinado o modelo chamando o método fit de um estimador.

  • Transmitir um artefato do modelo ao inicializar o objeto de modelo.

# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

Use EI no modo local com estimadores e SageMaker modelos Apache MXNet

Para usar o EI com MXNet em modo local, especifique local para instance_type e local_sagemaker_notebook para accelerator_type ao chamar o método deploy de um estimador ou um objeto de modelo. Para obter mais informações sobre os estimadores e modelos MXNet do Amazon SageMaker Python SDK, consulte https://sagemaker.readthedocs.io/en/stable/frameworks/mxnet/index.html.

O código a seguir mostra como usar o modo local com um objeto estimador. Você deve ter chamado anteriormente o método fit do estimador para treinar o modelo.

# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

Para obter um exemplo completo de uso do EI no modo local com MXNet, consulte o caderno de exemplo em https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.html .

Use EI no modo local com SageMaker PyTorch estimadores e modelos

Para usar o EI PyTorch no modo local, ao chamar o deploy método de um estimador ou objeto de modelo, especifique local para instance_type e local_sagemaker_notebook para. accelerator_type Para obter mais informações sobre estimadores e modelos do Amazon SageMaker Python SDK, consulte PyTorch Estimadores e modelos. SageMaker PyTorch

O código a seguir mostra como usar o modo local com um objeto estimador. Você deve ter chamado anteriormente o método fit do estimador para treinar o modelo.

# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')