As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Anexe o EI a uma instância do bloco de anotações
Para testar e avaliar a performance de inferência usando o EI, você pode anexar o EI a uma instâncias do bloco de anotações ao criar ou atualizar essa instância. Você pode então usar o EI no modo local para hospedar um modelo em um endpoint hospedado na instância do bloco de anotações. Você deve testar vários tamanhos de instâncias de bloco de anotações e aceleradores do EI para avaliar a configuração que funciona melhor para o seu caso de uso.
Configuração para usar o EI
Para usar o EI localmente em uma instância do bloco de anotações, crie uma instância de bloco de anotações com uma instância do EI.
Como criar uma instância do bloco de anotações com uma instância do EI
-
Abra o SageMaker console da Amazon em https://console.aws.amazon.com/sagemaker/
. -
No painel de navegação, selecione Instâncias do bloco de anotações.
-
Escolha Criar instância do bloco de anotações.
-
Para Nome da instância do bloco de anotações, forneça um nome exclusivo para a sua instância de bloco de anotações.
-
Para o tipo de instância do bloco de anotações, escolha uma instância de CPU, como ml.t2.medium.
-
Para Elastic Inference (EI) (Inferência elástica (EI)), escolha uma instância na lista, como ml.eia2.medium.
-
Para a função do IAM, escolha uma função do IAM que tenha as permissões necessárias para usar SageMaker e EI.
-
(Opcional) Para VPC - Optional (VPC – Opcional), se quiser que a instância do bloco de anotações use uma VPC, escolha uma na lista disponível. Caso contrário, deixe como No VPC (Nenhuma VPC). Se você usa uma VPC, siga as instruções em Usar uma VPC personalizada para conectar-se ao EI.
-
(Opcional) Para Configuração do ciclo de vida - opcional, deixe como Sem configuração ou escolha uma configuração de ciclo de vida. Para ter mais informações, consulte Personalize uma instância do SageMaker notebook usando um script LCC.
-
(Opcional) Para chave de criptografia - opcional, opcional) Se você quiser SageMaker usar uma chave AWS Key Management Service (AWS KMS) para criptografar dados no volume de armazenamento de ML anexado à instância do notebook, especifique a chave.
-
(Opcional) Para Tamanho do volume em GB - opcional, deixe o valor padrão de 5.
-
(Opcional) Para Tags, adicione tags à instância do bloco de anotações. Uma tag é um rótulo que você atribui para ajudar a gerenciar suas instâncias do bloco de anotações. Uma tag consiste em uma chave e um valor, ambos definidos por você.
-
Escolha Criar instância do bloco de anotações.
Depois de criar sua instância do bloco de anotações com o EI anexado, você pode criar um bloco de anotações Jupyter e configurar um endpoint EI hospedado localmente na instância do bloco de anotações.
Use EI no modo local em SageMaker
Para usar o EI localmente em um endpoint hospedado em uma instância de notebook, use o modo local com as versões do Amazon SageMaker Python
Tópicos
Use EI no modo local com SageMaker TensorFlow estimadores e modelos
Para usar o EI TensorFlow no modo local, especifique local
para instance_type
e local_sagemaker_notebook
para accelerator_type
quando você chama o deploy
método de um estimador ou objeto de modelo. Para obter mais informações sobre os TensorFlow estimadores e modelos do Amazon SageMaker Python SDK
O código a seguir mostra como usar o modo local com um objeto estimador. Antes de chamar o método deploy
, você deve ter:
-
Treinado o modelo chamando o método
fit
de um estimador. -
Transmitir um artefato do modelo ao inicializar o objeto de modelo.
# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')
Use EI no modo local com estimadores e SageMaker modelos Apache MXNet
Para usar o EI com MXNet em modo local, especifique local
para instance_type
e local_sagemaker_notebook
para accelerator_type
ao chamar o método deploy
de um estimador ou um objeto de modelo. Para obter mais informações sobre os estimadores e modelos MXNet do Amazon SageMaker Python SDK
O código a seguir mostra como usar o modo local com um objeto estimador. Você deve ter chamado anteriormente o método fit
do estimador para treinar o modelo.
# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')
Para obter um exemplo completo de uso do EI no modo local com MXNet, consulte o caderno de exemplo em https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.html
Use EI no modo local com SageMaker PyTorch estimadores e modelos
Para usar o EI PyTorch no modo local, ao chamar o deploy
método de um estimador ou objeto de modelo, especifique local
para instance_type
e local_sagemaker_notebook
para. accelerator_type
Para obter mais informações sobre estimadores e modelos do Amazon SageMaker Python SDK
O código a seguir mostra como usar o modo local com um objeto estimador. Você deve ter chamado anteriormente o método fit
do estimador para treinar o modelo.
# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')