As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Os seguintes notebooks Jupyter e informações adicionais mostram como usar seus próprios algoritmos ou modelos pré-treinados de uma instância de notebook da Amazon. SageMaker Para obter links para os GitHub repositórios com os Dockerfiles pré-criados para o TensorFlow, MXNet, Chainer e PyTorch estruturas e instruções sobre como usar os AWS SDK para Python (Boto3) estimadores para executar seus próprios algoritmos de treinamento no SageMaker AI Learner e seus próprios modelos na hospedagem de IA, consulte SageMaker Imagens pré-construídas do SageMaker AI Docker para aprendizado profundo
Configuração
-
Crie uma instância de SageMaker notebook. Para obter instruções sobre como criar e acessar instâncias do caderno Jupyter, consulte Instâncias do Amazon SageMaker Notebook.
-
Abra a instância de caderno.
-
Escolha a guia Exemplos de SageMaker IA para obter uma lista de todos os cadernos de exemplos de SageMaker IA.
-
Abra os blocos de anotações de amostra na seção Funcionalidade avançada em sua instância do notebook ou GitHub usando os links fornecidos. Para abrir um caderno, escolha a guia Uso e depois escolha Criar cópia.
Modelos hospedeiros treinados no Scikit-learn
Para aprender a hospedar modelos treinados no Scikit-learn para fazer previsões em SageMaker IA injetando-os em k-means e XGBoost contêineres primários, consulte os seguintes exemplos de cadernos.
Modelos Package TensorFlow e Scikit-learn para uso em IA SageMaker
Para saber como empacotar algoritmos que você desenvolveu TensorFlow e estruturas scikit-learn para treinamento e implantação no ambiente de SageMaker IA, consulte os notebooks a seguir. Eles mostram como criar, registrar e implantar seus próprios contêineres do Docker usando Dockerfiles.
Treine e implante uma rede neural em SageMaker IA
Para aprender a treinar uma rede neural localmente usando MXNet ou e TensorFlow, em seguida, criar um endpoint a partir do modelo treinado e implantá-lo na SageMaker IA, consulte os notebooks a seguir. O MXNet modelo é treinado para reconhecer números manuscritos do conjunto de dados MNIST. O TensorFlow modelo é treinado para classificar as íris.
Treinamento usando o Modo Pipe
Para saber como usar um Dockerfile para criar um contêiner que chame o train.py script
e use o modo de pipe para treinar um algoritmo personalizado, consulte o caderno a seguir. No modo de pipe, os dados de entrada são transferidos para o algoritmo durante o treinamento. Isso pode diminuir o tempo de treinamento em comparação ao uso do modo de arquivo.
Traga seus próprios modelos em R
Para saber como adicionar uma imagem no R personalizada para criar e treinar um modelo em um caderno do AWS SMS
, consulte a publicação do blog a seguir. Esta postagem do blog usa uma amostra R Dockerfile de uma biblioteca de amostras de imagens personalizadas do SageMaker AI Studio Classic
Estender uma imagem de PyTorch contêiner pré-criada
Para saber como estender uma imagem de PyTorch contêiner de SageMaker IA pré-criada quando você tem requisitos funcionais adicionais para seu algoritmo ou modelo que a imagem pré-criada do Docker não suporta, consulte o bloco de notas a seguir.
Para obter mais informações sobre como estender um contêiner, consulte Estenda uma imagem de contêiner predefinida.
Treine e depure trabalhos de treinamento em um contêiner personalizado
Para saber como treinar e depurar trabalhos de treinamento usando o SageMaker Debugger, consulte o caderno a seguir. Um script de treinamento fornecido por meio deste exemplo usa o modelo TensorFlow Keras ResNet 50 e o conjunto de dados CIFAR1 0. Um contêiner personalizado do Docker é criado com o script de treinamento e enviado para o Amazon ECR. Enquanto o trabalho de treinamento está em execução, o Debugger coleta as saídas do tensor e identifica problemas de depuração. Com as ferramentas da biblioteca de clientes smdebug
, você pode definir um objeto de teste smdebug
que chama o trabalho de treinamento e as informações de depuração, verificar o status da regra de treinamento e do Debugger e recuperar tensores salvos em um bucket do Amazon S3 para analisar problemas de treinamento.