Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Exemplos e mais informações: use seu próprio algoritmo ou modelo

Modo de foco
Exemplos e mais informações: use seu próprio algoritmo ou modelo - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Os seguintes notebooks Jupyter e informações adicionais mostram como usar seus próprios algoritmos ou modelos pré-treinados de uma instância de notebook da Amazon. SageMaker Para obter links para os GitHub repositórios com os Dockerfiles pré-criados para o TensorFlow, MXNet, Chainer e PyTorch estruturas e instruções sobre como usar os AWS SDK para Python (Boto3) estimadores para executar seus próprios algoritmos de treinamento no SageMaker AI Learner e seus próprios modelos na hospedagem de IA, consulte SageMaker Imagens pré-construídas do SageMaker AI Docker para aprendizado profundo

Configuração

  1. Crie uma instância de SageMaker notebook. Para obter instruções sobre como criar e acessar instâncias do caderno Jupyter, consulte Instâncias do Amazon SageMaker Notebook.

  2. Abra a instância de caderno.

  3. Escolha a guia Exemplos de SageMaker IA para obter uma lista de todos os cadernos de exemplos de SageMaker IA.

  4. Abra os blocos de anotações de amostra na seção Funcionalidade avançada em sua instância do notebook ou GitHub usando os links fornecidos. Para abrir um caderno, escolha a guia Uso e depois escolha Criar cópia.

Modelos hospedeiros treinados no Scikit-learn

Para aprender a hospedar modelos treinados no Scikit-learn para fazer previsões em SageMaker IA injetando-os em k-means e XGBoost contêineres primários, consulte os seguintes exemplos de cadernos.

Modelos Package TensorFlow e Scikit-learn para uso em IA SageMaker

Para saber como empacotar algoritmos que você desenvolveu TensorFlow e estruturas scikit-learn para treinamento e implantação no ambiente de SageMaker IA, consulte os notebooks a seguir. Eles mostram como criar, registrar e implantar seus próprios contêineres do Docker usando Dockerfiles.

Treine e implante uma rede neural em SageMaker IA

Para aprender a treinar uma rede neural localmente usando MXNet ou e TensorFlow, em seguida, criar um endpoint a partir do modelo treinado e implantá-lo na SageMaker IA, consulte os notebooks a seguir. O MXNet modelo é treinado para reconhecer números manuscritos do conjunto de dados MNIST. O TensorFlow modelo é treinado para classificar as íris.

Treinamento usando o Modo Pipe

Para saber como usar um Dockerfile para criar um contêiner que chame o train.py script e use o modo de pipe para treinar um algoritmo personalizado, consulte o caderno a seguir. No modo de pipe, os dados de entrada são transferidos para o algoritmo durante o treinamento. Isso pode diminuir o tempo de treinamento em comparação ao uso do modo de arquivo.

Traga seus próprios modelos em R

Para saber como adicionar uma imagem no R personalizada para criar e treinar um modelo em um caderno do AWS SMS , consulte a publicação do blog a seguir. Esta postagem do blog usa uma amostra R Dockerfile de uma biblioteca de amostras de imagens personalizadas do SageMaker AI Studio Classic.

Estender uma imagem de PyTorch contêiner pré-criada

Para saber como estender uma imagem de PyTorch contêiner de SageMaker IA pré-criada quando você tem requisitos funcionais adicionais para seu algoritmo ou modelo que a imagem pré-criada do Docker não suporta, consulte o bloco de notas a seguir.

Para obter mais informações sobre como estender um contêiner, consulte Estenda uma imagem de contêiner predefinida.

Treine e depure trabalhos de treinamento em um contêiner personalizado

Para saber como treinar e depurar trabalhos de treinamento usando o SageMaker Debugger, consulte o caderno a seguir. Um script de treinamento fornecido por meio deste exemplo usa o modelo TensorFlow Keras ResNet 50 e o conjunto de dados CIFAR1 0. Um contêiner personalizado do Docker é criado com o script de treinamento e enviado para o Amazon ECR. Enquanto o trabalho de treinamento está em execução, o Debugger coleta as saídas do tensor e identifica problemas de depuração. Com as ferramentas da biblioteca de clientes smdebug, você pode definir um objeto de teste smdebug que chama o trabalho de treinamento e as informações de depuração, verificar o status da regra de treinamento e do Debugger e recuperar tensores salvos em um bucket do Amazon S3 para analisar problemas de treinamento.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.