Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Visão geral de como usar o atributo Neptune ML

Modo de foco
Visão geral de como usar o atributo Neptune ML - Amazon Neptune

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

O recurso Neptune ML no Amazon Neptune fornece um fluxo de trabalho simplificado para aproveitar modelos de aprendizado de máquina em um banco de dados gráfico. O processo envolve várias etapas principais: exportar dados do Neptune para o formato CSV, pré-processar os dados para prepará-los para o treinamento do modelo, treinar o modelo de aprendizado de máquina usando a SageMaker Amazon AI, criar um endpoint de inferência para fornecer previsões e, em seguida, consultar o modelo diretamente das consultas do Gremlin. A bancada de trabalho Neptune fornece comandos mágicos de linha e célula convenientes para ajudar a gerenciar e automatizar essas etapas. Ao integrar os recursos de aprendizado de máquina diretamente ao banco de dados gráfico, o Neptune ML permite que os usuários obtenham informações valiosas e façam previsões usando os ricos dados relacionais armazenados no gráfico do Neptune.

Iniciar o fluxo de trabalho para usar o Neptune ML

O uso do atributo Neptune ML no Amazon Neptune geralmente envolve estas cinco etapas para começar:

Diagrama do fluxo de trabalho do Neptune ML
  1. Exportação e configuração de dados: a etapa de exportação de dados usa o serviço Neptune-Export ou a ferramenta de linha de comando neptune-export para exportar dados do Neptune para o Amazon Simple Storage Service (Amazon S3) em formato CSV. Um arquivo de configuração chamado training-data-configuration.json é gerado automaticamente ao mesmo tempo, o que especifica como os dados exportados podem ser carregados em um grafo treinável.

  2. Pré-processamento de dados: nessa etapa, o conjunto de dados exportado é pré-processado usando técnicas padrão para prepará-lo para o treinamento de modelos. A normalização de atributos pode ser realizada para dados numéricos e os atributos de texto podem ser codificados usando word2vec. No final dessa etapa, um grafo DGL (biblioteca Deep Graph) é gerado a partir do conjunto de dados exportado para uso na etapa de treinamento de modelos.

    Essa etapa é implementada usando um trabalho de processamento de SageMaker IA em sua conta, e os dados resultantes são armazenados em um local do Amazon S3 que você especificou.

  3. Treinamento de modelos: a etapa de treinamento de modelos treina o modelo de machine learning que será usado para previsões.

    O treinamento de modelos é realizado em duas etapas:

    • O primeiro estágio usa um trabalho de processamento de SageMaker IA para gerar um conjunto de configurações de estratégia de treinamento de modelo que especifica que tipo de modelo e intervalos de hiperparâmetros do modelo serão usados para o treinamento do modelo.

    • Em seguida, o segundo estágio usa um trabalho de ajuste do modelo de SageMaker IA para testar diferentes configurações de hiperparâmetros e selecionar o trabalho de treinamento que produziu o modelo com melhor desempenho. O trabalho de ajuste executa um número pré-especificado de testes de trabalho de treinamento de modelos nos dados processados. No final dessa etapa, os parâmetros do modelo treinado do melhor trabalho de treinamento são usados para gerar artefatos de modelo para inferência.

  4. Crie um endpoint de inferência na Amazon SageMaker AI — O endpoint de inferência é uma instância de endpoint de SageMaker IA que é lançada com os artefatos de modelo produzidos pelo melhor trabalho de treinamento. Cada modelo é vinculado a um único endpoint. O endpoint pode aceitar solicitações recebidas do banco de dados de grafos e exibir as previsões do modelo para entradas nas solicitações. Depois de criar o endpoint, ele permanece ativo até que você o exclua.

  5. Consulta ao modelo de machine learning usando o Gremlin: é possível usar extensões à linguagem de consulta Gremlin para consultar previsões por meio do endpoint de inferência.

nota

A bancada de trabalho do Neptune contém uma magia de linha e uma magia de célula que podem proporcionar uma grande economia de tempo no gerenciamento dessas etapas, ou seja:

Nesta página

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.