As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Fazendo previsões com base na evolução dos dados de grafos.
Com um grafo em constante mudança, convém criar previsões em lote periodicamente usando dados novos. Consultar previsões pré-calculadas (inferência transdutiva) pode ser significativamente mais rápido do que gerar novas previsões em tempo real com base nos dados mais recentes (inferência indutiva). As duas abordagens têm sua utilidade, dependendo da rapidez com que os dados mudam e dos requisitos de desempenho.
A diferença entre inferência indutiva e transdutiva
Ao realizar inferência transdutiva, o Neptune pesquisa e exibe previsões que foram pré-calculadas no momento do treinamento.
Ao realizar inferência indutiva, o Neptune cria o subgrafo relevante e busca as respectivas propriedades. O DGL GNN modelo então aplica o processamento de dados e a avaliação do modelo em tempo real.
Portanto, a inferência indutiva pode gerar previsões envolvendo nós e bordas que não estavam presentes no momento do treinamento e que refletem o estado atual do grafo. No entanto, isso ocorre à custa de uma maior latência.
Se o grafo for dinâmico, será conveniente usar a inferência indutiva para levar em conta os dados mais recentes, mas se o grafo for estático, a inferência transdutiva será mais rápida e eficiente.
A inferência indutiva é desabilitada por padrão. É possível habilitá-la para uma consulta usando o predicado Netuno #ml. inductiveInference do Gremlin na consulta da seguinte forma:
.with( "Neptune#ml.inductiveInference")