Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Generazione di previsioni basate sui dati dei grafi in evoluzione
Con un grafo in continua evoluzione, potrebbe essere necessario creare periodicamente nuove previsioni in batch utilizzando dati aggiornati. L'esecuzione di query su previsioni precalcolate (inferenza trasduttiva) può essere significativamente più veloce rispetto alla generazione immediata di nuove previsioni basate sui dati più recenti (inferenza induttiva). Entrambi gli approcci sono validi, a seconda della rapidità con cui cambiano i dati e dei requisiti in termini di prestazioni.
Differenza tra inferenza induttiva e trasduttiva
Quando esegue l'inferenza trasduttiva, Neptune cerca e restituisce previsioni precalcolate al momento dell'addestramento.
Quando esegue l'inferenza induttiva, Neptune costruisce il sottografo pertinente e ne recupera le proprietà. Il DGL GNN modello applica quindi l'elaborazione e la valutazione dei dati in tempo reale.
L'inferenza induttiva può quindi generare previsioni che coinvolgono nodi e archi che non erano presenti al momento dell'addestramento e che riflettono lo stato attuale del grafo. Ciò determina, tuttavia, una maggiore latenza.
Se il grafo è dinamico, è consigliabile utilizzare l'inferenza induttiva per essere sicuri di tenere conto dei dati più recenti, ma se il grafo è statico, l'inferenza trasduttiva è più veloce ed efficiente.
Per impostazione predefinita, l'inferenza induttiva è disabilitata. È possibile abilitarla per eseguire una query utilizzando il predicato Nettuno #ml. inductiveInference Gremlin nella query come indicato di seguito:
.with( "Neptune#ml.inductiveInference")