Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Predikat Neptune ML digunakan dalam query inferensi Gremlin
Neptune#ml.deterministic
Predikat ini adalah opsi untuk kueri inferensi induktif — yaitu, untuk kueri yang menyertakan predikat. Neptune#ml.inductiveInference
Saat menggunakan inferensi induktif, mesin Neptunus membuat subgraf yang sesuai untuk mengevaluasi GNN model yang dilatih, dan persyaratan subgraf ini bergantung pada parameter model akhir. Secara khusus, num-layer parameter menentukan jumlah hop traversal dari node atau tepi target, dan fanouts parameter menentukan berapa banyak tetangga yang akan diambil sampel pada setiap hop (lihat HPO parameter).
Secara default, kueri inferensi induktif berjalan dalam mode non-deterministik, di mana Neptunus membangun lingkungan secara acak. Saat membuat prediksi, pengambilan sampel tetangga-acak normal ini terkadang menghasilkan prediksi yang berbeda.
Saat Anda memasukkan Neptune#ml.deterministic
dalam kueri inferensi induktif, mesin Neptunus mencoba mengambil sampel tetangga dengan cara deterministik sehingga beberapa pemanggilan dari kueri yang sama mengembalikan hasil yang sama setiap saat. Hasilnya tidak dapat dijamin sepenuhnya deterministik, karena perubahan pada grafik dan artefak yang mendasari sistem terdistribusi masih dapat menimbulkan fluktuasi.
Anda menyertakan Neptune#ml.deterministic
predikat dalam kueri seperti ini:
.with("Neptune#ml.deterministic")
Jika Neptune#ml.deterministic
predikat disertakan dalam kueri yang tidak juga termasukNeptune#ml.inductiveInference
, itu diabaikan begitu saja.
Neptune#ml.disableInductiveInferenceMetadataCache
Predikat ini adalah opsi untuk kueri inferensi induktif — yaitu, untuk kueri yang menyertakan predikat. Neptune#ml.inductiveInference
Untuk kueri inferensi induktif, Neptunus menggunakan file metadata yang disimpan di Amazon S3 untuk menentukan jumlah hop dan fanout saat membangun lingkungan. Neptunus biasanya menyimpan metadata model ini untuk menghindari pengambilan file dari Amazon S3 berulang kali. Caching dapat dinonaktifkan dengan memasukkan Neptune#ml.disableInductiveInferenceMetadataCache
predikat dalam kueri. Meskipun mungkin lebih lambat bagi Neptunus untuk mengambil metadata langsung dari Amazon S3, ini SageMaker berguna ketika titik akhir AI telah diperbarui setelah pelatihan ulang atau transformasi dan cache sudah basi.
Anda menyertakan Neptune#ml.disableInductiveInferenceMetadataCache
predikat dalam kueri seperti ini:
.with("Neptune#ml.disableInductiveInferenceMetadataCache")
Berikut adalah bagaimana kueri sampel mungkin terlihat di notebook Jupyter:
%%gremlin g.with("Neptune#ml.endpoint", "ep1") .with("Neptune#ml.iamRoleArn", "arn:aws:iam::123456789012:role/NeptuneMLRole") .with("Neptune#ml.disableInductiveInferenceMetadataCache") .V('101').properties("rating") .with("Neptune#ml.regression") .with("Neptune#ml.inductiveInference")
Neptune#ml.endpoint
Predikat Neptune#ml.endpoint
digunakan dalam langkah with()
untuk menentukan titik akhir inferensi, jika perlu:
.with("Neptune#ml.endpoint", "
the model's SageMaker AI inference endpoint
")
Anda dapat mengidentifikasi titik akhir baik dengan nya id
atau nyaURL. Sebagai contoh:
.with( "Neptune#ml.endpoint", "node-classification-movie-lens-endpoint" )
Atau:
.with( "Neptune#ml.endpoint", "https://runtime.sagemaker.us-east-1.amazonaws.com/endpoints/node-classification-movie-lens-endpoint/invocations" )
catatan
Jika Anda menyetel neptune_ml_endpoint parameter dalam grup parameter cluster Neptunus DB ke id
titik akhir URL atau, Anda tidak perlu menyertakan predikat Neptune#ml.endpoint
di setiap kueri.
Neptune#ml.iamRoleArn
Neptune#ml.iamRoleArn
digunakan dalam with()
langkah untuk menentukan ARN IAM peran eksekusi SageMaker AI, jika perlu:
.with("Neptune#ml.iamRoleArn", "
the ARN for the SageMaker AI execution IAM role
")
Untuk informasi tentang cara membuat IAM peran eksekusi SageMaker AI, lihatBuat NeptuneSageMaker IAMRole peran khusus.
catatan
Jika Anda menyetel neptune_ml_iam_role parameter di grup parameter cluster DB Neptunus ke ARN peran IAM eksekusi AI, SageMaker Anda tidak perlu menyertakan predikat Neptune#ml.iamRoleArn
di setiap kueri.
Neptunus #ml. inductiveInference
Inferensi transduktif diaktifkan secara default di Gremlin. Untuk membuat kueri inferensi induktif real-time, sertakan Neptune#ml.inductiveInference
predikat seperti ini:
.with("Neptune#ml.inductiveInference")
Jika grafik Anda dinamis, inferensi induktif seringkali merupakan pilihan terbaik, tetapi jika grafik Anda statis, inferensi transduktif lebih cepat dan lebih efisien.
Neptune#ml.limit
Neptune#ml.limit
Predikat secara opsional membatasi jumlah hasil yang dikembalikan per entitas:
.with( "Neptune#ml.limit",
2
)
Secara default, batasnya adalah 1, dan jumlah maksimum yang dapat diatur adalah 100.
Neptune#ml.threshold
Predikat Neptune#ml.threshold
secara opsional menetapkan ambang batas cutoff untuk skor hasil:
.with( "Neptune#ml.threshold",
0.5D
)
Hal ini memungkinkan Anda membuang semua hasil dengan skor di bawah ambang batas yang ditentukan.
Neptune#ml.classification
Neptune#ml.classification
Predikat dilampirkan pada properties()
langkah untuk menetapkan bahwa properti perlu diambil dari titik akhir SageMaker AI dari model klasifikasi node:
.properties( "
property key of the node classification model
" ).with( "Neptune#ml.classification" )
Neptune#ml.regression
Neptune#ml.regression
Predikat dilampirkan pada properties()
langkah untuk menetapkan bahwa properti perlu diambil dari titik akhir SageMaker AI dari model regresi node:
.properties( "
property key of the node regression model
" ).with( "Neptune#ml.regression" )
Neptune#ml.prediction
Predikat Neptune#ml.prediction
dilampirkan ke langkah in()
dan out()
untuk menetapkan bahwa ini adalah kueri prediksi link:
.in("
edge label of the link prediction model
").with("Neptune#ml.prediction").hasLabel("target node label
")
Neptune#ml.score
Neptune#ml.score
Predikat digunakan dalam kueri klasifikasi simpul atau tepi Gremlin untuk mengambil Skor kepercayaan pembelajaran mesin. Neptune#ml.score
Predikat harus diteruskan bersama dengan predikat kueri dalam properties()
langkah untuk mendapatkan skor kepercayaan ML untuk kueri klasifikasi simpul atau tepi.
Anda dapat menemukan contoh klasifikasi simpul dengan contoh klasifikasi simpul lainnya, dan contoh klasifikasi tepi di bagian klasifikasi tepi.