Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Membuat titik akhir inferensi untuk kueri

Mode fokus
Membuat titik akhir inferensi untuk kueri - Amazon Neptune

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Titik akhir inferensi memungkinkan Anda mengkueri satu model tertentu yang dibangun oleh proses pelatihan model. Titik akhir menempel pada model dengan performa terbaik dari jenis yang diberikan yang dihasilkan proses pelatihan. Endpoint ini kemudian dapat menerima kueri Gremlin dari Neptune dan mengembalikan prediksi model tersebut untuk input dalam kueri. Setelah Anda membuat titik akhir inferensi, itu tetap aktif sampai Anda menghapusnya.

Mengelola endpoint inferensi untuk Neptune ML

Setelah Anda menyelesaikan pelatihan model pada data yang Anda ekspor dari Neptune, Anda dapat membuat titik akhir inferensi menggunakan perintah curl (atau awscurl) seperti berikut:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Anda juga dapat membuat titik akhir inferensi dari model yang dibuat oleh pekerjaan transformasi model yang telah selesai, dengan cara yang hampir sama:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-transform job-id of a completed job)" }'

Rincian tentang cara menggunakan perintah ini dijelaskan dalamPerintah titik akhir, bersama dengan informasi tentang cara mendapatkan status titik akhir, cara menghapus titik akhir, dan cara membuat daftar semua titik akhir inferensi.

Di halaman ini

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.