Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Mengelola titik akhir inferensi menggunakan perintah endpoints
Anda menggunakan perintah endpoints
Neptune ML untuk membuat titik akhir inferensi, memeriksa statusnya, menghapus, atau membuat daftar titik akhir inferensi yang ada.
Pembuatan titik akhir inferensi menggunakan perintah endpoints
Neptune ML
Perintah Neptunus endpoints
Neptunus untuk membuat titik akhir inferensi dari model yang dibuat oleh pekerjaan pelatihan terlihat seperti ini:
curl \ -X POST https://
(your Neptune endpoint)
/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)
", "mlModelTrainingJobId": "(the model-training job-id of a completed job)
" }'
Perintah Neptunus endpoints
Neptunus untuk memperbarui titik akhir inferensi yang ada dari model yang dibuat oleh pekerjaan pelatihan terlihat seperti ini:
curl \ -X POST https://
(your Neptune endpoint)
/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)
", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)
" }'
Perintah Neptunus endpoints
Neptunus untuk membuat titik akhir inferensi dari model yang dibuat oleh pekerjaan transformasi model terlihat seperti ini:
curl \ -X POST https://
(your Neptune endpoint)
/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)
", "mlModelTransformJobId": "(the model-training job-id of a completed job)
" }'
Perintah Neptunus endpoints
Neptunus untuk memperbarui titik akhir inferensi yang ada dari model yang dibuat oleh pekerjaan transformasi model terlihat seperti ini:
curl \ -X POST https://
(your Neptune endpoint)
/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)
", "update" : "true", "mlModelTransformJobId": "(the model-training job-id of a completed job)
" }'
Parameter untuk pembuatan titik akhir inferensi endpoints
-
id
– (Opsional) Pengidentifikasi unik untuk titik akhir inferensi baru.Tipe: string. Default: Nama berstampel waktu yang otomatis dihasilkan.
-
mlModelTrainingJobId
— Id pekerjaan dari pekerjaan pelatihan model yang telah diselesaikan yang telah menciptakan model yang akan ditunjukkan oleh titik akhir inferensi.Tipe: string.
Catatan: Anda harus menyediakan salah satu
mlModelTrainingJobId
ataumlModelTransformJobId
. -
mlModelTransformJobId
— Id pekerjaan dari pekerjaan transformasi model yang telah selesai.Tipe: string.
Catatan: Anda harus menyediakan salah satu
mlModelTrainingJobId
ataumlModelTransformJobId
. -
update
— (Opsional) Jika ada, parameter ini menunjukkan bahwa ini adalah permintaan pembaruan.Tipe: Boolean. Default:
false
Catatan: Anda harus menyediakan salah satu
mlModelTrainingJobId
ataumlModelTransformJobId
. -
neptuneIamRoleArn
— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
-
modelName
– (Opsional) Jenis model untuk latihan. Secara default model ML secara otomatis didasarkan padamodelType
yang digunakan dalam pemrosesan data, tetapi Anda dapat menentukan jenis model yang berbeda di sini.Tipe: string. Default:
rgcn
untuk grafik heterogen dankge
untuk grafik pengetahuan. Nilai yang valid: Untuk grafik heterogen:rgcn
. Untuk grafik pengetahuan:kge
,transe
,distmult
, ataurotate
. -
instanceType
– (Opsional) Jenis instans ML yang digunakan untuk servis online.Tipe: string. Default:
ml.m5.xlarge
.Catatan: Memilih instans ML untuk titik akhir inferensi tergantung pada jenis tugas, ukuran grafik, dan anggaran Anda. Lihat Pemilihan instans untuk titik akhir inferensi.
-
instanceCount
– (Opsional) Jumlah minimum instans Amazon EC2 untuk mendeploy ke titik akhir untuk prediksi.Tipe: integer. Default:
1
. -
volumeEncryptionKMSKey
— (Opsional) Kunci AWS Key Management Service (AWS KMS) yang SageMaker digunakan untuk mengenkripsi data pada volume penyimpanan yang dilampirkan ke instance komputasi HTML yang menjalankan titik akhir.Tipe: string. Default: tidak ada.
Mendapatkan status titik akhir inferensi menggunakan perintah endpoints
Neptune ML
Perintah endpoints
Neptune ML sampel untuk status titik akhir instans terlihat seperti ini:
curl -s \ "https://
(your Neptune endpoint)
/ml/endpoints/(the inference endpoint ID)
" \ | python -m json.tool
Parameter untuk status titik akhir instans endpoints
-
id
– (Wajib) Pengenal unik dari titik akhir inferensi.Tipe: string.
-
neptuneIamRoleArn
— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
Menghapus titik akhir instans menggunakan perintah endpoints
Neptune ML
Perintah endpoints
Neptune ML sampel untuk menghapus titik akhir instans terlihat seperti ini:
curl -s \ -X DELETE "https://
(your Neptune endpoint)
/ml/endpoints/(the inference endpoint ID)
"
Atau ini:
curl -s \ -X DELETE "https://
(your Neptune endpoint)
/ml/endpoints/(the inference endpoint ID)
?clean=true"
Parameter untuk endpoints
menghapus sebuah titik akhir inferensi
-
id
– (Wajib) Pengenal unik dari titik akhir inferensi.Tipe: string.
-
neptuneIamRoleArn
— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
-
clean
— (Opsional) Menunjukkan bahwa semua artefak yang terkait dengan titik akhir ini juga harus dihapus.Tipe: Boolean. Default:
FALSE
.
Membuat daftar titik akhir inferensi menggunakan perintah endpoints
Neptune ML
Perintah Neptunus Neptunus endpoints
untuk mencantumkan titik akhir inferensi terlihat seperti ini:
curl -s "https://
(your Neptune endpoint)
/ml/endpoints" \ | python -m json.tool
Atau ini:
curl -s "https://
(your Neptune endpoint)
/ml/endpoints?maxItems=3" \ | python -m json.tool
Parameter untuk dataprocessing
membuat daftar titik akhir inferensi
-
maxItems
– (Opsional) Jumlah maksimum item yang akan dikembalikan.Tipe: integer. Default:
10
. Nilai maksimum yang diperbolehkan:1024
. -
neptuneIamRoleArn
— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke dan sumber daya Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.