Menjalankan model Amazon Lookout for Vision Anda yang terlatih - Amazon Lookout for Vision

Pemberitahuan akhir dukungan: Pada 31 Oktober 2025, AWS akan menghentikan dukungan untuk Amazon Lookout for Vision. Setelah 31 Oktober 2025, Anda tidak akan lagi dapat mengakses konsol Lookout for Vision atau sumber daya Lookout for Vision. Untuk informasi lebih lanjut, kunjungi posting blog ini.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Menjalankan model Amazon Lookout for Vision Anda yang terlatih

Untuk mendeteksi anomali dalam gambar dengan model Anda, Anda harus terlebih dahulu memulai model Anda dengan operasi. StartModel Konsol Amazon Lookout for Vision AWS CLI menyediakan perintah yang dapat Anda gunakan untuk memulai dan menghentikan model Anda. Bagian ini mencakup contoh kode yang dapat Anda gunakan.

Setelah model Anda dimulai, Anda dapat menggunakan DetectAnomalies operasi untuk mendeteksi anomali dalam gambar. Untuk informasi selengkapnya, lihat Mendeteksi anomali dalam gambar.

Unit inferensi

Saat memulai model, Amazon Lookout for Vision menyediakan minimal satu sumber daya komputasi, yang dikenal sebagai unit inferensi. Anda menentukan jumlah unit inferensi yang akan digunakan dalam parameter MinInferenceUnits input ke StartModel API. Alokasi default untuk model adalah 1 unit inferensi.

penting

Anda dikenakan biaya untuk jumlah jam yang dijalankan model Anda dan untuk jumlah unit inferensi yang digunakan model Anda saat berjalan, berdasarkan cara Anda mengonfigurasi pengoperasian model Anda. Misalnya, jika Anda memulai model dengan dua unit inferensi dan menggunakan model selama 8 jam, Anda akan dikenakan biaya selama 16 jam inferensi (8 jam waktu berjalan * dua unit inferensi). Untuk informasi selengkapnya, lihat Amazon Lookout for Vision Pricing. Jika Anda tidak secara eksplisit menghentikan model Anda dengan menelepon StopModel, Anda dikenakan biaya bahkan jika Anda tidak secara aktif menganalisis gambar dengan model Anda.

Transaksi per detik (TPS) yang didukung oleh unit inferensi tunggal dipengaruhi oleh hal-hal berikut:

  • Algoritma yang digunakan Lookout for Vision untuk melatih model. Saat Anda melatih model, beberapa model dilatih. Lookout for Vision memilih model dengan kinerja terbaik berdasarkan ukuran dataset dan komposisi gambar normal dan anomali.

  • Gambar beresolusi lebih tinggi membutuhkan lebih banyak waktu untuk analisis.

  • Gambar berukuran lebih kecil (diukur dalam MB) dianalisis lebih cepat daripada gambar yang lebih besar.

Mengelola throughput dengan unit inferensi

Anda dapat menambah atau mengurangi throughput model Anda tergantung pada permintaan pada aplikasi Anda. Untuk meningkatkan throughput, gunakan unit inferensi tambahan. Setiap unit inferensi tambahan meningkatkan kecepatan pemrosesan Anda dengan satu unit inferensi. Untuk informasi tentang menghitung jumlah unit inferensi yang Anda butuhkan, lihat Menghitung unit inferensi untuk Amazon Rekognition Custom Labels dan Amazon Lookout for Vision model. Jika Anda ingin mengubah throughput model yang didukung, Anda memiliki dua opsi:

Menambahkan atau menghapus unit inferensi secara manual

Hentikan model dan kemudian restart dengan jumlah unit inferensi yang diperlukan. Kerugian dengan pendekatan ini adalah model tidak dapat menerima permintaan saat memulai ulang dan tidak dapat digunakan untuk menangani lonjakan permintaan. Gunakan pendekatan ini jika model Anda memiliki throughput yang stabil dan kasus penggunaan Anda dapat mentolerir waktu henti 10-20 menit. Contohnya adalah jika Anda ingin melakukan batch panggilan ke model Anda menggunakan jadwal mingguan.

Unit inferensi skala otomatis

Jika model Anda harus mengakomodasi lonjakan permintaan, Amazon Lookout for Vision dapat secara otomatis menskalakan jumlah unit inferensi yang digunakan model Anda. Seiring meningkatnya permintaan, Amazon Lookout for Vision menambahkan unit inferensi tambahan ke model dan menghapusnya saat permintaan menurun.

Untuk membiarkan Lookout for Vision secara otomatis menskalakan unit inferensi untuk model, mulai model dan atur jumlah maksimum unit inferensi yang dapat digunakan dengan menggunakan parameter. MaxInferenceUnits Menetapkan jumlah maksimum unit inferensi memungkinkan Anda mengelola biaya menjalankan model dengan membatasi jumlah unit inferensi yang tersedia untuknya. Jika Anda tidak menentukan jumlah maksimum unit, Lookout for Vision tidak akan secara otomatis menskalakan model Anda, hanya menggunakan jumlah unit inferensi yang Anda mulai. Untuk informasi mengenai jumlah maksimum unit inferensi, lihat Service Quotas.

Anda juga dapat menentukan jumlah minimum unit inferensi dengan menggunakan MinInferenceUnits parameter. Ini memungkinkan Anda menentukan throughput minimum untuk model Anda, di mana satu unit inferensi mewakili 1 jam waktu pemrosesan.

catatan

Anda tidak dapat mengatur jumlah maksimum unit inferensi dengan konsol Lookout for Vision. Sebagai gantinya, tentukan parameter MaxInferenceUnits input ke StartModel operasi.

Lookout for Vision menyediakan metrik CloudWatch Amazon Logs berikut yang dapat Anda gunakan untuk menentukan status penskalaan otomatis saat ini untuk model.

Metrik Deskripsi

DesiredInferenceUnits

Jumlah unit inferensi di mana Lookout for Vision ditingkatkan atau turun.

InServiceInferenceUnits

Jumlah unit inferensi yang digunakan model.

Jika DesiredInferenceUnits =InServiceInferenceUnits, Lookout for Vision saat ini tidak menskalakan jumlah unit inferensi.

Jika DesiredInferenceUnits >InServiceInferenceUnits, Lookout for Vision meningkatkan nilai. DesiredInferenceUnits

Jika DesiredInferenceUnits <InServiceInferenceUnits, Lookout for Vision menurunkan nilai. DesiredInferenceUnits

Untuk informasi selengkapnya mengenai metrik yang ditampilkan oleh Lookout for Vision dan dimensi pemfilteran, lihat Memantau Lookout for Vision dengan Amazon. CloudWatch

Untuk mengetahui jumlah maksimum unit inferensi yang Anda minta untuk model, panggil DescribeModeldan periksa MaxInferenceUnits bidang dalam respons.

Availability Zone

Amazon Lookout for Vision; mendistribusikan unit inferensi di beberapa Availability Zone dalam AWS suatu Wilayah untuk meningkatkan ketersediaan. Untuk informasi selengkapnya, lihat Availability Zone. Untuk membantu melindungi model produksi Anda dari pemadaman Availability Zone dan kegagalan unit inferensi, mulailah model produksi Anda dengan setidaknya dua unit inferensi.

Jika terjadi pemadaman Availability Zone, semua unit inferensi di Availability Zone tidak tersedia dan kapasitas model berkurang. Panggilan ke DetectAnomaliesdidistribusikan kembali di seluruh unit inferensi yang tersisa. Panggilan tersebut berhasil jika tidak melebihi Transaksi Per Detik (TPS) yang didukung dari unit inferensi yang tersisa. Setelah AWS memperbaiki Availability Zone, unit inferensi dimulai ulang, dan kapasitas penuh dipulihkan.

Jika unit inferensi tunggal gagal, Amazon Lookout for Vision secara otomatis memulai unit inferensi baru di Availability Zone yang sama. Kapasitas model dikurangi sampai unit inferensi baru dimulai.