Lakukan inferensi machine learning - AWS IoT Greengrass

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Lakukan inferensi machine learning

Dengan AWS IoT Greengrass, Anda dapat melakukan inferensi machine learning (ML) di perangkat edge Anda pada data yang dihasilkan secara lokal dengan menggunakan model yang terlatih cloud. Anda memperoleh manfaat dari latensi rendah dan penghematan biaya dari menjalankan inferensi lokal, tetapi masih mendapat manfaat dari daya komputasi cloud untuk model pelatihan dan pemrosesan yang kompleks.

AWS IoT Greengrassmembuat langkah-langkah yang diperlukan untuk melakukan inferensi lebih efisien. Anda dapat melatih model inferensi Anda di mana saja dan men-deploy-nya secara lokal sebagai komponen machine learning. Misalnya, Anda dapat membuat dan melatih model pembelajaran mendalam di Amazon SageMaker atau model visi komputer di Amazon Lookout for Vision. Kemudian, Anda dapat menyimpan model ini di bucket Amazon S3, sehingga Anda dapat menggunakan model ini sebagai artefak di komponen Anda untuk melakukan inferensi pada perangkat inti Anda.

Bagaimana inferensi ML AWS IoT Greengrass bekerja

AWSmenyediakan komponen pembelajaran mesin yang dapat Anda gunakan untuk membuat penerapan satu langkah untuk melakukan inferensi pembelajaran mesin di perangkat Anda. Anda juga dapat menggunakan komponen ini sebagai templat untuk membuat komponen kustom untuk memenuhi kebutuhan spesifik Anda.

AWSmenyediakan kategori komponen pembelajaran mesin berikut:

  • Komponen model—Berisi model machine learning sebagai artefak Greengrass.

  • Komponen waktu aktif—Berisi skrip yang menginstal kerangka kerja machine learning dan dependensinya pada perangkat inti Greengrass.

  • Komponen Inferensi—Berisi kode inferensi dan mencakup dependensi komponen untuk menginstal kerangka machine learning dan mengunduh model machine learning yang telah dilatih sebelumnya.

Setiap penerapan yang Anda buat untuk melakukan inferensi pembelajaran mesin terdiri dari setidaknya satu komponen yang menjalankan aplikasi inferensi Anda, menginstal kerangka kerja pembelajaran mesin, dan mengunduh model pembelajaran mesin Anda. Untuk melakukan inferensi sampel dengan komponen AWS -provided, Anda menerapkan komponen inferensi ke perangkat inti Anda, yang secara otomatis menyertakan model dan komponen runtime yang sesuai sebagai dependensi. Untuk menyesuaikan penerapan, Anda dapat menyambungkan atau menukar komponen model sampel dengan komponen model khusus, atau Anda dapat menggunakan resep komponen untuk komponen yang AWS disediakan sebagai templat untuk membuat komponen inferensi, model, dan runtime kustom Anda sendiri.

Untuk melakukan inferensi pembelajaran mesin dengan menggunakan komponen khusus:

  1. Buat komponen model. Komponen ini berisi model pembelajaran mesin yang ingin Anda gunakan untuk melakukan inferensi. AWSmenyediakan contoh model DLR dan Lite yang telah dilatih sebelumnya. TensorFlow Untuk menggunakan model kustom, buat komponen model Anda sendiri.

  2. Buat komponen waktu aktif. Komponen ini berisi skrip yang diperlukan untuk menginstal runtime pembelajaran mesin untuk model Anda. AWSmenyediakan komponen runtime sampel untuk Deep Learning Runtime (DLR) dan Lite. TensorFlow Untuk menggunakan waktu aktif lain dengan model kustom Anda dan kode inferensi, buat komponen waktu aktif Anda sendiri.

  3. Buat komponen inferensi. Komponen ini berisi kode inferensi Anda, dan menyertakan komponen model dan runtime Anda sebagai dependensi. AWSmenyediakan komponen inferensi sampel untuk klasifikasi gambar dan deteksi objek menggunakan DLR dan Lite. TensorFlow Untuk melakukan jenis inferensi lainnya, atau untuk menggunakan model dan waktu aktif kustom, buat komponen inferensi Anda sendiri.

  4. Deploy komponen inferensi. Saat Anda menggunakan komponen ini, AWS IoT Greengrass juga secara otomatis men-deploy dependensi komponen model dan waktu aktif.

Untuk memulai komponen yang disediakan oleh AWS, lihat Tutorial: Lakukan inferensi klasifikasi gambar sampel menggunakan Lite TensorFlow .

Untuk informasi selengkapnya tentang cara membuat komponen machine learning kustom, lihat Sesuaikan komponen machine learning Anda.

Apa yang berbeda di AWS IoT Greengrass versi 2?

AWS IoT Greengrassmengkonsolidasikan unit fungsional untuk pembelajaran mesin—seperti model, runtime, dan kode inferensi—ke dalam komponen yang memungkinkan Anda menggunakan proses satu langkah untuk menginstal runtime machine learning, mengunduh model terlatih, dan melakukan inferensi di perangkat Anda.

Dengan menggunakan komponen pembelajaran mesin AWS yang disediakan, Anda memiliki fleksibilitas untuk mulai melakukan inferensi pembelajaran mesin dengan kode inferensi sampel dan model yang telah dilatih sebelumnya. Anda dapat memasang komponen model kustom untuk menggunakan model terlatih kustom Anda sendiri dengan komponen inferensi dan waktu aktif yang disediakan oleh AWS. Untuk solusi machine learning yang sepenuhnya disesuaikan, Anda dapat menggunakan komponen publik sebagai templat untuk membuat komponen khusus dan menggunakan jenis waktu aktif, model, atau inferensi apa pun yang Anda inginkan.

Persyaratan

Untuk membuat dan menggunakan komponen pembelajaran mesin, Anda harus memiliki yang berikut:

  • Sebuah perangkat inti Greengrass. Jika Anda tidak memilikinya, lihat Tutorial: Memulai dengan AWS IoT Greengrass V2.

  • Ruang penyimpanan lokal minimal 500 MB untuk menggunakan komponen machine learning sampel yang disediakan oleh AWS.

Sumber model yang didukung

AWS IoT Greengrass mendukung dengan menggunakan model machine learning yang terlatih khusus yang disimpan di Amazon S3. Anda juga dapat menggunakan pekerjaan pengemasan SageMaker tepi Amazon untuk langsung membuat komponen model untuk model yang SageMaker dikompilasi NEO Anda. Untuk informasi tentang menggunakan SageMaker Edge Manager denganAWS IoT Greengrass, lihatGunakan Amazon SageMaker Edge Manager di perangkat inti Greengrass. Anda juga dapat menggunakan pekerjaan pengemasan model Lookout for Vision Amazon Lookout for Vision untuk membuat komponen model untuk model Lookout for Vision Anda. Untuk informasi selengkapnya tentang menggunakan Lookout for Vision AWS IoT Greengrass with, lihat. Gunakan Amazon Lookout for Vision

Bucket S3 yang berisi model Anda harus memenuhi persyaratan berikut:

  • Mereka tidak boleh dienkripsi menggunakan SSE-C. Untuk bucket yang menggunakan enkripsi sisi server, inferensi pembelajaran AWS IoT Greengrass mesin saat ini hanya mendukung opsi enkripsi SSE-S3 atau SSE-KMS. Untuk informasi selengkapnya tentang opsi enkripsi sisi server, lihat Melindungi data menggunakan enkripsi sisi server di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.

  • Nama mereka tidak boleh menyertakan periode (.). Untuk informasi selengkapnya, lihat aturan tentang penggunaan bucket gaya hosted-virtual dengan SSL di Aturan untuk penamaan bucket di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.

  • Bucket S3 yang menyimpan sumber model Anda harus berada di Akun AWS dan Wilayah AWS sebagai komponen machine learning.

  • AWS IoT Greengrass harus memiliki izin read ke sumber model. Untuk memungkinkan AWS IoT Greengrass untuk mengakses bucket S3, peran perangkat Greengrass harus mengizinkan tindakan s3:GetObject. Untuk informasi lebih lanjut tentang peran perangkat, lihat Otorisasi perangkat inti untuk berinteraksi dengan AWS layanan.

Waktu aktif machine learning yang didukung

AWS IoT Greengrass memungkinkan Anda membuat komponen khusus untuk menggunakan waktu aktif machine learning pilihan Anda untuk melakukan inferensi machine learning dengan model yang terlatih khusus Anda. Untuk informasi selengkapnya tentang cara membuat komponen machine learning kustom, lihat Sesuaikan komponen machine learning Anda.

Untuk membuat proses memulai pembelajaran mesin lebih efisien, AWS IoT Greengrass berikan contoh inferensi, model, dan komponen runtime yang menggunakan runtime machine learning berikut:

AWS-menyediakan komponen pembelajaran mesin

Tabel berikut mencantumkan komponen AWS yang disediakan yang digunakan untuk pembelajaran mesin.

catatan

Beberapa komponen AWS yang disediakan bergantung pada versi minor spesifik dari inti Greengrass. Karena ketergantungan ini, Anda perlu memperbarui komponen ini saat memperbarui inti Greengrass ke versi minor baru. Untuk informasi tentang versi spesifik dari inti yang masing-masing komponen bergantung padanya, lihat topik komponen yang sesuai. Untuk informasi selengkapnya terkait cara memperbarui inti, lihat Perbarui perangkat lunak inti AWS IoT Greengrass (OTA).

Komponen Deskripsi Jenis komponen Sistem operasi yang didukung Sumber terbuka
Lookout for Vision Edge Agent Menyebarkan runtime Amazon Lookout for Vision pada perangkat inti Greengrass, sehingga Anda dapat menggunakan visi komputer untuk menemukan cacat pada produk industri. Generik Linux Tidak
SageMaker Manajer Tepi Menyebarkan agen Amazon SageMaker Edge Manager di perangkat inti Greengrass. Generik Linux, Windows Tidak
Klasifikasi citra DLR Komponen inferensi yang menggunakan penyimpanan model klasifikasi gambar DLR dan komponen waktu aktif DLR sebagai dependensi akan menginstal DLR, men-download model klasifikasi gambar sampel, dan melakukan inferensi klasifikasi gambar pada perangkat yang didukung. Generik Linux, Windows Tidak
Deteksi objek DLR Komponen inferensi yang menggunakan penyimpanan model deteksi gambar DLR dan komponen waktu aktif DLR sebagai dependensi akan menginstal DLR, men-download sampel model deteksi, dan melakukan inferensi deteksi gambar pada perangkat yang didukung. Generik Linux, Windows Tidak
Penyimpanan model klasifikasi gambar DLR Komponen model yang berisi sampel ResNet -50 model klasifikasi gambar sebagai artefak Greengrass. Generik Linux, Windows Tidak
Penyimpanan model deteksi DLR Komponen model yang berisi sampel model deteksi objek YOLOv3 sebagai artefak Greengrass. Generik Linux, Windows Tidak
Runtime DLR Komponen waktu aktif yang berisi skrip instalasi yang digunakan untuk menginstal DLR dan dependensinya pada perangkat inti Greengrass. Generik Linux, Windows Tidak
TensorFlow Klasifikasi gambar ringan Komponen inferensi yang menggunakan penyimpanan model klasifikasi gambar TensorFlow Lite dan komponen runtime TensorFlow Lite sebagai dependensi untuk menginstal TensorFlow Lite, mengunduh model klasifikasi gambar sampel, dan melakukan inferensi klasifikasi gambar pada perangkat yang didukung. Generik Linux, Windows Tidak
TensorFlow Deteksi objek Lite Komponen inferensi yang menggunakan penyimpanan model deteksi objek TensorFlow Lite dan komponen runtime TensorFlow Lite sebagai dependensi untuk menginstal TensorFlow Lite, mengunduh model deteksi objek sampel, dan melakukan inferensi deteksi objek pada perangkat yang didukung. Generik Linux, Windows Tidak
TensorFlow Toko model klasifikasi gambar Lite Komponen model yang berisi contoh model MobileNet v1 sebagai artefak Greengrass. Generik Linux, Windows Tidak
TensorFlow Toko model deteksi objek Lite Komponen model yang berisi contoh model Single Shot Detection (SSD) sebagai MobileNet artefak Greengrass. Generik Linux, Windows Tidak
TensorFlow Runtime ringan Komponen runtime yang berisi skrip instalasi yang digunakan untuk menginstal TensorFlow Lite dan dependensinya pada perangkat inti Greengrass. Generik Linux, Windows Tidak