Lakukan inferensi machine learning - AWS IoT Greengrass

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Lakukan inferensi machine learning

Dengan AWS IoT Greengrass, Anda dapat melakukan inferensi pembelajaran mesin (ML) di perangkat edge pada data yang dihasilkan secara lokal menggunakan model terlatih cloud. Anda memperoleh manfaat dari latensi rendah dan penghematan biaya dari menjalankan inferensi lokal, tetapi masih mendapat manfaat dari daya komputasi cloud untuk model pelatihan dan pemrosesan yang kompleks.

AWS IoT Greengrass membuat langkah-langkah yang diperlukan untuk melakukan inferensi lebih efisien. Anda dapat melatih model inferensi Anda di mana saja dan men-deploy-nya secara lokal sebagai komponen machine learning. Misalnya, Anda dapat membuat dan melatih model pembelajaran mendalam di Amazon SageMaker AI atau model visi komputer di Amazon Lookout for Vision. Kemudian, Anda dapat menyimpan model ini di bucket Amazon S3, sehingga Anda dapat menggunakan model ini sebagai artefak di komponen Anda untuk melakukan inferensi pada perangkat inti Anda.

Cara kerja inferensi AWS IoT Greengrass ML

AWS menyediakan komponen pembelajaran mesin yang dapat Anda gunakan untuk membuat penerapan satu langkah untuk melakukan inferensi pembelajaran mesin di perangkat Anda. Anda juga dapat menggunakan komponen ini sebagai templat untuk membuat komponen kustom untuk memenuhi kebutuhan spesifik Anda.

AWS menyediakan kategori komponen pembelajaran mesin berikut:

  • Komponen model—Berisi model machine learning sebagai artefak Greengrass.

  • Komponen waktu aktif—Berisi skrip yang menginstal kerangka kerja machine learning dan dependensinya pada perangkat inti Greengrass.

  • Komponen Inferensi—Berisi kode inferensi dan mencakup dependensi komponen untuk menginstal kerangka machine learning dan mengunduh model machine learning yang telah dilatih sebelumnya.

Setiap penerapan yang Anda buat untuk melakukan inferensi pembelajaran mesin terdiri dari setidaknya satu komponen yang menjalankan aplikasi inferensi Anda, menginstal kerangka kerja pembelajaran mesin, dan mengunduh model pembelajaran mesin Anda. Untuk melakukan inferensi sampel dengan komponen AWS-provided, Anda menerapkan komponen inferensi ke perangkat inti Anda, yang secara otomatis menyertakan model dan komponen runtime yang sesuai sebagai dependensi. Untuk menyesuaikan penerapan, Anda dapat menyambungkan atau menukar komponen model sampel dengan komponen model khusus, atau Anda dapat menggunakan resep komponen untuk komponen yang AWS disediakan sebagai templat untuk membuat komponen inferensi, model, dan runtime kustom Anda sendiri.

Untuk melakukan inferensi pembelajaran mesin dengan menggunakan komponen khusus:

  1. Buat komponen model. Komponen ini berisi model pembelajaran mesin yang ingin Anda gunakan untuk melakukan inferensi. AWS menyediakan contoh model DLR dan Lite yang telah dilatih sebelumnya. TensorFlow Untuk menggunakan model kustom, buat komponen model Anda sendiri.

  2. Buat komponen waktu aktif. Komponen ini berisi skrip yang diperlukan untuk menginstal runtime pembelajaran mesin untuk model Anda. AWS menyediakan komponen runtime sampel untuk Deep Learning Runtime (DLR) dan Lite. TensorFlow Untuk menggunakan waktu aktif lain dengan model kustom Anda dan kode inferensi, buat komponen waktu aktif Anda sendiri.

  3. Buat komponen inferensi. Komponen ini berisi kode inferensi Anda, dan menyertakan komponen model dan runtime Anda sebagai dependensi. AWS menyediakan komponen inferensi sampel untuk klasifikasi gambar dan deteksi objek menggunakan DLR dan Lite. TensorFlow Untuk melakukan jenis inferensi lainnya, atau untuk menggunakan model dan waktu aktif kustom, buat komponen inferensi Anda sendiri.

  4. Deploy komponen inferensi. Saat Anda menerapkan komponen ini, AWS IoT Greengrass juga secara otomatis menerapkan dependensi komponen model dan runtime.

Untuk memulai dengan komponen AWS-provided, lihatTutorial: Lakukan inferensi klasifikasi gambar sampel menggunakan Lite TensorFlow .

Untuk informasi selengkapnya tentang cara membuat komponen machine learning kustom, lihat Sesuaikan komponen machine learning Anda.

Apa yang berbeda di AWS IoT Greengrass versi 2?

AWS IoT Greengrass mengkonsolidasikan unit fungsional untuk pembelajaran mesin—seperti model, runtime, dan kode inferensi—ke dalam komponen yang memungkinkan Anda menggunakan proses satu langkah untuk menginstal runtime machine learning, mengunduh model terlatih, dan melakukan inferensi di perangkat Anda.

Dengan menggunakan komponen pembelajaran mesin AWS yang disediakan, Anda memiliki fleksibilitas untuk mulai melakukan inferensi pembelajaran mesin dengan kode inferensi sampel dan model yang telah dilatih sebelumnya. Anda dapat menyambungkan komponen model khusus untuk menggunakan model terlatih khusus Anda sendiri dengan komponen inferensi dan runtime yang disediakan. AWS Untuk solusi machine learning yang sepenuhnya disesuaikan, Anda dapat menggunakan komponen publik sebagai templat untuk membuat komponen khusus dan menggunakan jenis waktu aktif, model, atau inferensi apa pun yang Anda inginkan.

Persyaratan

Untuk membuat dan menggunakan komponen pembelajaran mesin, Anda harus memiliki yang berikut:

  • Sebuah perangkat inti Greengrass. Jika Anda tidak memilikinya, lihat Tutorial: Memulai dengan AWS IoT Greengrass V2.

  • Minimal 500 MB ruang penyimpanan lokal untuk menggunakan komponen pembelajaran mesin sampel yang AWS disediakan.

Sumber model yang didukung

AWS IoT Greengrass mendukung penggunaan model pembelajaran mesin terlatih khusus yang disimpan di Amazon S3. Anda juga dapat menggunakan pekerjaan pengemasan Amazon SageMaker AI edge untuk langsung membuat komponen model untuk model yang dikompilasi SageMaker AI Neo Anda. Untuk informasi tentang menggunakan SageMaker AI Edge Manager dengan AWS IoT Greengrass, lihatGunakan Amazon SageMaker AI Edge Manager di perangkat inti Greengrass. Anda juga dapat menggunakan pekerjaan pengemasan model Lookout for Vision Amazon Lookout for Vision untuk membuat komponen model untuk model Lookout for Vision Anda. Untuk informasi selengkapnya tentang penggunaan Lookout for Vision AWS IoT Greengrass with, lihat. Gunakan Amazon Lookout for Vision di perangkat inti Greengrass

Bucket S3 yang berisi model Anda harus memenuhi persyaratan berikut:

  • Mereka tidak boleh dienkripsi menggunakan SSE-C. Untuk bucket yang menggunakan enkripsi sisi server, inferensi pembelajaran AWS IoT Greengrass mesin saat ini hanya mendukung opsi enkripsi SSE-S3 atau SSE-KMS. Untuk informasi selengkapnya tentang opsi enkripsi sisi server, lihat Melindungi data menggunakan enkripsi sisi server di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.

  • Nama mereka tidak boleh menyertakan periode (.). Untuk informasi selengkapnya, lihat aturan tentang penggunaan bucket gaya hosted-virtual dengan SSL di Aturan untuk penamaan bucket di Panduan Pengguna Layanan Penyimpanan Sederhana Amazon.

  • Bucket S3 yang menyimpan sumber model Anda harus sama Akun AWS dan Wilayah AWS sebagai komponen pembelajaran mesin Anda.

  • AWS IoT Greengrass harus memiliki read izin ke sumber model. AWS IoT Greengrass Untuk mengaktifkan akses bucket S3, peran perangkat Greengrass harus memungkinkan tindakan. s3:GetObject Untuk informasi lebih lanjut tentang peran perangkat, lihat Otorisasi perangkat inti untuk berinteraksi dengan AWS layanan.

Waktu aktif machine learning yang didukung

AWS IoT Greengrass memungkinkan Anda membuat komponen khusus untuk menggunakan runtime pembelajaran mesin apa pun pilihan Anda untuk melakukan inferensi pembelajaran mesin dengan model terlatih khusus Anda. Untuk informasi selengkapnya tentang cara membuat komponen machine learning kustom, lihat Sesuaikan komponen machine learning Anda.

Untuk membuat proses memulai pembelajaran mesin lebih efisien, AWS IoT Greengrass berikan contoh inferensi, model, dan komponen runtime yang menggunakan runtime machine learning berikut:

AWS-menyediakan komponen pembelajaran mesin

Tabel berikut mencantumkan komponen AWS yang disediakan yang digunakan untuk pembelajaran mesin.

catatan

Beberapa komponen AWS yang disediakan bergantung pada versi minor spesifik dari inti Greengrass. Karena ketergantungan ini, Anda perlu memperbarui komponen ini saat memperbarui inti Greengrass ke versi minor baru. Untuk informasi tentang versi spesifik dari inti yang masing-masing komponen bergantung padanya, lihat topik komponen yang sesuai. Untuk informasi selengkapnya terkait cara memperbarui inti, lihat Perbarui perangkat lunak AWS IoT Greengrass Core (OTA).

Komponen Deskripsi Jenis komponen Sistem operasi yang didukung Sumber terbuka
Lookout for Vision Edge Agent Menyebarkan runtime Amazon Lookout for Vision pada perangkat inti Greengrass, sehingga Anda dapat menggunakan visi komputer untuk menemukan cacat pada produk industri. Generik Linux Tidak
SageMaker Manajer AI Edge Menyebarkan agen Amazon SageMaker AI Edge Manager di perangkat inti Greengrass. Generik Linux, Windows Tidak
Klasifikasi citra DLR Komponen inferensi yang menggunakan penyimpanan model klasifikasi gambar DLR dan komponen waktu aktif DLR sebagai dependensi akan menginstal DLR, men-download model klasifikasi gambar sampel, dan melakukan inferensi klasifikasi gambar pada perangkat yang didukung. Generik Linux, Windows Tidak
Deteksi objek DLR Komponen inferensi yang menggunakan penyimpanan model deteksi gambar DLR dan komponen waktu aktif DLR sebagai dependensi akan menginstal DLR, men-download sampel model deteksi, dan melakukan inferensi deteksi gambar pada perangkat yang didukung. Generik Linux, Windows Tidak
Penyimpanan model klasifikasi gambar DLR Komponen model yang berisi sampel ResNet -50 model klasifikasi gambar sebagai artefak Greengrass. Generik Linux, Windows Tidak
Penyimpanan model deteksi DLR Komponen model yang berisi model deteksi YOLOv3 objek sampel sebagai artefak Greengrass. Generik Linux, Windows Tidak
Runtime DLR Komponen waktu aktif yang berisi skrip instalasi yang digunakan untuk menginstal DLR dan dependensinya pada perangkat inti Greengrass. Generik Linux, Windows Tidak
TensorFlow Klasifikasi gambar ringan Komponen inferensi yang menggunakan penyimpanan model klasifikasi gambar TensorFlow Lite dan komponen runtime TensorFlow Lite sebagai dependensi untuk menginstal TensorFlow Lite, mengunduh model klasifikasi gambar sampel, dan melakukan inferensi klasifikasi gambar pada perangkat yang didukung. Generik Linux, Windows Tidak
TensorFlow Deteksi objek Lite Komponen inferensi yang menggunakan penyimpanan model deteksi objek TensorFlow Lite dan komponen runtime TensorFlow Lite sebagai dependensi untuk menginstal TensorFlow Lite, mengunduh model deteksi objek sampel, dan melakukan inferensi deteksi objek pada perangkat yang didukung. Generik Linux, Windows Tidak
TensorFlow Toko model klasifikasi gambar Lite Komponen model yang berisi contoh model MobileNet v1 sebagai artefak Greengrass. Generik Linux, Windows Tidak
TensorFlow Toko model deteksi objek Lite Komponen model yang berisi contoh model Single Shot Detection (SSD) sebagai MobileNet artefak Greengrass. Generik Linux, Windows Tidak
TensorFlow Runtime ringan Komponen runtime yang berisi skrip instalasi yang digunakan untuk menginstal TensorFlow Lite dan dependensinya pada perangkat inti Greengrass. Generik Linux, Windows Tidak