Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menyebarkan Model
Anda dapat menerapkan modul komputasi ke perangkat edge yang dibatasi sumber daya dengan: mengunduh model yang dikompilasi dari Amazon S3 ke perangkat Anda dan menggunakan DLR, atau Anda dapat menggunakan IoT Greengrass.AWS
Sebelum melanjutkan, pastikan perangkat edge Anda harus didukung oleh SageMaker Neo. Lihat, Kerangka Kerja, Perangkat, Sistem, dan Arsitektur yang Didukung untuk mengetahui perangkat edge yang didukung. Pastikan Anda menentukan perangkat edge target saat mengirimkan tugas kompilasi, lihat Menggunakan Neo untuk Mengompilasi Model.
Menyebarkan Model Terkompilasi (DLR)
DLR
Anda dapat menginstal rilis terbaru paket DLR menggunakan perintah pip berikut:
pip install dlr
Untuk pemasangan DLR pada target GPU atau perangkat tepi non-x86, silakan merujuk ke Rilis
pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl
Menyebarkan Model (AWS IoT Greengrass)
AWS IoT Greengrass memperluas kemampuan cloud ke perangkat lokal. Ini memungkinkan perangkat untuk mengumpulkan dan menganalisis data lebih dekat ke sumber informasi, bereaksi secara mandiri terhadap peristiwa lokal, dan berkomunikasi dengan aman satu sama lain di jaringan lokal. Dengan AWS IoT Greengrass, Anda dapat melakukan inferensi pembelajaran mesin di tepi data yang dihasilkan secara lokal menggunakan model yang dilatih cloud. Saat ini, Anda dapat menerapkan model ke semua perangkat AWS IoT Greengrass berdasarkan ARM Cortex-A, Intel Atom, dan prosesor seri Nvidia Jetson. Untuk informasi selengkapnya tentang penerapan aplikasi inferensi Lambda untuk melakukan inferensi pembelajaran mesin dengan Greengrass AWS IoT, lihat Cara mengonfigurasi inferensi pembelajaran mesin yang dioptimalkan menggunakan Konsol Manajemen. AWS