Menyebarkan Model - Amazon SageMaker

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Menyebarkan Model

Anda dapat menerapkan modul komputasi ke perangkat edge yang dibatasi sumber daya dengan: mengunduh model yang dikompilasi dari Amazon S3 ke perangkat Anda dan menggunakan DLR, atau Anda dapat menggunakan IoT Greengrass.AWS

Sebelum melanjutkan, pastikan perangkat edge Anda harus didukung oleh SageMaker Neo. Lihat, Kerangka Kerja, Perangkat, Sistem, dan Arsitektur yang Didukung untuk mengetahui perangkat edge yang didukung. Pastikan Anda menentukan perangkat edge target saat mengirimkan tugas kompilasi, lihat Menggunakan Neo untuk Mengompilasi Model.

Menyebarkan Model Terkompilasi (DLR)

DLR adalah runtime yang ringkas dan umum untuk model pembelajaran mendalam dan model pohon keputusan. DLR menggunakan runtime TVM, runtime Treelite, NVIDIA TensorRTâ„¢, dan dapat menyertakan runtime khusus perangkat keras lainnya. DLR menyediakan Python/C++ API terpadu untuk memuat dan menjalankan model yang dikompilasi di berbagai perangkat.

Anda dapat menginstal rilis terbaru paket DLR menggunakan perintah pip berikut:

pip install dlr

Untuk pemasangan DLR pada target GPU atau perangkat tepi non-x86, silakan merujuk ke Rilis untuk binari bawaan, atau Menginstal DLR untuk membangun DLR dari sumber. Misalnya, untuk menginstal DLR untuk Raspberry Pi 3, Anda dapat menggunakan:

pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl

Menyebarkan Model (AWS IoT Greengrass)

AWS IoT Greengrass memperluas kemampuan cloud ke perangkat lokal. Ini memungkinkan perangkat untuk mengumpulkan dan menganalisis data lebih dekat ke sumber informasi, bereaksi secara mandiri terhadap peristiwa lokal, dan berkomunikasi dengan aman satu sama lain di jaringan lokal. Dengan AWS IoT Greengrass, Anda dapat melakukan inferensi pembelajaran mesin di tepi data yang dihasilkan secara lokal menggunakan model yang dilatih cloud. Saat ini, Anda dapat menerapkan model ke semua perangkat AWS IoT Greengrass berdasarkan ARM Cortex-A, Intel Atom, dan prosesor seri Nvidia Jetson. Untuk informasi selengkapnya tentang penerapan aplikasi inferensi Lambda untuk melakukan inferensi pembelajaran mesin dengan Greengrass AWS IoT, lihat Cara mengonfigurasi inferensi pembelajaran mesin yang dioptimalkan menggunakan Konsol Manajemen. AWS