Pilih preferensi cookie Anda

Kami menggunakan cookie penting serta alat serupa yang diperlukan untuk menyediakan situs dan layanan. Kami menggunakan cookie performa untuk mengumpulkan statistik anonim sehingga kami dapat memahami cara pelanggan menggunakan situs dan melakukan perbaikan. Cookie penting tidak dapat dinonaktifkan, tetapi Anda dapat mengklik “Kustom” atau “Tolak” untuk menolak cookie performa.

Jika Anda setuju, AWS dan pihak ketiga yang disetujui juga akan menggunakan cookie untuk menyediakan fitur situs yang berguna, mengingat preferensi Anda, dan menampilkan konten yang relevan, termasuk iklan yang relevan. Untuk menerima atau menolak semua cookie yang tidak penting, klik “Terima” atau “Tolak”. Untuk membuat pilihan yang lebih detail, klik “Kustomisasi”.

Menyebarkan Model

Mode fokus
Menyebarkan Model - Amazon SageMaker AI

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Anda dapat menerapkan modul komputasi ke perangkat edge yang dibatasi sumber daya dengan: mengunduh model yang dikompilasi dari Amazon S3 ke perangkat Anda dan menggunakan DLR, atau Anda dapat menggunakan IoT Greengrass.AWS

Sebelum melanjutkan, pastikan perangkat edge Anda harus didukung oleh SageMaker Neo. Lihat, Kerangka Kerja, Perangkat, Sistem, dan Arsitektur yang Didukung untuk mengetahui perangkat edge yang didukung. Pastikan Anda menentukan perangkat edge target saat mengirimkan tugas kompilasi, lihat Menggunakan Neo untuk Mengompilasi Model.

Menerapkan Model Terkompilasi (DLR)

DLR adalah runtime yang ringkas dan umum untuk model pembelajaran mendalam dan model pohon keputusan. DLR menggunakan runtime TVM, runtime Treelite, NVIDIA TensorRT™, dan dapat menyertakan runtime khusus perangkat keras lainnya. DLR menyediakan Python/C++ terpadu APIs untuk memuat dan menjalankan model yang dikompilasi pada berbagai perangkat.

Anda dapat menginstal rilis terbaru paket DLR menggunakan perintah pip berikut:

pip install dlr

Untuk pemasangan DLR pada target GPU atau perangkat tepi non-x86, silakan merujuk ke Rilis untuk binari bawaan, atau Menginstal DLR untuk membangun DLR dari sumber. Misalnya, untuk menginstal DLR untuk Raspberry Pi 3, Anda dapat menggunakan:

pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl

Menyebarkan Model (AWS IoT Greengrass)

AWS IoT Greengrass memperluas kemampuan cloud ke perangkat lokal. Ini memungkinkan perangkat untuk mengumpulkan dan menganalisis data lebih dekat ke sumber informasi, bereaksi secara mandiri terhadap peristiwa lokal, dan berkomunikasi dengan aman satu sama lain di jaringan lokal. Dengan AWS IoT Greengrass, Anda dapat melakukan inferensi pembelajaran mesin di tepi data yang dihasilkan secara lokal menggunakan model yang dilatih cloud. Saat ini, Anda dapat menerapkan model ke semua perangkat AWS IoT Greengrass berdasarkan ARM Cortex-A, Intel Atom, dan prosesor seri Nvidia Jetson. Untuk informasi selengkapnya tentang penerapan aplikasi inferensi Lambda untuk melakukan inferensi pembelajaran mesin dengan Greengrass AWS IoT, lihat Cara mengonfigurasi inferensi pembelajaran mesin yang dioptimalkan menggunakan Konsol Manajemen. AWS

PrivasiSyarat situsPreferensi cookie
© 2025, Amazon Web Services, Inc. atau afiliasinya. Semua hak dilindungi undang-undang.