

Pemberitahuan akhir dukungan: Pada 7 Oktober 2026, AWS akan menghentikan dukungan untuk. AWS IoT Greengrass Version 1 Setelah 7 Oktober 2026, Anda tidak akan lagi dapat mengakses sumber daya. AWS IoT Greengrass V1 Untuk informasi lebih lanjut, silakan kunjungi [Migrasi dari AWS IoT Greengrass Version 1](https://docs.aws.amazon.com/greengrass/v2/developerguide/migrate-from-v1.html).

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Cara mengonfigurasi inferensi pembelajaran mesin yang dioptimalkan menggunakan Konsol Manajemen AWS
<a name="ml-dlc-console"></a>

Untuk mengikuti langkah-langkah dalam tutorial ini, Anda harus menggunakan AWS IoT Greengrass Core v1.10 atau yang lebih baru.

Anda dapat menggunakan kompiler pembelajaran mendalam SageMaker AI Neo untuk mengoptimalkan efisiensi prediksi model inferensi pembelajaran mesin asli di Tensorflow, Apache,, ONNX, dan XGBoost kerangka kerja untuk MXNet jejak PyTorch yang lebih kecil dan kinerja yang lebih cepat. Anda kemudian dapat mengunduh model yang dioptimalkan dan menginstal runtime pembelajaran mendalam SageMaker AI Neo dan menerapkannya ke AWS IoT Greengrass perangkat Anda untuk inferensi yang lebih cepat. 

Tutorial ini menjelaskan cara menggunakan Konsol Manajemen AWS untuk mengkonfigurasi grup Greengrass untuk menjalankan contoh inferensi Lambda yang mengenali gambar dari kamera secara lokal, tanpa mengirim data ke cloud. Contoh kesimpulan mengakses modul kamera pada Raspberry Pi. Dalam tutorial ini, Anda mengunduh model prepackaged yang dilatih oleh Resnet-50 dan dioptimalkan di kompilator Neo deep learning. Anda kemudian menggunakan model untuk melakukan klasifikasi gambar lokal pada AWS IoT Greengrass perangkat Anda. 

Tutorial ini berisi langkah-langkah tingkat tinggi berikut:

1. [Mengonfigurasi Raspberry Pi](#config-raspberry-pi-dlc)

1. [PasangNeo deep learning deep learning](#install-dlr)

1. [Buat fungsi inferensi Lambda](#ml-console-dlc-create-lambda)

1. [Tambahkan fungsi Lambda ke grup](#ml-console-dlc-config-lambda)

1. [Tambahkan sumber daya model NEO-dioptimalkan ke grup](#ml-console-dlc-add-resources)

1. [Tambahkan sumber daya perangkat kamera ke grup](#ml-console-dlc-add-cam-resource)

1. [Tambahkan langganan ke grup](#ml-console-dlc-add-subscription)

1. [Men-deploy grup](#ml-console-dlc-deploy-group)

1. [Uji contoh](#ml-console-dlc-test-app)

## Prasyarat
<a name="ml-inference-prerequisites"></a>

 Untuk menyelesaikan tutorial ini, Anda memerlukan: 
+  Raspberry Pi 4 Model B, atau Raspberry Pi 3 Model B/B \$1, diatur dan dikonfigurasi untuk digunakan dengan. AWS IoT Greengrass Untuk mengatur Raspberry Pi Anda dengan AWS IoT Greengrass, jalankan [Pengaturan Perangkat Greengrass](quick-start.md) tersebut, atau pastikan bahwa Anda telah menyelesaikan [Modul 1](https://docs.aws.amazon.com/greengrass/latest/developerguide/module1.html) dan [Modul 2](https://docs.aws.amazon.com/greengrass/latest/developerguide/module2.html) dari [Memulai dengan AWS IoT Greengrass](gg-gs.md). 
**catatan**  
Raspberry Pi mungkin memerlukan [Catu daya](https://www.raspberrypi.org/documentation/hardware/raspberrypi/power/) 2.5A untuk menjalankan kerangka kerja deep learning yang biasanya digunakan untuk klasifikasi citra. Catu daya dengan peringkat lebih rendah dapat menyebabkan perangkat melakukan reboot.
+  [Modul Kamera Raspberry Pi V2 - 8 megapiksel, 1080p](https://www.amazon.com/Raspberry-Pi-Camera-Module-Megapixel/dp/B01ER2SKFS). Untuk mempelajari cara mengatur kamera, lihat [Menghubungkan kamera](https://www.raspberrypi.org/documentation/usage/camera/) dalam dokumentasi Raspberry Pi. 
+  Sebuah grup Greengrass dan Greengrass core. Untuk mempelajari cara membuat grup Greengrass atau core, lihat [Memulai dengan AWS IoT Greengrass](gg-gs.md). 

**catatan**  
 Tutorial ini menggunakan Raspberry Pi, tetapi AWS IoT Greengrass mendukung platform lain, seperti [Intel Atom](#atom-lambda-dlc-config) dan [NVIDIA Jetson TX2](#jetson-lambda-dlc-config). Jika menggunakan contoh Intel Atom, Anda mungkin butuh menginstal Python 3.6 bukannya Python 3.7. Untuk informasi tentang mengonfigurasi perangkat sehingga Anda dapat menginstal perangkat lunak AWS IoT Greengrass Core, lihat[Mengatur perangkat lain](setup-filter.other.md).   
Untuk platform pihak ketiga yang AWS IoT Greengrass tidak mendukung, Anda harus menjalankan fungsi Lambda Anda dalam mode non-kontainer. Untuk menjalankan dalam mode nonkontainerisasi, Anda harus menjalankan fungsi Lambda Anda sebagai root. Untuk informasi lebih lanjut, lihat [Pertimbangan ketika memilih fungsi Lambda kontainerisasi](lambda-group-config.md#lambda-containerization-considerations) dan [Mengatur identitas akses default untuk fungsi Lambda dalam grup](lambda-group-config.md#lambda-access-identity-groupsettings).

## Langkah 1: Mengonfigurasi Pi Raspberry
<a name="config-raspberry-pi-dlc"></a>

 Pada langkah ini, instal pembaruan untuk sistem operasi Raspbian, instal perangkat lunak modul kamera dan Python dependensi, dan mengaktifkan antarmuka kamera. 

Jalankan perintah berikut di terminal Raspberry Pi Anda.

1. Menginstal pembaruan untuk Raspbian.

   ```
   sudo apt-get update
   sudo apt-get dist-upgrade
   ```

1. <a name="install-picamera-step"></a>Instal antarmuka `picamera` untuk modul kamera dan pustaka Python lain yang diperlukan untuk tutorial ini.

   ```
   sudo apt-get install -y python3-dev python3-setuptools python3-pip python3-picamera
   ```

   Memvalidasi instalasi:
   + Pastikan bahwa instalasi Python 3.7 anda termasuk pip.

     ```
     python3 -m pip
     ```

     Jika pip tidak terpasang, unduh dari [Situs web pip](https://pip.pypa.io/en/stable/installing/) tersebut, kemudian jalankan perintah berikut.

     ```
     python3 get-pip.py
     ```
   + Pastikan bahwa versi Python Anda adalah 3.7 atau lebih tinggi.

     ```
     python3 --version
     ```

     Jika output mencantumkan versi sebelumnya, jalankan perintah berikut.

     ```
     sudo apt-get install -y python3.7-dev
     ```
   + Pastikan bahwa Setuptools dan Picamera berhasil diinstal.

     ```
     sudo -u ggc_user bash -c 'python3 -c "import setuptools"'
     sudo -u ggc_user bash -c 'python3 -c "import picamera"'
     ```

     Jika output tidak mengandung error, validasi berhasil.
**catatan**  
Jika Python yang dapat dieksekusi diinstal pada perangkat anda adalah `python3.7`, gunakan `python3.7` daripada `python3` untuk perintah di tutorial ini. Pastikan bahwa instalasi pip Anda memetakan versi `python3.7` atau `python3` yang tepat untuk menghindari kesalahan dependensi.

1. Reboot Raspberry Pi.

   ```
   sudo reboot
   ```

1. Buka alat konfigurasi Raspberry Pi.

   ```
   sudo raspi-config
   ```

1. Gunakan tombol panah untuk membuka **Opsi Antarmuka** dan mengaktifkan antarmuka kamera. Jika diminta, izinkan perangkat melakukan reboot.

1. Gunakan perintah berikut untuk menguji pengaturan kamera.

   ```
   raspistill -v -o test.jpg
   ```

   Hal ini akan membuka jendela pratinjau pada Raspberry Pi, menyimpan gambar bernama `test.jpg` ke direktori Anda saat ini, dan menampilkan informasi tentang kamera di terminal Raspberry Pi.

## Langkah 2: Instal runtime pembelajaran mendalam Amazon SageMaker Neo
<a name="install-dlr"></a>

 Dalam langkah ini, menginstal waktu aktif deep learning (DLR) Neo pada Anda Raspberry Pi. 

**catatan**  
Kami sarankan menginstal versi 1.1.0 untuk tutorial ini.

1. <a name="ssh-rpi-step"></a>Masuk ke Raspberry Pi Anda secara jarak jauh.

   ```
   ssh pi@your-device-ip-address
   ```

1.  Buka dokumentasi DLR, buka [Menginstal DLR](https://neo-ai-dlr.readthedocs.io/en/latest/install.html), dan menemukan URL wheel untuk perangkat Raspberry Pi. Kemudian, ikuti petunjuk untuk menginstal DLR di perangkat Anda. Sebagai contoh, Anda dapat menggunakan pip:

   ```
   pip3 install rasp3b-wheel-url
   ```

1. Setelah Anda menginstal DLR, validasikan konfigurasi berikut:
   + Pastikan `ggc_user` akun sistem dapat menggunakan perpustakaan DLR.

     ```
     sudo -u ggc_user bash -c 'python3 -c "import dlr"'
     ```
   + Pastikan NumPy sudah terpasang.

     ```
     sudo -u ggc_user bash -c 'python3 -c "import numpy"'
     ```

## Langkah 3: Buat fungsi Lambda inferensi
<a name="ml-console-dlc-create-lambda"></a>

 Pada langkah ini, buat paket deployment fungsi Lambda dan fungsi Lambda. Kemudian, terbitkan versi fungsi dan membuat alias. 

1. Pada komputer Anda, unduh sampel DLR untuk Raspberry Pi dari [Sampel machine learning](what-is-gg.md#gg-ml-samples).

1.  Unzip yang diunduh `dlr-py3-armv7l.tar.gz` File. 

   ```
   cd path-to-downloaded-sample
   tar -xvzf dlr-py3-armv7l.tar.gz
   ```

   Direktori `examples` dalam paket contoh yang diekstrak berisi kode fungsi dan dependensi.
   + `inference.py` adalah kode inference yang digunakan dalam tutorial ini. Anda dapat menggunakan kode ini sebagai templat untuk membuat fungsi inferensi Anda sendiri.
   + <a name="ml-samples-ggc-sdk"></a>`greengrasssdk` adalah versi 1.5.0 dari AWS IoT Greengrass Core SDK for Python.
**catatan**  <a name="ml-samples-ggc-sdk-upgrade"></a>
Jika versi baru tersedia, Anda dapat mengunduh dan membarui versi SDK dalam paket deployment Anda. Untuk informasi selengkapnya, lihat [AWS IoT Greengrass Core SDK for GitHub Python](https://github.com/aws/aws-greengrass-core-sdk-python/).

1.  Kompres isi `examples` ke dalam sebuah file bernama `optimizedImageClassification.zip`. Ini paket deployment Anda. 

   ```
   cd path-to-downloaded-sample/dlr-py3-armv7l/examples
   zip -r optimizedImageClassification.zip .
   ```

    Paket deployment berisi dependensi dan kode fungsi Lambda Anda. Ini termasuk kode yang memanggil Neo deep learning runtime Python APIs untuk melakukan inferensi dengan model kompiler deep learning Neo. 
**catatan**  <a name="ml-samples-function-zip"></a>
 Pastikan `.py` file dan dependensi berada di root direktori. 

1.  Sekarang, tambahkan fungsi Lambda ke grup Greengrass Anda. 

   Dari halaman konsol Lambda, pilih **Fungsi** dan pilih **Buat** fungsi.

1. Pilih **Tulis dari awal** dan gunakan nilaiinilai berikut untuk membuat fungsi Anda:
   + Untuk **Nama fungsi**, masukkan **optimizedImageClassification**. 
   + Untuk **Waktu pengoperasian**, pilih **Python 3.7**.

   Untuk **Izin**, pertahankan pengaturan default. Hal ini menciptakan peran eksekusi yang memberikan izin Lambda basic. Peran ini tidak digunakan oleh AWS IoT Greengrass  
![\[Bagian informasi dasar dari Buat fungsi halaman.\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/images/ml-dlc-inference/gg-dlr-lambda-creation.png)

1. Pilih **Buat fungsi**. 

 

Sekarang, unggah paket deployment fungsi Lambda Anda dan daftarkan handler.

1. <a name="lambda-console-upload"></a>Pada tab **Kode** ini, di bawah **Sumber kode**, pilih **Unggah dari**. Dari dropdown, pilih **file .zip**.  
![\[Unggah dari dropdown dengan file .zip disorot.\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/images/lra-console/upload-deployment-package.png)

1. Pilih paket deployment `optimizedImageClassification.zip` Anda, dan kemudian pilih **Simpan**.

1. <a name="lambda-console-runtime-settings-para"></a>Pada tab **Kode** fungsi, di bawah **Pengaturan waktu aktif**, pilih **Edit**, dan kemudian masukkan nilai-nilai berikut.
   + Untuk **waktu aktif**, pilih **Python 3.7**.
   + Untuk **Handler**, masukkan **inference.handler**.

   Pilih **Simpan**.  
![\[Bagian pengaturan Waktu aktif dengan Unggah disorot.\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/images/ml-dlc-inference/gg-ml2-lambda-upload.png)

 

Selanjutnya, terbitkan versi pertama fungsi Lambda Anda. Kemudian, buat [alias untuk versi](https://docs.aws.amazon.com/lambda/latest/dg/versioning-aliases.html).

**catatan**  
Grup Greengrass dapat mereferensi fungsi Lambda dengan alias (direkomendasikan) atau dengan versi. Menggunakan alias membuatnya lebih mudah untuk mengelola pembaruan kode karena Anda tidak perlu mengubah tabel langganan atau definisi grup ketika kode fungsi diperbarui. Sebaliknya, Anda hanya mengarahkan alias ke versi fungsi baru.

1. Dari menu **Tindakan** tersebut, pilih **Publikasikan versi baru**.  
![\[Opsi Publikasikan versi baru di menu Tindakan.\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/images/ml-dlc-inference/gg-ml2-publish-new.png)

1. Untuk **Versi Deskripsi**, masukkan **First version**, lalu pilih **Publikasikan**.

1. Pada halaman konfigurasi **optimizedImageClassification: 1**, dari menu **Tindakan**, pilih **Buat alias**.  
![\[Opsi Buat alias di menu Tindakan.\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/images/ml-dlc-inference/gg-ml2-create-alias.png)

1. Pada halaman **Buat alias baru** tersebut, gunakan nilai-nilai berikut:
   + Untuk **Nama**, masukkan **mlTestOpt**.
   + Untuk **UID**, masukkan **1**.
**catatan**  
AWS IoT Greengrass **tidak mendukung alias Lambda untuk versi \$1LATEST.**

1. Pilih **Buat**.

   Sekarang, tambahkan fungsi Lambda ke grup Greengrass Anda.

## Langkah 4: Tambahkan fungsi Lambda ke grup Greengrass
<a name="ml-console-dlc-config-lambda"></a>

Pada langkah ini, tambahkan fungsi Lambda ke grup, dan kemudian mengonfigurasi siklus hidupnya.

Pertama, tambahkan fungsi Lambda ke grup Greengrass Anda.

1. **Di panel navigasi AWS IoT konsol, di bawah **Kelola**, perluas perangkat **Greengrass**, lalu pilih Grup (V1).**

1. **Pada halaman konfigurasi grup, pilih tab **fungsi Lambda**, dan pilih Tambah.** 

1.  Pilih **fungsi Lambda** dan pilih. **optimizedImageClassification** 

1. Pada **versi fungsi Lambda**, pilih alias ke versi yang Anda terbitkan.

 

Selanjutnya, konfigurasikan siklus hidup fungsi Lambda.

1. Di bagian **konfigurasi fungsi Lambda**, buat pembaruan berikut.
**catatan**  
 Kami merekomendasikan Anda menjalankan fungsi Lambda Anda tanpa kontainerisasi kecuali kasus bisnis Anda memerlukannya. Hal ini membantu mengaktifkan akses ke perangkat GPU dan kamera Anda tanpa mengonfigurasi sumber daya perangkat. Jika Anda menjalankan tanpa containerization, Anda juga harus memberikan akses root ke fungsi Lambda AWS IoT Greengrass Anda. 

   1. **Untuk berjalan tanpa kontainerisasi:**
      + Untuk **pengguna dan grup Sistem**, pilih**Another user ID/group ID**. Untuk **ID pengguna Sistem**, masukkan**0**. Untuk **ID grup Sistem**, masukkan**0**.

        Hal ini memungkinkan fungsi Lambda Anda untuk berjalan sebagai root. Untuk informasi lebih lanjut untuk menjalankan sebagai root, lihat [Mengatur identitas akses default untuk fungsi Lambda dalam grup](lambda-group-config.md#lambda-access-identity-groupsettings).
**Tip**  
Anda juga harus memperbarui file `config.json` untuk memberikan akses root ke fungsi Lambda Anda. Untuk prosedur ini, lihat [Menjalankan fungsi Lambda sebagai root](lambda-group-config.md#lambda-running-as-root).
      + **Untuk **kontainerisasi fungsi Lambda, pilih No container**.**

        Untuk informasi lebih lanjut untuk berjalan tanpa konainerisasi, lihat [Pertimbangan ketika memilih fungsi Lambda kontainerisasi](lambda-group-config.md#lambda-containerization-considerations).
      + Untuk **Timeout**, masukkan **10 seconds**.
      + Untuk **Pinned**, pilih **True**.

        Untuk informasi selengkapnya, lihat [Konfigurasi siklus hidup untuk fungsi Greengrass Lambda](lambda-functions.md#lambda-lifecycle).
      + **Di bawah **Parameter Tambahan**, untuk **akses Baca ke direktori /sys**, pilih Diaktifkan.**

   1.  **Untuk menjalankan dalam mode kontainer sebagai gantinya:** 
**catatan**  
Kami tidak merekomendasikan untuk dijalankan dalam mode kontainer kecuali jika kasus bisnis Anda memerlukannya.
      + Untuk **pengguna dan grup Sistem**, pilih **Gunakan grup default**.
      + **Untuk **kontainerisasi fungsi Lambda**, pilih Gunakan default grup.**
      + Untuk **Batas memori**, masukkan **1024 MB**.
      + Untuk **Timeout**, masukkan **10 seconds**.
      + Untuk **Pinned**, pilih **True**.

        Untuk informasi selengkapnya, lihat [Konfigurasi siklus hidup untuk fungsi Greengrass Lambda](lambda-functions.md#lambda-lifecycle).
      + **Di bawah **Parameter Tambahan**, untuk **akses Baca ke direktori /sys**, pilih Diaktifkan.**

1.  Pilih **Tambahkan fungsi Lambda**.

## Langkah 5: Tambahkan sumber daya model SageMaker AI NEO yang dioptimalkan ke grup Greengrass
<a name="ml-console-dlc-add-resources"></a>

 Pada langkah ini, buat sumber daya untuk model inferensi ML dioptimalkan dan unggah ke bucket Amazon S3. Kemudian, cari model yang diunggah Amazon S3 di AWS IoT Greengrass konsol dan afiliasi sumber daya yang baru dibuat dengan fungsi Lambda. Hal ini memungkinkan fungsi untuk mengakses sumber dayanya pada perangkat core. 

1.  Pada komputer Anda, navigasikan ke direktori `resnet50` dalam paket contoh yang Anda unzip di [Langkah 3: Buat fungsi Lambda inferensi](#ml-console-dlc-create-lambda). 
**catatan**  
Jika menggunakan contoh NVIDIA Jetson, Anda harus menggunakan `resnet18` dalam paket contoh sebagai gantinya. Untuk informasi selengkapnya, lihat [Mengkonfigurasi NVIDIA Jetson TX2](#jetson-lambda-dlc-config).

   ```
   cd path-to-downloaded-sample/dlr-py3-armv7l/models/resnet50
   ```

    Direktori ini berisi artefak model precompiled untuk model klasifikasi citra dilatih dengan Resnet-50.

1. Kompres file di dalam direktori `resnet50` ke dalam sebuah file bernama `resnet50.zip`. 

   ```
   zip -r resnet50.zip .
   ```

1.  Pada halaman konfigurasi grup untuk AWS IoT Greengrass grup Anda, pilih tab **Sumber Daya**. Navigasikan ke **Machine Learning** bagian dan pilih **Tambah sumber daya machine learning**. Pada halaman **Buat sumber daya machine learning** ini, untuk **Nama sumber daya**, masukkan **resnet50\$1model**.

1. Untuk **sumber Model**, pilih **Gunakan model yang disimpan di S3, seperti model yang dioptimalkan melalui Deep Learning Compiler**.

1.  Di bawah **S3 URI**, pilih **Browse S3**. 
**catatan**  
 Saat ini, model SageMaker AI yang dioptimalkan disimpan secara otomatis di Amazon S3. Anda dapat menemukan model yang dioptimalkan di bucket Amazon S3 Anda menggunakan opsi ini. Untuk informasi lebih lanjut tentang pengoptimalan model di SageMaker AI, lihat [dokumentasi SageMaker AI Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html). 

1.  Pilih **Uunggah model**. 

1.  Pada tab konsol Amazon S3, unggah file zip Anda ke bucket Amazon S3. Untuk selengkapnya, lihat [Bagaimana cara mengunggah file dan folder ke bucket S3?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-objects.html) di *Panduan Pengguna Layanan Penyimpanan Sederhana Amazon*. 
**catatan**  
 Nama bucket Anda harus berisi string **greengrass**. Pilih nama yang unik (seperti **greengrass-dlr-bucket-*user-id*-*epoch-time***). Jangan gunakan periode (`.`) dalam nama bucket. 

1.  Di tab AWS IoT Greengrass konsol, cari dan pilih bucket Amazon S3 Anda. Tempatkan file `resnet50.zip` yang Anda unggah, dan pilih **Pilihan**. Anda mungkin perlu me-refresh halaman untuk memperbarui daftar bucket dan file yang tersedia. 

1.  Di **jalur Tujuan**, masukkan**/ml\$1model**.   
![\[Jalur tujuan yang diperbarui.\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/images/ml-dlc-inference/local-path.png)

    Hal ini adalah tujuan untuk model lokal di Lambda waktu aktif namespace. Saat Anda menyebarkan grup, AWS IoT Greengrass mengambil paket model sumber dan kemudian mengekstrak konten ke direktori yang ditentukan. 
**catatan**  
 Kami sangat merekomendasikan Anda menggunakan jalur yang tepat yang disediakan untuk jalur lokal Anda. Menggunakan jalur tujuan model lokal yang berbeda dalam langkah ini menyebabkan beberapa perintah pemecahan masalah yang disediakan dalam tutorial ini menjadi tidak akurat. Jika Anda menggunakan jalur yang berbeda, Anda harus mengatur `MODEL_PATH` lingkungan yang menggunakan jalur yang tepat yang Anda berikan di sini. Untuk informasi lebih lanjut tentang variabel lingkungan, lihat [AWS Lambda variabel lingkungan](https://docs.aws.amazon.com/lambda/latest/dg/env_variables.html). 

1. **Jika berjalan dalam mode kontainer:**

   1. Di bawah **Pemilik grup sistem dan izin akses file**, pilih **Tentukan grup sistem dan izin**.

   1. Pilih **Akses hanya-baca** dan kemudian pilih **Tambah** sumber daya.

## Langkah 6: Tambahkan sumber daya perangkat kamera Anda ke grup Greengrass
<a name="ml-console-dlc-add-cam-resource"></a>

 Pada langkah ini, buat sumber daya untuk modul kamera dan mengafiliasikannya dengan fungsi Lambda. Hal ini memungkinkan fungsi Lambda untuk mengakses sumber daya pada perangkat core. 

**catatan**  
Jika Anda menjalankan dalam mode non-kontainer, AWS IoT Greengrass dapat mengakses GPU dan kamera perangkat Anda tanpa mengonfigurasi sumber daya perangkat ini. 

1. Pada halaman konfigurasi grup, pilih tab **Sumber Daya**.

1. Pada tab Sumber **daya lokal**, pilih **Tambahkan sumber daya lokal**.

1. Pada halaman **Tambahkan sumber daya lokal**, gunakan nilai berikut:
   + Untuk **Nama sumber daya**, masukkan **videoCoreSharedMemory**.
   + Untuk **Jenis sumber daya**, pilih **Perangkat**.
   + Untuk **jalur perangkat lokal**, masukkan**/dev/vcsm**.

     Jalur perangkat adalah jalur absolut lokal sumber daya perangkat. Path ini hanya dapat merujuk ke perangkat karakter atau perangkat blok di bawah `/dev`.
   + Untuk **pemilik grup sistem dan izin akses file**, pilih **Secara otomatis menambahkan izin sistem file dari grup sistem yang memiliki sumber daya.**

     Opsi **Izin akses file pemilik grup** memungkinkan Anda memberikan izin akses file tambahan untuk proses Lambda. Untuk informasi selengkapnya, lihat [Izin akses file pemilik grup](access-local-resources.md#lra-group-owner).

1. Di bagian bawah halaman, pilih **Tambahkan sumber daya**.

1. Dari tab **Sumber Daya**, buat sumber daya lokal lain dengan memilih **Tambah** dan gunakan nilai berikut:
   + Untuk **Nama sumber daya**, masukkan **videoCoreInterface**.
   + Untuk **Jenis sumber daya**, pilih **Perangkat**.
   + Untuk **jalur perangkat lokal**, masukkan**/dev/vchiq**.
   + Untuk **pemilik grup sistem dan izin akses file**, pilih **Secara otomatis menambahkan izin sistem file dari grup sistem yang memiliki sumber daya.**

1. Pilih **Tambahkan sumber daya**. 

## Langkah 7: Menambahkan langganan ke grup Greengrass
<a name="ml-console-dlc-add-subscription"></a>

Pada langkah ini, tambahkan langganan ke grup. Langganan ini memungkinkan fungsi Lambda untuk mengirim hasil prediksi dengan memublikasikan AWS IoT ke topik MQTT.

1. Pada halaman konfigurasi grup, pilih tab **Langganan**, lalu pilih **Tambahkan langganan**.

1. Pada halaman **Buat langganan**, konfigurasikan sumber dan target, sebagai berikut:

   1. Di **tipe Sumber**, pilih **fungsi Lambda**, lalu pilih. **optimizedImageClassification**

   1. Di **Jenis target**, pilih **Layanan**, lalu pilih **IoT Cloud**.

   1. Di **filter Topik**, masukkan**/resnet-50/predictions**, lalu pilih **Buat langganan**. 

1. Tambahkan langganan kedua. Pilih tab **Langganan**, pilih **Tambahkan langganan**, dan konfigurasikan sumber dan target, sebagai berikut: 

   1. Di **tipe Sumber**, pilih **Layanan**, lalu pilih **IoT Cloud**.

   1. Di **Jenis target**, pilih **fungsi Lambda**, lalu pilih. **optimizedImageClassification**

   1. Di **filter Topik**, masukkan**/resnet-50/test**, lalu pilih **Buat langganan**.

## Langkah 8: Men-deploy grup Greengrass
<a name="ml-console-dlc-deploy-group"></a>

Pada langkah ini, men-deploy versi definisi grup untuk perangkat core Greengrass. Definisi berisi fungsi Lambda, sumber daya, dan konfigurasi langganan yang ditambahkan.

1. Pastikan AWS IoT Greengrass inti sedang berjalan. Jalankan perintah berikut di terminal Raspberry Pi Anda, sesuai kebutuhan.

   1. Untuk memeriksa apakah daemon sedang berjalan:

      ```
      ps aux | grep -E 'greengrass.*daemon'
      ```

      Jika output berisi `root` entri untuk `/greengrass/ggc/packages/latest-core-version/bin/daemon`, maka daemon sedang berjalan.

   1. Mulai daemon:

      ```
      cd /greengrass/ggc/core/
      sudo ./greengrassd start
      ```

1. Pada halaman konfigurasi grup, pilih **Deploy**.

1. **Pada tab **Fungsi Lambda**, pilih **detektor IP** dan pilih Edit.**

1. **Dari kotak dialog **Edit pengaturan detektor IP**, pilih **Secara otomatis mendeteksi dan mengganti titik akhir broker MQTT** dan pilih Simpan.**

   Hal ini mengaktifkan perangkat untuk secara otomatis memperoleh informasi konektivitas untuk core, seperti alamat IP, DNS, dan nomor port. Deteksi otomatis direkomendasikan, tetapi AWS IoT Greengrass juga mendukung titik akhir yang ditentukan secara manual. Anda hanya diminta untuk metode penemuan pertama kalinya bahwa grup di-deploy.
**catatan**  
Jika diminta, berikan izin untuk membuat peran layanan [Greengrass dan kaitkan dengan peran layanan](service-role.md) Anda saat ini. Akun AWS Wilayah AWS Peran ini memungkinkan AWS IoT Greengrass untuk mengakses sumber daya Anda dalam AWS layanan.

    Halaman **Deployment** menampilkan timestamp deployment, ID versi, dan status. Setelah selesai, status yang ditampilkan untuk penerapan harus **Selesai**. 

   Untuk informasi lebih lanjut tentang deployment, lihat [Menyebarkan AWS IoT Greengrass grup ke inti AWS IoT Greengrass](deployments.md). Untuk bantuan pemecahan masalah, lihat [Pemecahan masalah AWS IoT Greengrass](gg-troubleshooting.md).

## Uji contoh inferensi
<a name="ml-console-dlc-test-app"></a>

Sekarang Anda dapat memverifikasi apakah deployment dikonfigurasi dengan benar. Untuk menguji, Anda berlangganan topik `/resnet-50/predictions` dan menerbitkan pesan apa pun ke topik `/resnet-50/test` ini. Ini memicu fungsi Lambda untuk mengambil foto dengan Raspberry Pi Anda dan melakukan inferensi pada gambar yang ditangkap. 

**catatan**  
Jika menggunakan contoh NVIDIA Jetson, pastikan untuk menggunakan `resnet-18/predictions` dan `resnet-18/test` topik sebagai gantinya.

**catatan**  
Jika monitor terpasang ke Raspberry Pi, umpan kamera langsung ditampilkan di jendela pratinjau.

1. Di halaman beranda AWS IoT konsol, di bawah **Uji**, pilih klien pengujian **MQTT**.

1. Untuk **Langganan**, pilih **Berlangganan Topik**. Gunakan nilai-nilai berikut. Tinggalkan opsi yang tersisa pada defaultnya. 
   + Untuk **Topik langganan**, masukkan **/resnet-50/predictions**.
   + **Di bawah **Konfigurasi tambahan**, untuk tampilan **payload MQTT, pilih Display payloads** sebagai string.**

1. Pilih **Langganan**.

1. Pilih **Publikasikan ke topik**, masukkan **/resnet-50/test** sebagai **nama Topik**, dan pilih **Publikasikan**. 

1.  Jika uji berhasil, pesan diterbitkan menyebabkan kamera Raspberry Pi untuk menangkap citra. Sebuah pesan dari fungsi Lambda muncul di bagian bawah halaman. Pesan ini berisi hasil prediksi citra, menggunakan format: diprediksi nama kelas, probabilitas, dan penggunaan memori puncak. 

## Mengkonfigurasi Atom Intel
<a name="atom-lambda-dlc-config"></a>

 Untuk menjalankan tutorial ini pada perangkat Intel Atom, Anda harus memberikan citra sumber, Mengonfigurasi fungsi Lambda, dan menambahkan sumber daya perangkat lokal lain. Untuk menggunakan GPU sebagai inferensi, pastikan perangkat lunak berikut diinstal pada perangkat Anda:
+ OpenCL versi 1.0 atau yang lebih baru
+ Python 3.7 dan pip
+ [NumPy](https://pypi.org/project/numpy/)
+ [OpenCV di atas Roda](https://pypi.org/project/opencv-python/)

1. Unduh citra PNG atau JPG statis untuk fungsi Lambda yang akan digunakan untuk klasifikasi citra. Contoh tersebut bekerja paling baik dengan file citra kecil. 

   Simpan file citra Anda di direktori yang memuat file `inference.py` (atau dalam subdirektori dari direktori ini). Hal ini ada dalam paket deployment fungsi Lambda yang Anda unggah di [Langkah 3: Buat fungsi Lambda inferensi](#ml-console-dlc-create-lambda).
**catatan**  
 Jika Anda menggunakan AWS DeepLens, Anda dapat menggunakan kamera onboard atau memasang kamera Anda sendiri untuk melakukan inferensi pada gambar yang diambil, bukan gambar statis. Namun, kami sangat merekomendasikan Anda mulai dengan citra statis terlebih dahulu.   
Jika Anda menggunakan kamera, pastikan bahwa paket `awscam` APT diinstal dan diperbarui. Untuk informasi lebih lanjut, lihat [Perbarui Perangkat AWS DeepLens Anda](https://docs.aws.amazon.com/deeplens/latest/dg/deeplens-manual-updates.html) dalam *AWS DeepLens Panduan Developer*.

1. Edit konfigurasi fungsi Lambda. Ikuti prosedur di [Langkah 4: Tambahkan fungsi Lambda ke grup Greengrass](#ml-console-dlc-config-lambda). 
**catatan**  
 Kami merekomendasikan Anda menjalankan fungsi Lambda Anda tanpa kontainerisasi kecuali kasus bisnis Anda memerlukannya. Hal ini membantu mengaktifkan akses ke perangkat GPU dan kamera Anda tanpa mengonfigurasi sumber daya perangkat. Jika Anda menjalankan tanpa containerization, Anda juga harus memberikan akses root ke fungsi Lambda AWS IoT Greengrass Anda. 

   1. **Untuk berjalan tanpa kontainerisasi:**
      + Untuk **pengguna dan grup Sistem**, pilih**Another user ID/group ID**. Untuk **ID pengguna Sistem**, masukkan**0**. Untuk **ID grup Sistem**, masukkan**0**.

        Hal ini memungkinkan fungsi Lambda Anda untuk berjalan sebagai root. Untuk informasi lebih lanjut untuk menjalankan sebagai root, lihat [Mengatur identitas akses default untuk fungsi Lambda dalam grup](lambda-group-config.md#lambda-access-identity-groupsettings).
**Tip**  
Anda juga harus memperbarui file `config.json` untuk memberikan akses root ke fungsi Lambda Anda. Untuk prosedur ini, lihat [Menjalankan fungsi Lambda sebagai root](lambda-group-config.md#lambda-running-as-root).
      + **Untuk **kontainerisasi fungsi Lambda, pilih No container**.**

        Untuk informasi lebih lanjut tentang berjalan tanpa kontainerisasi, lihat [Pertimbangan ketika memilih fungsi Lambda kontainerisasi](lambda-group-config.md#lambda-containerization-considerations).
      + Tingkatkan nilai **Timeout** untuk 2 menit. Ini memastikan bahwa permintaan batas waktu tidak terlalu pendek. Dibutuhkan beberapa menit setelah pengaturan untuk menjalankan inferensi.
      +  Untuk **Pinned**, pilih **True**. 
      + **Di bawah **Parameter Tambahan**, untuk **akses Baca ke direktori /sys**, pilih Diaktifkan.** 

   1.  **Untuk menjalankan dalam mode kontainer sebagai gantinya:** 
**catatan**  
Kami tidak merekomendasikan untuk menjalankan dalam mode kontainerisasi kecuali jika kasus bisnis Anda memerlukannya.
      +  Tingkatkan nilai **Batas memori** hingga 3000 MB. 
      + Tingkatkan nilai **Timeout** untuk 2 menit. Ini memastikan bahwa permintaan batas waktu tidak terlalu pendek. Dibutuhkan beberapa menit setelah pengaturan untuk menjalankan inferensi.
      +  Untuk **Pinned**, pilih **True**. 
      + **Di bawah **Parameter Tambahan**, untuk **akses Baca ke direktori /sys**, pilih Diaktifkan.** 

1.  Tambahkan sumber daya model Neo-dioptimalisasi Anda ke grup. Unggah model sumber daya di direktori `resnet50` dari paket sampel yang Anda unzipped di [Langkah 3: Buat fungsi Lambda inferensi](#ml-console-dlc-create-lambda). Direktori ini berisi artefak model precompiled untuk model klasifikasi citra dilatih dengan Resnet-50. Ikuti prosedur di [Langkah 5: Tambahkan sumber daya model SageMaker AI NEO yang dioptimalkan ke grup Greengrass](#ml-console-dlc-add-resources) dengan pembaruan berikut. 
   + Kompres file di dalam direktori `resnet50` ke dalam sebuah file bernama `resnet50.zip`.
   + Pada halaman **Buat sumber daya machine learning** ini, untuk **Nama sumber daya**, masukkan **resnet50\$1model**.
   + Unggah `resnet50.zip` file.

1. **Jika berjalan dalam mode containerized**, tambahkan sumber daya perangkat lokal yang diperlukan untuk memberikan akses ke GPU perangkat Anda.
**catatan**  
 Jika Anda menjalankan dalam mode non-kontainer, AWS IoT Greengrass dapat mengakses GPU perangkat Anda tanpa mengonfigurasi sumber daya perangkat. 

   1. Pada halaman konfigurasi grup, pilih tab **Sumber Daya**.

   1. Di bagian **Sumber daya lokal**, pilih **Tambahkan sumber daya lokal**.

   1. Mendefinisikan sumber daya:
      + Untuk **Nama sumber daya**, masukkan **renderD128**.
      + Untuk **Jenis sumber daya**, pilih **Perangkat**.
      + Untuk **jalur perangkat lokal**, masukkan**/dev/dri/renderD128**.
      + Untuk **pemilik grup sistem dan izin akses file**, pilih **Secara otomatis menambahkan izin sistem file dari grup sistem yang memiliki sumber daya.**

## Mengkonfigurasi NVIDIA Jetson TX2
<a name="jetson-lambda-dlc-config"></a>

 Untuk menjalankan tutorial ini pada NVIDIA Jetson TX2, berikan gambar sumber, konfigurasikan fungsi Lambda, dan tambahkan lebih banyak sumber daya perangkat lokal.

1. Pastikan perangkat Jetson Anda dikonfigurasi sehingga Anda dapat menginstal perangkat lunak AWS IoT Greengrass Core dan menggunakan GPU untuk inferensi. Untuk informasi lebih lanjut tentang konfigurasi perangkat Anda, lihat [Mengatur perangkat lain](setup-filter.other.md). Untuk menggunakan GPU untuk inferensi pada NVIDIA Jetson TX2, Anda harus menginstal CUDA 10.0 dan cuDNN 7.0 pada perangkat Anda ketika Anda gambar papan Anda dengan Jetpack 4.3.

1. Unduh citra PNG atau JPG statis untuk fungsi Lambda yang akan digunakan untuk klasifikasi citra. Contohnya bekerja paling baik dengan file citra kecil. 

   Simpan file citra Anda di direktori yang memuat `inference.py` file. Anda juga dapat menyimpannya dalam subdirektori di direktori ini. Direktori ini adalah dalam paket deployment fungsi Lambda yang Anda unggah di [Langkah 3: Buat fungsi Lambda inferensi](#ml-console-dlc-create-lambda).
**catatan**  
 Anda dapat memilih untuk instrumen kamera di papan Jetson untuk menangkap citra sumber. Namun, kami sangat merekomendasikan Anda mulai dengan citra statis terlebih dahulu. 

1. Edit konfigurasi fungsi Lambda. Ikuti prosedur di [Langkah 4: Tambahkan fungsi Lambda ke grup Greengrass](#ml-console-dlc-config-lambda).
**catatan**  
 Kami merekomendasikan Anda menjalankan fungsi Lambda Anda tanpa kontainerisasi kecuali kasus bisnis Anda memerlukannya. Hal ini membantu mengaktifkan akses ke perangkat GPU dan kamera Anda tanpa mengonfigurasi sumber daya perangkat. Jika Anda menjalankan tanpa containerization, Anda juga harus memberikan akses root ke fungsi Lambda AWS IoT Greengrass Anda. 

   1. **Untuk berjalan tanpa kontainerisasi:**
      + Untuk **Jalankan sebagai**, pilih **Another user ID/group ID**. Untuk **UID**, masukkan **0**. Untuk **GUID**, masukkan **0**.

        Hal ini memungkinkan fungsi Lambda Anda untuk berjalan sebagai root. Untuk informasi lebih lanjut untuk menjalankan sebagai root, lihat [Mengatur identitas akses default untuk fungsi Lambda dalam grup](lambda-group-config.md#lambda-access-identity-groupsettings).
**Tip**  
Anda juga harus memperbarui file `config.json` untuk memberikan akses root ke fungsi Lambda Anda. Untuk prosedur ini, lihat [Menjalankan fungsi Lambda sebagai root](lambda-group-config.md#lambda-running-as-root).
      + **Untuk **kontainerisasi fungsi Lambda, pilih No container**.**

        Untuk informasi lebih lanjut tentang berjalan tanpa kontainerisasi, lihat [Pertimbangan ketika memilih fungsi Lambda kontainerisasi](lambda-group-config.md#lambda-containerization-considerations).
      + Tingkatkan nilai **Timeout** untuk 5 menit. Ini memastikan bahwa permintaan batas waktu tidak terlalu pendek. Dibutuhkan beberapa menit setelah pengaturan untuk menjalankan inferensi.
      +  Untuk **Pinned**, pilih **True**. 
      + **Di bawah **Parameter Tambahan**, untuk **akses Baca ke direktori /sys**, pilih Diaktifkan.** 

   1.  **Untuk menjalankan dalam mode kontainer sebagai gantinya:** 
**catatan**  
Kami tidak merekomendasikan untuk dijalankan dalam mode kontainer kecuali jika kasus bisnis Anda memerlukannya.
      +  Tingkatkan nilai **batas memori** ini. Untuk menggunakan model yang disediakan dalam mode GPU, gunakan setidaknya 2000 MB. 
      + Tingkatkan nilai **Timeout** untuk 5 menit. Ini memastikan bahwa permintaan batas waktu tidak terlalu pendek. Dibutuhkan beberapa menit setelah pengaturan untuk menjalankan inferensi.
      +  Untuk **Pinned**, pilih **True**. 
      + **Di bawah **Parameter Tambahan**, untuk **akses Baca ke direktori /sys**, pilih Diaktifkan.** 

1.  Tambahkan sumber daya model Neo-dioptimalisasi Anda ke grup. Unggah model sumber daya di direktori `resnet18` dari paket sampel yang Anda unzipped di [Langkah 3: Buat fungsi Lambda inferensi](#ml-console-dlc-create-lambda). Direktori ini berisi artefak model precompiled untuk model klasifikasi citra terlatih dengan Resnet-18. Ikuti prosedur di [Langkah 5: Tambahkan sumber daya model SageMaker AI NEO yang dioptimalkan ke grup Greengrass](#ml-console-dlc-add-resources) dengan pembaruan berikut. 
   + Kompres file di dalam direktori `resnet18` ke dalam sebuah file bernama `resnet18.zip`.
   + Pada halaman **Buat sumber daya machine learning** ini, untuk **Nama sumber daya**, masukkan **resnet18\$1model**.
   + Unggah `resnet18.zip` file.

1. **Jika berjalan dalam mode containerized**, tambahkan sumber daya perangkat lokal yang diperlukan untuk memberikan akses ke GPU perangkat Anda. 
**catatan**  
 Jika Anda menjalankan dalam mode non-kontainer, AWS IoT Greengrass dapat mengakses GPU perangkat Anda tanpa mengonfigurasi sumber daya perangkat. 

   1. Pada halaman konfigurasi grup, pilih tab **Sumber Daya**.

   1. Di bagian **Sumber daya lokal**, pilih **Tambahkan sumber daya lokal**.

   1. Tentukan setiap sumber daya:
      + Untuk **Nama sumber daya** dan **Jalur perangkat**, gunakan nilai-nilai dalam tabel berikut. Buat satu sumber daya perangkat untuk setiap baris dalam tabel.
      + Untuk **Jenis sumber daya**, pilih **Perangkat**.
      + Untuk **pemilik grup sistem dan izin akses file**, pilih **Secara otomatis menambahkan izin sistem file dari grup sistem yang memiliki sumber daya.**

             
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/ml-dlc-console.html)

1. **Jika berjalan dalam mode kontainerisasi**, tambahkan sumber daya volume lokal berikut untuk memberikan akses ke kamera perangkat Anda. Ikuti prosedur di [Langkah 5: Tambahkan sumber daya model SageMaker AI NEO yang dioptimalkan ke grup Greengrass](#ml-console-dlc-add-resources).
**catatan**  
 Jika Anda menjalankan dalam mode non-kontainer, AWS IoT Greengrass dapat mengakses kamera perangkat Anda tanpa mengonfigurasi sumber daya perangkat. 
   + Untuk **Jenis sumber daya**, pilih **Volume**.
   + Untuk **pemilik grup sistem dan izin akses file**, pilih **Secara otomatis menambahkan izin sistem file dari grup sistem yang memiliki sumber daya.**

          
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/greengrass/v1/developerguide/ml-dlc-console.html)

1.  Memperbarui langganan grup Anda untuk menggunakan direktori yang benar. Ikuti prosedur di [Langkah 7: Menambahkan langganan ke grup Greengrass](#ml-console-dlc-add-subscription) dengan pembaruan berikut. 
   + Untuk filter topik pertama Anda, masukkan **/resnet-18/predictions**.
   + Untuk filter topik kedua Anda, masukkan **/resnet-18/test**.

1.  Memperbarui langganan pengujian Anda untuk menggunakan direktori yang benar. Ikuti prosedur di [Uji contoh inferensi](#ml-console-dlc-test-app) dengan pembaruan berikut. 
   +  Untuk **Langganan**, pilih **Berlangganan topik**. Untuk **Topik langganan**, masukkan **/resnet-18/predictions**. 
   +  Pada `/resnet-18/predictions` halaman, tentukan `/resnet-18/test` topik untuk diterbitkan ke. 

## Memecahkan masalah inferensi AWS IoT Greengrass ML
<a name="ml-inference-troubleshooting"></a>

Jika tes tidak berhasil, Anda dapat mencoba langkah-langkah penyelesaian masalah berikut. Jalankan perintah di terminal Raspberry Pi Anda.

### Periksa catatan error
<a name="troubleshooting-check-logs"></a>

1. <a name="root-access-logs"></a>Beralih ke pengguna root dan arahkan ke direktori `log` tersebut. Akses ke AWS IoT Greengrass log memerlukan izin root.

   ```
   sudo su
   cd /greengrass/ggc/var/log
   ```

1. Periksa `runtime.log` untuk kesalahan apa pun. 

   ```
   cat system/runtime.log | grep 'ERROR'
   ```

   Anda juga dapat melihat di log fungsi Lambda ditetapkan pengguna Anda untuk setiap kesalahan: 

   ```
   cat user/your-region/your-account-id/lambda-function-name.log | grep 'ERROR'
   ```

   Untuk informasi selengkapnya, lihat [Pemecahan masalah dengan catatan](gg-troubleshooting.md#troubleshooting-logs).

 

### Verifikasi fungsi Lambda berhasil di-deploy
<a name="troubleshooting-check-lambda"></a>

1.  Daftar isi dari Lambda yang di-deploy di `/lambda` direktori. Mengganti nilai placeholder sebelum Anda menjalankan perintah. 

   ```
   cd /greengrass/ggc/deployment/lambda/arn:aws:lambda:region:account:function:function-name:function-version
   ls -la
   ```

1.  Verifikasi bahwa direktori berisi konten yang sama sebagai paket deployment `optimizedImageClassification.zip` yang Anda unggah di [Langkah 3: Buat fungsi Lambda inferensi](#ml-console-dlc-create-lambda). 

    Pastikan bahwa `.py` file dan dependensi berada di root direktori. 

 

### Verifikasi model inferensi berhasil di-deploy
<a name="troubleshooting-check-model"></a>

1. Temukan process identification number (PID) proses waktu aktif Lambda:

   ```
   ps aux | grep lambda-function-name
   ```

   Pada output, PID muncul di kolom kedua baris untuk proses waktu aktif Lambda.

1.  Masukkan namespace waktu aktif Lambda. Pastikan untuk mengganti *pid* nilai placeholder sebelum Anda menjalankan perintah. 
**catatan**  
Direktori ini dan isinya berada di namespace waktu aktif Lambda, sehingga mereka tidak terlihat dalam namespace Linux biasa.

   ```
   sudo nsenter -t pid -m /bin/bash
   ```

1. Daftar isi dari direktori lokal yang Anda tentukan untuk sumber daya ML.
**catatan**  
 Jika jalur sumber daya ML Anda adalah sesuatu selain `ml_model`, Anda harus mengganti yang di sini. 

   ```
   cd /ml_model
   ls -ls
   ```

   Anda harus melihat file berikut:

   ```
       56 -rw-r--r-- 1 ggc_user ggc_group     56703 Oct 29 20:07 model.json
   196152 -rw-r--r-- 1 ggc_user ggc_group 200855043 Oct 29 20:08 model.params
      256 -rw-r--r-- 1 ggc_user ggc_group    261848 Oct 29 20:07 model.so
       32 -rw-r--r-- 1 ggc_user ggc_group     30564 Oct 29 20:08 synset.txt
   ```

 

### Fungsi Lambda `/dev/dri/renderD128`
<a name="troubleshooting-atom-config"></a>

 Hal ini dapat terjadi jika OpenCL tidak dapat terhubung ke perangkat GPU yang dibutuhkannya. Anda harus membuat sumber daya perangkat untuk perangkat yang diperlukan untuk fungsi Lambda Anda. 

## Langkah selanjutnya
<a name="next-dlc-steps"></a>

 Selanjutnya, jelajahi model lain yang dioptimalkan. Untuk informasi, lihat [dokumentasi SageMaker AI Neo](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html). 