

サポート終了通知: 2026 年 10 月 7 日、 AWS はサポートを終了します AWS IoT Greengrass Version 1。2026 年 10 月 7 日以降、 AWS IoT Greengrass V1 リソースにアクセスできなくなります。詳細については、[「 からの移行 AWS IoT Greengrass Version 1](https://docs.aws.amazon.com/greengrass/v2/developerguide/migrate-from-v1.html)」を参照してください。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# を使用して最適化された機械学習推論を設定する方法 AWS マネジメントコンソール
<a name="ml-dlc-console"></a>

このチュートリアルのステップに従うには、 AWS IoT Greengrass Core v1.10 以降を使用する必要があります。

SageMaker AI Neo 深層学習コンパイラを使用すると、Tensorflow、Apache MXNet、PyTorch、ONNX、XGBoost フレームワークのネイティブ機械学習推論モデルの予測効率を最適化して、フットプリントを小さくし、パフォーマンスを向上させることができます。その後、最適化されたモデルをダウンロードして SageMaker AI Neo 深層学習ランタイムをインストールし、 AWS IoT Greengrass デバイスにデプロイして推論を高速化できます。

このチュートリアルでは、 を使用して、クラウド AWS マネジメントコンソール にデータを送信せずに、カメラからのイメージをローカルで認識する Lambda 推論の例を実行するように Greengrass グループを設定する方法について説明します。推論例では、Raspberry Pi のカメラモジュールにアクセスします。このチュートリアルでは、Resnet-50 によってトレーニングされて Neo 深層学習コンパイラで最適化された、事前にパッケージ化されたモデルをダウンロードします。次に、モデルを使用して AWS IoT Greengrass 、デバイスでローカルイメージ分類を実行します。

このチュートリアルのおおまかな手順は以下のとおりです。

1. [Raspberry Pi を設定する](#config-raspberry-pi-dlc)

1. [Neo 深層学習ランタイムをインストールする](#install-dlr)

1. [推論 Lambda 関数を作成する](#ml-console-dlc-create-lambda)

1. [グループに Lambda 関数を追加する](#ml-console-dlc-config-lambda)

1. [Neo 最適化モデルリソースをグループに追加する](#ml-console-dlc-add-resources)

1. [カメラデバイスリソースをグループに追加する](#ml-console-dlc-add-cam-resource)

1. [サブスクリプションをグループに追加する](#ml-console-dlc-add-subscription)

1. [グループをデプロイする](#ml-console-dlc-deploy-group)

1. [例をテストする](#ml-console-dlc-test-app)

## 前提条件
<a name="ml-inference-prerequisites"></a>

 このチュートリアルを完了するには、以下が必要です。
+  Raspberry Pi 4 モデル B、または Raspberry Pi 3 モデル B/B\$1 は、 で使用するようにセットアップおよび設定されています AWS IoT Greengrass。Raspberry Pi を AWS IoT Greengrassと共にセットアップする前に、[Greengrass Device Setup](quick-start.md) スクリプトを実行するか、[の開始方法 AWS IoT Greengrass](gg-gs.md) の[モジュール 1](https://docs.aws.amazon.com/greengrass/latest/developerguide/module1.html) と[モジュール 2](https://docs.aws.amazon.com/greengrass/latest/developerguide/module2.html) を完了していることを確認します。
**注記**  
Raspberry Pi では、イメージ分類に一般的に使用される深層学習のフレームワークを動かすために、2.5A の[電源](https://www.raspberrypi.org/documentation/hardware/raspberrypi/power/)が必要な場合があります。定格の低い電源を使用すると、デバイスが再起動する場合があります。
+  [Raspberry Pi カメラモジュール V2 - 8 メガピクセル、1080p](https://www.amazon.com/Raspberry-Pi-Camera-Module-Megapixel/dp/B01ER2SKFS)。カメラの設定方法については、Raspberry Pi ドキュメントで「[カメラの接続](https://www.raspberrypi.org/documentation/usage/camera/)」を参照してください。
+  Greengrass グループと Greengrass コア。Greengrass グループまたはコアを作成する方法については、「[の開始方法 AWS IoT Greengrass](gg-gs.md)」を参照してください。

**注記**  
 このチュートリアルでは Raspberry Pi を使用しますが、[Intel Atom](#atom-lambda-dlc-config) や [NVIDIA Jetson TX2 ](#jetson-lambda-dlc-config)などの他のプラットフォーム AWS IoT Greengrass をサポートしています。Intel Atom の例を使用する場合は、Python 3.7 ではなく Python 3.6 のインストールが必要な場合があります。 AWS IoT Greengrass Core ソフトウェアをインストールできるようにデバイスを設定する方法については、「」を参照してください[他のデバイスの設定](setup-filter.other.md)。  
 AWS IoT Greengrass がサポートしていないサードパーティープラットフォームの場合は、Lambda 関数をコンテナ化されていないモードで実行する必要があります。非コンテナ化モードで実行するには、Lambda 関数を root として実行する必要があります。詳細については、「[Lambda 関数のコンテナ化を選択する場合の考慮事項](lambda-group-config.md#lambda-containerization-considerations)」および「[グループ内の Lambda 関数に対するデフォルトのアクセス ID の設定](lambda-group-config.md#lambda-access-identity-groupsettings)」を参照してください。

## ステップ 1: Raspberry Pi を設定する
<a name="config-raspberry-pi-dlc"></a>

 このステップでは、Raspbian オペレーティングシステムの更新プログラムをインストールし、カメラモジュールソフトウェアと Python の依存関係をインストールして、カメラインターフェイスを有効にします。

Raspberry Pi のターミナルで以下のコマンドを実行します。

1. Raspbian に更新プログラムをインストールします。

   ```
   sudo apt-get update
   sudo apt-get dist-upgrade
   ```

1. <a name="install-picamera-step"></a>カメラモジュールの `picamera` インターフェイス、およびこのチュートリアルに必要なその他の Python ライブラリをインストールします。

   ```
   sudo apt-get install -y python3-dev python3-setuptools python3-pip python3-picamera
   ```

   インストールを検証します。
   + Python 3.7 のインストールに pip が含まれていることを確認します。

     ```
     python3 -m pip
     ```

     pip がインストールされていない場合は、[pip ウェブサイト](https://pip.pypa.io/en/stable/installing/)からダウンロードし、次のコマンドを実行します。

     ```
     python3 get-pip.py
     ```
   + Python のバージョンが 3.7 以上であることを確認します。

     ```
     python3 --version
     ```

     出力に以前のバージョンが表示されている場合は、次のコマンドを実行します。

     ```
     sudo apt-get install -y python3.7-dev
     ```
   + Setuptools と Picamera が正常にインストールされたことを確認します。

     ```
     sudo -u ggc_user bash -c 'python3 -c "import setuptools"'
     sudo -u ggc_user bash -c 'python3 -c "import picamera"'
     ```

     出力にエラーが含まれていない場合、検証は成功です。
**注記**  
デバイスにインストールされている Python 実行可能ファイルが `python3.7` である場合は、このチュートリアルのコマンドに `python3` ではなく、`python3.7` を使用します。依存関係のエラーを回避するために、pip インストールが正しい `python3` バージョンまたは `python3.7` バージョンにマップされていることを確認してください。

1. Raspberry Pi を再起動します。

   ```
   sudo reboot
   ```

1. Raspberry Pi 設定ツールを開きます。

   ```
   sudo raspi-config
   ```

1. 矢印キーを使用して **[インターフェイスオプション]** を開き、カメラインターフェイスを有効にします。プロンプトが表示されたら、デバイスを再起動します。

1. 以下のコマンドを使用して、カメラの設定をテストします。

   ```
   raspistill -v -o test.jpg
   ```

   これにより、Raspberry Pi のプレビューウィンドウが開き、`test.jpg` という写真が現在のディレクトリに保存されて、カメラに関する情報が Raspberry Pi のターミナルに表示されます。

## ステップ 2: Amazon SageMaker Neo 深層学習ランタイムをインストールする
<a name="install-dlr"></a>

 このステップでは、Neo 深層学習ランタイム (DLR) を Raspberry Pi にインストールドします。

**注記**  
このチュートリアルでは、バージョン 1.1.0 をインストールすることをお勧めします。

1. <a name="ssh-rpi-step"></a>リモートで Raspberry Pi にサインインします。

   ```
   ssh pi@your-device-ip-address
   ```

1.  DLR のドキュメントを開き、[DLR のインストール](https://neo-ai-dlr.readthedocs.io/en/latest/install.html)を開き、Raspberry Pi デバイスのホイール URL を見つけます。次に、指示に従って、デバイスに DLR をインストールします。例えば、pip を使用できます。

   ```
   pip3 install rasp3b-wheel-url
   ```

1. DLR をインストールした後、次の設定を検証します。
   + `ggc_user` システムアカウントが DLR ライブラリを使用できることを確認します。

     ```
     sudo -u ggc_user bash -c 'python3 -c "import dlr"'
     ```
   + NumPy がインストールされていることを確認します。

     ```
     sudo -u ggc_user bash -c 'python3 -c "import numpy"'
     ```

## ステップ 3: 推論 Lambda 関数を作成する
<a name="ml-console-dlc-create-lambda"></a>

 この手順では、Lambda 関数デプロイパッケージと Lambda 関数を作成します。次に、関数のバージョンを公開し、エイリアスを作成します。

1. コンピュータで、[機械学習のサンプル](what-is-gg.md#gg-ml-samples) から Raspberry Pi の DLR サンプルをダウンロードします。

1.  ダウンロードした `dlr-py3-armv7l.tar.gz` ファイルを解凍します。

   ```
   cd path-to-downloaded-sample
   tar -xvzf dlr-py3-armv7l.tar.gz
   ```

   抽出されたサンプルパッケージの `examples` ディレクトリには、関数コードと依存関係が含まれています。
   + `inference.py` は、このチュートリアルで使用される推論コードです。このコードをテンプレートとして使用して、独自の推論関数を作成できます。
   + <a name="ml-samples-ggc-sdk"></a>`greengrasssdk` は、 AWS IoT Greengrass Core SDK for Python のバージョン 1.5.0 です。
**注記**  <a name="ml-samples-ggc-sdk-upgrade"></a>
新しいバージョンが利用できる場合は、そのバージョンをダウンロードし、デプロイパッケージ内の SDK バージョンをアップグレードできます。詳細については、GitHub の「[AWS IoT Greengrass Core SDK for Python](https://github.com/aws/aws-greengrass-core-sdk-python/)」を参照してください。

1.  `examples` ディレクトリの内容を `optimizedImageClassification.zip` という名前のファイルに圧縮します。このファイルがデプロイパッケージです。

   ```
   cd path-to-downloaded-sample/dlr-py3-armv7l/examples
   zip -r optimizedImageClassification.zip .
   ```

    デプロイメントパッケージには、関数コードと依存関係が含まれています。これには、Neo 深層学習ランタイム Python API を呼び出して、Neo 深層学習コンパイラモデルで推論を実行するコードが含まれます。
**注記**  <a name="ml-samples-function-zip"></a>
 `.py` ファイルと依存関係がディレクトリのルートにあることを確認します。

1.  次に、Lambda 関数を Greengrass グループに追加します。

   [Lambda console](Lambda コンソール) ページから、**[Functions]** (関数)、**[Create function]** (関数の作成) の順に選択します。

1. **[一から作成]** を選択し、以下の値を使用して関数を作成します。
   + **[関数名]** に「**optimizedImageClassification**」と入力します。
   + **[ランタイム]** で **[Python 3.7]** を選択します。

   **[アクセス許可]** はデフォルト設定のままにしておきます。これで Lambda への基本的なアクセス許可を付与する実行ロールが作成されます。このロールは では使用されません AWS IoT Greengrass。  
![\[[関数の作成] ページの [Basic information] セクション。\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/images/ml-dlc-inference/gg-dlr-lambda-creation.png)

1. [**関数の作成**] を選択してください。

 

今度は、Lambda 関数デプロイパッケージをアップロードし、ハンドラを登録します。

1. <a name="lambda-console-upload"></a>**[Code]** (コード) タブの **[Code source]** (コードソース) で、**[Upload from]** (アップロード元) を選択します。ドロップダウンから **[.zip ファイル]** を選択します。  
![\[[.zip file] (.zip ファイル) が強調表示された [Upload from] (アップロード元) ドロップダウンリスト。\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/images/lra-console/upload-deployment-package.png)

1. `optimizedImageClassification.zip` デプロイパッケージを選択し、**[Save]** (保存) を選択します。

1. <a name="lambda-console-runtime-settings-para"></a>関数の **[Code]** (コード) タブにある **[Runtime settings]** (ランタイム設定) で **[Edit]** (編集) を選択し、次の値を入力します。
   + **[ランタイム]** で **[Python 3.7]** を選択します。
   + **[ハンドラ]** に **inference.handler** と入力します。

   **[保存]** を選択します。  
![\[[Upload] (アップロード) が強調表示された [Runtime settings] (ランタイム設定) セクション。\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/images/ml-dlc-inference/gg-ml2-lambda-upload.png)

 

次に、Lambda 関数の最初のバージョンを発行します。その後、[バージョンのエイリアス](https://docs.aws.amazon.com/lambda/latest/dg/versioning-aliases.html)を作成します。

**注記**  
Greengrass グループは、Lambda 関数をエイリアス別 (推奨) またはバージョン別に参照できます。エイリアスを使用すると、関数コードを更新する時にサブスクリプションテーブルやグループ定義を変更する必要がないため、コード更新を簡単に管理できます。その代わりに、新しい関数バージョンにエイリアスを指定するだけで済みます。

1. **[アクション]** メニューから、**[新しいバージョンを発行]** を選択します。  
![\[[アクション] メニューの [新しいバージョンを発行] オプション。\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/images/ml-dlc-inference/gg-ml2-publish-new.png)

1. **[バージョンの説明]** に **First version** と入力し、**[発行]** を選択します。

1. [**optimizedImageClassification: 1**] 設定ページで、[**Actions (アクション)**] メニューの [**エイリアスの作成**] を選択します。  
![\[[アクション] メニューの [エイリアスの作成] オプション。\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/images/ml-dlc-inference/gg-ml2-create-alias.png)

1. **[新しいエイリアスの作成]** ページで、次の値を使用します。
   + [**名前**] に**mlTestOpt**と入力してください。
   + **[バージョン]** に **1** と入力します。
**注記**  
AWS IoT Greengrass は、**\$1LATEST** バージョンの Lambda エイリアスをサポートしていません。

1. **[作成]** を選択します。

   ここで、Greengrass グループに Lambda 関数を追加します。

## ステップ 4: Lambda 関数を Greengrass グループに追加する
<a name="ml-console-dlc-config-lambda"></a>

このステップでは、Lambda 関数をグループに追加し、そのライフサイクルを設定します。

まず、Lambda 関数を Greengrass グループに追加します。

1.  AWS IoT コンソールナビゲーションペインの**「管理**」で **Greengrass デバイス**を展開し、**「グループ (V1)**」を選択します。

1. グループ設定ページで、**[Lambda functions]** (Lambda 関数) タブ、**[Add]** (追加) の順に選択します。

1.  **[Lambda function]** (Lambda 関数) と**[optimizedImageClassification]**を選択します。

1. **[Lambda function version]** (Lambda 関数のバージョン) で、公開したバージョンのエイリアスを選択します。

 

次に、Lambda 関数のライフサイクルを設定します。

1. **[Lambda function configuration]** (Lambda 関数の設定) セクションで次のように更新します。
**注記**  
 ビジネスケースで要求される場合を除き、Lambda 関数はコンテナ化を使用せずに実行することをお勧めします。これにより、デバイスリソースを設定しなくても、デバイスの GPU とカメラにアクセスできるようになります。コンテナ化なしで を実行する場合は、 AWS IoT Greengrass Lambda 関数へのルートアクセスも許可する必要があります。

   1. **コンテナ化を使用せずに実行するには:**
      + **[System user and group]** (システムユーザーとグループ) で、**Another user ID/group ID**を選択します。**[System user ID]** (システムユーザ ID) には、「**0**」と入力します。**[System group ID]** (システムグループ ID) には、「**0**」と入力します。

        これにより、Lambda 関数を root として実行できます。root として実行の詳細については、「[グループ内の Lambda 関数に対するデフォルトのアクセス ID の設定](lambda-group-config.md#lambda-access-identity-groupsettings)」を参照してください。
**ヒント**  
また、ルートアクセスを Lambda 関数に付与するように `config.json` ファイルを更新する必要があります。手順については、「[root としての Lambda 関数の実行](lambda-group-config.md#lambda-running-as-root)」を参照してください。
      + **[Lambda function containerization]** (Lambda 関数のコンテナ化) で、**[No container]** (コンテナなし) を選択します。

        コンテナ化を使用しない実行の詳細については、「[Lambda 関数のコンテナ化を選択する場合の考慮事項](lambda-group-config.md#lambda-containerization-considerations)」を参照してください。
      + **[タイムアウト]** に **10 seconds** と入力します。
      + **[固定]** で、**[True]** を選択します。

        詳細については、「[Greengrass Lambda 関数のライフサイクル設定](lambda-functions.md#lambda-lifecycle)」を参照してください。
      + **[Additional Parameter]** (追加のパラメータ) の、**[Read access to /sys directory]** (/sys ディレクトリへの読み取りアクセス) で、**[Enabled]** (有効) を選択します。

   1.  **代わりにコンテナ化モードで実行するには:** 
**注記**  
ビジネスケースで要求されない限り、コンテナ化モードでの実行はお勧めしていません。
      + **[System user and group]** (システムユーザーとグループ) で、**[Use group default]** (グループのデフォルトを使用) を選択します。
      + **[Lambda function containerization]** (Lambda 関数のコンテナ化) で、**[Use group default]** (グループのデフォルトを使用) を選択します。
      + **[メモリ制限]** に **1024 MB** と入力します。
      + **[タイムアウト]** に **10 seconds** と入力します。
      + **[固定]** で、**[True]** を選択します。

        詳細については、「[Greengrass Lambda 関数のライフサイクル設定](lambda-functions.md#lambda-lifecycle)」を参照してください。
      + **[Additional Parameter]** (追加のパラメータ) の、**[Read access to /sys directory]** (/sys ディレクトリへの読み取りアクセス) で、**[Enabled]** (有効) を選択します。

1.  **[Add Lambda function]** (Lambda 関数の追加) を選択します。

## ステップ 5: Greengrass グループに SageMaker AI Neo 最適化モデルリソースを追加する
<a name="ml-console-dlc-add-resources"></a>

 このステップでは、最適化された ML 推論モデルのリソースを作成して Amazon S3 バケットにアップロードします。次に、 AWS IoT Greengrass コンソールで Amazon S3 アップロードされたモデルを見つけ、新しく作成されたリソースを Lambda 関数に関連付けます。これにより、関数が Core デバイス上のリソースにアクセスできるようになります。

1.  コンピュータで、「[ステップ 3: 推論 Lambda 関数を作成する](#ml-console-dlc-create-lambda)」で解凍したサンプルパッケージ内の `resnet50` ディレクトリに移動します。
**注記**  
NVIDIA Jetson の例を使用する場合は、代わりにサンプルパッケージの `resnet18` ディレクトリを使用する必要があります。詳細については、「[NVIDIA Jetson TX2 の設定](#jetson-lambda-dlc-config)」を参照してください。

   ```
   cd path-to-downloaded-sample/dlr-py3-armv7l/models/resnet50
   ```

    このディレクトリには、Resnet-50 でトレーニングされたイメージ分類モデルのプリコンパイルされたモデルアーティファクトが含まれています。

1. `resnet50` ディレクトリ内のファイルを `resnet50.zip` という名前のファイルに圧縮します。

   ```
   zip -r resnet50.zip .
   ```

1.  グループのグループ設定ページで AWS IoT Greengrass 、**リソース**タブを選択します。[**Machine Learning (機械学習)**] セクションに移動し、[**機械学習リソースの追加**] を選択します。[**Create a machine learning resource (機械学習リソースの作成)**] ページで、[**Resource name (リソース名)**] に**resnet50\$1model** と入力します。

1. **[Model source]** (モデルソース) で、**[Use a model stored in S3, such as a model optimized through Deep Learning Compiler]** (深層学習コンパイラで最適化されたモデルなど、S3 に保存されているモデルを使用する) を選択します。

1.  **[S3 URI]**から、選択 **[Browse S3]** (S3 の閲覧) を選択します。
**注記**  
 現在、最適化された SageMaker AI モデルは Amazon S3 に自動的に保存されます。このオプションを使用して、Amazon S3 バケット内の最適化されたモデルを見つけることができます。SageMaker AI でのモデル最適化の詳細については、[SageMaker AI Neo ドキュメント](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html)を参照してください。

1.  [**モデルをアップロードする**] を選択します。

1.  Amazon S3 コンソールタブで、zip ファイルを Amazon S3 バケットにアップロードします。詳細については、「Amazon Simple Storage Service ユーザーガイド」の「[S3 バケットにファイルとフォルダをアップロードする方法](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/upload-objects.html)」を参照してください。
**注記**  
 バケット名には文字列 **greengrass** が含まれている必要があります。一意の名前 (**greengrass-dlr-bucket-*user-id*-*epoch-time*** など) を選択します。バケット名にピリオド (`.`) を使用しないでください。

1.  AWS IoT Greengrass コンソールタブで、Amazon S3 バケットを見つけて選択します。アップロードした `resnet50.zip` ファイルを見つけ、**[選択]** を選択します。必要に応じてページを更新し、使用可能なバケットとファイルのリストを更新します。

1.  **[Destination path]** (送信先) に「**/ml\$1model**」と入力します。  
![\[更新された送信先。\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/images/ml-dlc-inference/local-path.png)

    これは、Lambda ランタイム名前空間内のローカルモデルのターゲットです。グループをデプロイすると、 はソースモデルパッケージ AWS IoT Greengrass を取得し、指定したディレクトリにコンテンツを抽出します。
**注記**  
 ローカルパスに指定されている正確なパスを使用することを強くお勧めします。このステップで別のローカルモデルのターゲットパスを使用すると、このチュートリアルで示しているいくつかのトラブルシューティングコマンドが正確でなくなります。別のパスを使用する場合は、ここで指定する正確なパスを `MODEL_PATH` 環境変数に設定する必要があります。環境変数については、「[AWS Lambda 環境変数](https://docs.aws.amazon.com/lambda/latest/dg/env_variables.html)」を参照してください。

1. **コンテナ化モードで実行している場合:**

   1. **[System group owner and file access permissions]** (システムグループ所有者のファイルアクセス許可) から、**[Specify system group and permissions]** (システムグループと権限を指定する) を選択します。

   1. **[Read-only access]** (読み取り専用アクセス)、**[Add resources]** (リソースの追加) の順に選択します。

## ステップ 6: Greengrass グループにカメラデバイスリソースを追加する
<a name="ml-console-dlc-add-cam-resource"></a>

 このステップでは、カメラモジュールのリソースを作成し、Lambda 関数に関連付けます。これにより、Lambda 関数がコアデバイス上のリソースにアクセスできるようになります。

**注記**  
コンテナ化されていないモードで を実行する場合、 AWS IoT Greengrass はこのデバイスリソースを設定せずにデバイス GPU とカメラにアクセスできます。

1. グループ設定ページで、**[Resources]** (リソース) タブを選択します。

1. **[Local resources]** (ローカルリソース) タブで、**[Add local resource]** (ローカルリソースの追加) を選択します。

1. **[Add a local resource]** (ローカルリソースの追加) ページで、次の値を使用します。
   + **[リソース名]** に **videoCoreSharedMemory** と入力します。
   + **[リソースタイプ]** で、**[デバイス]** を選択します。
   + **[Local device path]** (ローカルデバイスパス) には、「**/dev/vcsm**」と入力します。

     デバイスパスはデバイスリソースのローカル絶対パスです。このパスは、`/dev` 下の文字デバイスまたはブロックデバイスのみを参照できます。
   + **[System group owner and file access permissions]** (システムグループ所有者のファイルアクセス許可)で、**[Automatically add file system permissions of the system group that owns the resource]** (リソースを所有するシステムグループのファイルシステム権限を自動的に追加する) を選択します。

     [**Group owner file access permission**] (グループ所有者のファイルアクセス権限) オプションを使用すると、Lambda プロセスに追加のファイルアクセス権限を付与できます。詳細については、「[グループ所有者のファイルアクセス権限](access-local-resources.md#lra-group-owner)」を参照してください。

1. ページの下部で、[**Add resource**] (リソースの追加) を選択します。

1. **[Resources]** (リソース) タブから、**[Add]** (追加) を選択して、別のローカルリソースを作成し、次の値を使用します。
   + **[リソース名]** に **videoCoreInterface** と入力します。
   + **[リソースタイプ]** で、**[デバイス]** を選択します。
   + **[Local device path]** (ローカルデバイスパス) には、「**/dev/vchiq**」と入力します。
   + **[System group owner and file access permissions]** (システムグループ所有者のファイルアクセス許可)で、**[Automatically add file system permissions of the system group that owns the resource]** (リソースを所有するシステムグループのファイルシステム権限を自動的に追加する) を選択します。

1. **[リソースを追加]** を選択します。

## ステップ 7: サブスクリプションを Greengrass グループに追加する
<a name="ml-console-dlc-add-subscription"></a>

このステップでは、グループにサブスクリプションを追加します。これらのサブスクリプションにより、Lambda 関数は MQTT トピックに発行 AWS IoT して予測結果を に送信できます。

1. グループ設定ページで、**[Subscriptions]** (サブスクリプション) タブ、**[Add subscription]** (サブスクリプションの追加) の順に選択します。

1. **[Create a subscription]** (サブスクリプションの作成) ページで、ソースおよびターゲットを次のように設定します。

   1. **[Source type]** (ソースタイプ) で、**[Lambda function]** (Lambda 関数)、**[optimizedImageClassification]** の順に選択します。

   1. **[Target type]** (ターゲットタイプ)で、**[Service]** (サービス)、**[IoT Cloud]** (IoT クラウド) の順に選択します。

   1. **[Topic filter]** (トピックのフィルター) で、「**/resnet-50/predictions**」と入力し、**[Create subscription]** (サブスクリプションの作成) を選択します。

1. 2 つ目のサブスクリプションを追加します。**[Subscriptions]** (サブスクリプション) タブ、**[Add subscription]** (サブスクリプションの追加) の順に選択し、ソースとターゲットを次のように設定します。

   1. **[Source type]** (ソースタイプ) で、**[Service]** (サービス)、**[IoT Cloud]** (IoT クラウド) の順に選択します。

   1. **[Target type]** (ターゲットタイプ) で、**[Lambda function]** (Lambda 関数)、**[optimizedImageClassification]** の順に選択します。

   1. **[Topic filter]** (トピックのフィルター) で、「**/resnet-50/test**」と入力し、**[Create subscription]** (サブスクリプションの作成) を選択します。

## ステップ 8: Greengrass グループをデプロイする
<a name="ml-console-dlc-deploy-group"></a>

このステップでは、グループ定義の現在のバージョンを Greengrass コアデバイスにデプロイします。この定義には、追加した Lambda 関数、リソース、サブスクリプション設定が含まれます。

1.  AWS IoT Greengrass コアが実行されていることを確認します。必要に応じて、Raspberry Pi のターミナルで以下のコマンドを実行します。

   1. デーモンが実行中かどうかを確認するには、以下を実行します。

      ```
      ps aux | grep -E 'greengrass.*daemon'
      ```

      出力に `root` で実行中の `/greengrass/ggc/packages/latest-core-version/bin/daemon` のエントリが含まれていれば、デーモンは実行されています。

   1. デーモンを開始するには、以下を実行します。

      ```
      cd /greengrass/ggc/core/
      sudo ./greengrassd start
      ```

1. グループ設定ページで、**[Deploy]** (デプロイ) を選択します。

1. **[Lambda functions]** (Lambda 関数) タブで、**[IP detector]** (IP ディテクター)と **[Edit]** (編集) を選択します。

1. **[Edit IP detector settings]** (IP ディテクター設定の編集) のダイアログボックスで、**[Automatically detect and override MQTT broker endpoints]** (MQTT ブローカーのエンドポイントを自動的に検出して上書きする) と、**Save** (保存) を選択します。

   これにより、デバイスは、IP アドレス、DNS、ポート番号など、コアの接続情報を自動的に取得できます。自動検出が推奨されますが、手動で指定されたエンドポイント AWS IoT Greengrass もサポートされます。グループが初めてデプロイされたときにのみ、検出方法の確認が求められます。
**注記**  
プロンプトが表示されたら、[Greengrass サービスロール](service-role.md)を作成し、それを現在の AWS アカウント の に関連付けるアクセス許可を付与します AWS リージョン。このロールにより AWS IoT Greengrass 、 は AWS サービスのリソースにアクセスできます。

    **[デプロイ]** ページには、デプロイのタイムスタンプ、バージョン ID、ステータスが表示されます。完了すると、デプロイのステータスが **[Completed]** (完了) と表示されます。

   デプロイの詳細については、「[AWS IoT Greengrass コアに AWS IoT Greengrass グループをデプロイする](deployments.md)」を参照してください。トラブルシューティングのヘルプについては、[トラブルシューティング AWS IoT Greengrass](gg-troubleshooting.md) を参照してください。

## 推論例をテストする
<a name="ml-console-dlc-test-app"></a>

これで、デプロイが正しく設定されているかどうかを確認できます。テストするには、`/resnet-50/predictions` トピックにサブスクライブし、`/resnet-50/test` トピックにメッセージを発行します。これにより、Raspberry Pi で写真を撮影してキャプチャしたイメージの推論を実行する Lambda 関数がトリガーされます。

**注記**  
NVIDIA Jetson の例を使用する場合は、代わりに `resnet-18/predictions` トピックおよび `resnet-18/test` トピックを使用してください。

**注記**  
モニターが Raspberry Pi に接続されている場合、ライブカメラのフィードがプレビューウィンドウに表示されます。

1.  AWS IoT コンソールのホームページの**テスト**で、**MQTT テストクライアント**を選択します。

1. **[Subscriptions]** (サブスクリプション) で、**[Subscribe to a Topic]** (トピックへのサブスクライブ) を選択します。以下の値を使用します。残りのオプションはデフォルトのままにします。
   + [**Subscription topic (サブスクリプショントピック)**] で、**/resnet-50/predictions** と入力します。
   + **[Additional configuration]** (追加設定) から、**[MQTT payload display]** (MQTT ペイロード表示) で、**[Display payloads as strings]** (文字列としてペイロードを表示) を選択します。

1. **[サブスクライブ]** を選択します。

1. **[Publish to a topic]** (トピックに公開) を選択して、**[Topic name]** (トピック名) として「**/resnet-50/test**」を入力し、**[Publish]** (発行) を選択します。

1.  テストが成功すると、発行されたメッセージによって Raspberry Pi カメラがイメージをキャプチャします。Lambda 関数からのメッセージがページの下部に表示されます。このメッセージには、予測クラス名、確率、最大メモリ使用量の形式で、イメージの予測結果が含まれています。

## インテル Atom の設定
<a name="atom-lambda-dlc-config"></a>

 Intel Atom デバイスでこのチュートリアルを実行するには、ソースイメージを指定し、Lambda 関数を設定して、別のローカルデバイスリソースを追加する必要があります。GPU を推論に使用するには、デバイスに次のソフトウェアがインストールされていることを確認します。
+ OpenCL バージョン 1.0 以降
+ Python 3.7 と pip
+ [NumPy](https://pypi.org/project/numpy/)
+ [ホイール上の OpenCV](https://pypi.org/project/opencv-python/)

1. Lambda 関数用に静的な PNG あるいは JPG 画像をダウンロードして、イメージ分類に使用します。この例は小さいイメージファイルで最適に動作します。

   `inference.py` ファイルがあるディレクトリ (あるいは、このディレクトリのサブディレクトリ) に画像ファイルを保存します。これは、[ステップ 3: 推論 Lambda 関数を作成する](#ml-console-dlc-create-lambda) でアップロードした Lambda 関数デプロイパッケージにあります。
**注記**  
 を使用している場合は AWS DeepLens、オンボードカメラを使用するか、独自のカメラをマウントして、静的イメージではなくキャプチャされたイメージに対して推論を実行できます。ただし、最初に静的イメージから開始することを強くお勧めします。  
カメラを使用する場合は、`awscam` APT パッケージがインストールされていて、最新の状態であることを確認してください。詳細については、「AWS DeepLens デベロッパーガイド」の「[AWS DeepLens デバイスの更新](https://docs.aws.amazon.com/deeplens/latest/dg/deeplens-manual-updates.html)」を参照してください。

1. Lambda 関数の設定を編集します。「[ステップ 4: Lambda 関数を Greengrass グループに追加する](#ml-console-dlc-config-lambda)」の手順に従います。
**注記**  
 ビジネスケースで要求される場合を除き、Lambda 関数を、コンテナ化を使用しないで実行することをお勧めします。これにより、デバイスリソースを設定しなくても、デバイスの GPU とカメラにアクセスできるようになります。コンテナ化なしで を実行する場合は、 AWS IoT Greengrass Lambda 関数へのルートアクセスも許可する必要があります。

   1. **コンテナ化を使用せずに実行するには:**
      + **[System user and group]** (システムユーザーとグループ) で、**Another user ID/group ID**を選択します。**[System user ID]** (システムユーザ ID) には、「**0**」と入力します。**[System group ID]** (システムグループ ID) には、「**0**」と入力します。

        これにより、Lambda 関数を root として実行できます。root として実行の詳細については、「[グループ内の Lambda 関数に対するデフォルトのアクセス ID の設定](lambda-group-config.md#lambda-access-identity-groupsettings)」を参照してください。
**ヒント**  
また、ルートアクセスを Lambda 関数に付与するように `config.json` ファイルを更新する必要があります。手順については、「[root としての Lambda 関数の実行](lambda-group-config.md#lambda-running-as-root)」を参照してください。
      + **[Lambda function containerization]** (Lambda 関数のコンテナ化) で、**[No container]** (コンテナなし) を選択します。

        コンテナ化を使用しない実行の詳細については、「[Lambda 関数のコンテナ化を選択する場合の考慮事項](lambda-group-config.md#lambda-containerization-considerations)」を参照してください。
      + [**タイムアウト**] の値を 2 分に増やします。これにより、リクエストの早過ぎるタイムアウトがなくなります。セットアップ後、推論の実行には数分かかります。
      +  **[Pinned]** (固定)で、**[True]** を選択します。
      + **[Additional Parameter]** (追加のパラメータ) の、**[Read access to /sys directory]** (/sys ディレクトリへの読み取りアクセス) で、**[Enabled]** (有効) を選択します。

   1.  **代わりにコンテナ化モードで実行するには:** 
**注記**  
ビジネスケースで要求されない限り、コンテナ化モードでの実行はお勧めしていません。
      +  [**メモリ制限**] の値を 3000 MB に増やします。
      + [**タイムアウト**] の値を 2 分に増やします。これにより、リクエストの早過ぎるタイムアウトがなくなります。セットアップ後、推論の実行には数分かかります。
      +  **[Pinned]** (固定)で、**[True]** を選択します。
      + **[Additional Parameter]** (追加のパラメータ) の、**[Read access to /sys directory]** (/sys ディレクトリへの読み取りアクセス) で、**[Enabled]** (有効) を選択します。

1.  Neo 最適化モデルリソースをグループに追加します。[ステップ 3: 推論 Lambda 関数を作成する](#ml-console-dlc-create-lambda) で解凍したサンプルパッケージの `resnet50` ディレクトリにモデルリソースをアップロードします。このディレクトリには、Resnet-50 でトレーニングされたイメージ分類モデルのプリコンパイルされたモデルアーティファクトが含まれています。次の更新で、[ステップ 5: Greengrass グループに SageMaker AI Neo 最適化モデルリソースを追加する](#ml-console-dlc-add-resources) の手順に従います。
   + `resnet50` ディレクトリ内のファイルを `resnet50.zip` という名前のファイルに圧縮します。
   + [**Create a machine learning resource (機械学習リソースの作成)**] ページで、[**Resource name (リソース名)**] に**resnet50\$1model** と入力します。
   + `resnet50.zip` ファイルをアップロードします。

1. **コンテナ化モードで実行している場合**、必要なローカルデバイスリソースを追加して、デバイス GPU へのアクセスを付与します。
**注記**  
 コンテナ化されていないモードで を実行すると、 AWS IoT Greengrass はデバイスリソースを設定せずにデバイス GPU にアクセスできます。

   1. グループ設定ページで、**[Resources]** (リソース) タブを選択します。

   1. **[Local resources]** (ローカルリソース) タブで、**[Add local resource]** (ローカルリソースの追加) を選択します。

   1. リソースを定義します。
      + **[リソース名]** に **renderD128** と入力します。
      + **[リソースタイプ]** で、**[デバイス]** を選択します。
      + **[Local device path]** (ローカルデバイスパス) には、「**/dev/dri/renderD128**」と入力します。
      + **[System group owner and file access permissions]** (システムグループ所有者のファイルアクセス許可)で、**[Automatically add file system permissions of the system group that owns the resource]** (リソースを所有するシステムグループのファイルシステム権限を自動的に追加する) を選択します。

## NVIDIA Jetson TX2 の設定
<a name="jetson-lambda-dlc-config"></a>

 NVIDIA Jetson TX2 でこのチュートリアルを実行するには、ソースイメージを指定して、Lambda 関数を設定し、さらにローカルデバイスリソースを追加します。

1. Core AWS IoT Greengrass ソフトウェアをインストールし、推論に GPU を使用できるように、Jetson デバイスが設定されていることを確認します。デバイスの設定の詳細については、「[他のデバイスの設定](setup-filter.other.md)」を参照してください。NVIDIA Jetson TX2 で推論に GPU を使用するには、Jetpack 4.3 でボードのイメージを作成するときに、デバイスに CUDA 10.0 と cuDNN 7.0 をインストールする必要があります。

1. Lambda 関数用に静的な PNG あるいは JPG 画像をダウンロードして、イメージ分類に使用します。この例は小さいイメージファイルで最適に動作します。

   `inference.py` ファイルを含むディレクトリにイメージファイルを保存します。このディレクトリのサブディレクトリに保存することもできます。このディレクトリは、[ステップ 3: 推論 Lambda 関数を作成する](#ml-console-dlc-create-lambda) でアップロードした Lambda 関数デプロイパッケージにあります。
**注記**  
 代わりに、Jetson ボードにカメラを設置して、ソースイメージをキャプチャすることもできます。ただし、最初に静的イメージから開始することを強くお勧めします。

1. Lambda 関数の設定を編集します。「[ステップ 4: Lambda 関数を Greengrass グループに追加する](#ml-console-dlc-config-lambda)」の手順に従います。
**注記**  
 ビジネスケースで要求される場合を除き、Lambda 関数を、コンテナ化を使用しないで実行することをお勧めします。これにより、デバイスリソースを設定しなくても、デバイスの GPU とカメラにアクセスできるようになります。コンテナ化なしで を実行する場合は、 AWS IoT Greengrass Lambda 関数へのルートアクセスも許可する必要があります。

   1. **コンテナ化を使用せずに実行するには:**
      + **[Run as]** (として実行) に、「**Another user ID/group ID**」を選択します。**[UID]** に、「**0**」と入力します。**[GUID]** に、「**0**」と入力します。

        これにより、Lambda 関数を root として実行できます。root として実行の詳細については、「[グループ内の Lambda 関数に対するデフォルトのアクセス ID の設定](lambda-group-config.md#lambda-access-identity-groupsettings)」を参照してください。
**ヒント**  
また、ルートアクセスを Lambda 関数に付与するように `config.json` ファイルを更新する必要があります。手順については、「[root としての Lambda 関数の実行](lambda-group-config.md#lambda-running-as-root)」を参照してください。
      + **[Lambda function containerization]** (Lambda 関数のコンテナ化) で、**[No container]** (コンテナなし) を選択します。

        コンテナ化を使用しない実行の詳細については、「[Lambda 関数のコンテナ化を選択する場合の考慮事項](lambda-group-config.md#lambda-containerization-considerations)」を参照してください。
      + [**タイムアウト**] の値を 5 分に増やします。これにより、リクエストの早過ぎるタイムアウトがなくなります。セットアップ後、推論の実行には数分かかります。
      +  **[Pinned]** (固定)で、**[True]** を選択します。
      + **[Additional Parameter]** (追加のパラメータ) の、**[Read access to /sys directory]** (/sys ディレクトリへの読み取りアクセス) で、**[Enabled]** (有効) を選択します。

   1.  **代わりにコンテナ化モードで実行するには:** 
**注記**  
ビジネスケースで要求されない限り、コンテナ化モードでの実行はお勧めしていません。
      +  [**メモリ制限**] の値を増やします。指定されたモデルを GPU モードで使用するには、少なくとも 2000 MB を使用します。
      + [**タイムアウト**] の値を 5 分に増やします。これにより、リクエストの早過ぎるタイムアウトがなくなります。セットアップ後、推論の実行には数分かかります。
      +  **[Pinned]** (固定)で、**[True]** を選択します。
      + **[Additional Parameter]** (追加のパラメータ) の、**[Read access to /sys directory]** (/sys ディレクトリへの読み取りアクセス) で、**[Enabled]** (有効) を選択します。

1.  Neo 最適化モデルリソースをグループに追加します。[ステップ 3: 推論 Lambda 関数を作成する](#ml-console-dlc-create-lambda) で解凍したサンプルパッケージの `resnet18` ディレクトリにモデルリソースをアップロードします。このディレクトリには、Resnet-18 でトレーニングされたイメージ分類モデルのプリコンパイル済みのモデルアーティファクトが含まれています。次の更新で、[ステップ 5: Greengrass グループに SageMaker AI Neo 最適化モデルリソースを追加する](#ml-console-dlc-add-resources) の手順に従います。
   + `resnet18` ディレクトリ内のファイルを `resnet18.zip` という名前のファイルに圧縮します。
   + [**Create a machine learning resource (機械学習リソースの作成)**] ページで、[**Resource name (リソース名)**] に**resnet18\$1model** と入力します。
   + `resnet18.zip` ファイルをアップロードします。

1. **コンテナ化モードで実行している場合**、必要なローカルデバイスリソースを追加して、デバイス GPU へのアクセスを付与します。
**注記**  
 コンテナ化されていないモードで を実行すると、 AWS IoT Greengrass はデバイスリソースを設定せずにデバイス GPU にアクセスできます。

   1. グループ設定ページで、**[Resources]** (リソース) タブを選択します。

   1. **[Local resources]** (ローカルリソース) タブで、**[Add local resource]** (ローカルリソースの追加) を選択します。

   1. 各リソースを定義します。
      + [**リソース名**] と [**デバイスパス**] には、次の表の値を使用します。テーブルの行ごとに 1 つのデバイスリソースを作成します。
      + **[リソースタイプ]** で、**[デバイス]** を選択します。
      + **[System group owner and file access permissions]** (システムグループ所有者のファイルアクセス許可)で、**[Automatically add file system permissions of the system group that owns the resource]** (リソースを所有するシステムグループのファイルシステム権限を自動的に追加する) を選択します。

             
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/ml-dlc-console.html)

1. **コンテナ化モードで実行している場合**で、次のローカルボリュームリソースを追加して、デバイスカメラへのアクセスを許可します。「[ステップ 5: Greengrass グループに SageMaker AI Neo 最適化モデルリソースを追加する](#ml-console-dlc-add-resources)」の手順に従います。
**注記**  
 コンテナ化されていないモードで を実行する場合、 AWS IoT Greengrass はデバイスリソースを設定せずにデバイスカメラにアクセスできます。
   + [**リソースタイプ**] で、[**ボリューム**] を選択します。
   + **[System group owner and file access permissions]** (システムグループ所有者のファイルアクセス許可)で、**[Automatically add file system permissions of the system group that owns the resource]** (リソースを所有するシステムグループのファイルシステム権限を自動的に追加する) を選択します。

          
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/greengrass/v1/developerguide/ml-dlc-console.html)

1.  正しいディレクトリを使用するようにグループサブスクリプションを更新します。次の更新で、[ステップ 7: サブスクリプションを Greengrass グループに追加する](#ml-console-dlc-add-subscription) の手順に従います。
   + 最初のトピックフィルタには、**/resnet-18/predictions** と入力します。
   + 2 番目のトピックフィルタには、**/resnet-18/test** と入力します。

1.  正しいディレクトリを使用するようにテストサブスクリプションを更新します。次の更新で、[推論例をテストする](#ml-console-dlc-test-app) の手順に従います。
   +  **[Subscriptions]** (サブスクリプション) で、**[Subscribe to a Topic]** (トピックへのサブスクライブ) を選択します。[**Subscription topic (サブスクリプショントピック)**] で、**/resnet-18/predictions** と入力します。
   +  `/resnet-18/predictions` ページで、発行先の `/resnet-18/test` トピックを指定します。

## ML AWS IoT Greengrass 推論のトラブルシューティング
<a name="ml-inference-troubleshooting"></a>

テストに成功しなかった場合は、以下のトラブルシューティング手順を実行できます。Raspberry Pi のターミナルで以下のコマンドを実行します。

### エラーログを確認する
<a name="troubleshooting-check-logs"></a>

1. <a name="root-access-logs"></a>root ユーザーに切り替え、`log` ディレクトリに移動します。 AWS IoT Greengrass ログにアクセスするには、ルートアクセス許可が必要です。

   ```
   sudo su
   cd /greengrass/ggc/var/log
   ```

1. `runtime.log` でエラーがないかどうかを確認します。

   ```
   cat system/runtime.log | grep 'ERROR'
   ```

   ユーザー定義の Lambda 関数ログでもエラーがないかどうかを確認できます。

   ```
   cat user/your-region/your-account-id/lambda-function-name.log | grep 'ERROR'
   ```

   詳細については、「[ログによるトラブルシューティング](gg-troubleshooting.md#troubleshooting-logs)」を参照してください。

 

### Lambda 関数が正常にデプロイされていることを確認する
<a name="troubleshooting-check-lambda"></a>

1.  `/lambda` ディレクトリ内のデプロイされた Lambda の内容を一覧表示します。コマンドを実行する前に、プレースホルダーの値を置き換えてください。

   ```
   cd /greengrass/ggc/deployment/lambda/arn:aws:lambda:region:account:function:function-name:function-version
   ls -la
   ```

1.  ディレクトリに、[ステップ 3: 推論 Lambda 関数を作成する](#ml-console-dlc-create-lambda) でアップロードした `optimizedImageClassification.zip` デプロイパッケージと同じ内容が含まれることを確認します。

    `.py` ファイルと依存関係がディレクトリのルートにあることを確認します。

 

### 推論モデルが正常にデプロイされていることを確認する
<a name="troubleshooting-check-model"></a>

1. Lambda ランタイムプロセスのプロセス識別番号 (PID) を見つけます。

   ```
   ps aux | grep lambda-function-name
   ```

   出力では、Lambda ランタイムプロセスの行の 2 列目に PID が表示されます。

1.  Lambda ランタイム名前空間を入力します。コマンドを実行する前に、*pid* プレースホルダーの値を置き換えてください。
**注記**  
このディレクトリとその内容は、Lambda ランタイム名前空間にあるため、通常の Linux 名前空間には表示されません。

   ```
   sudo nsenter -t pid -m /bin/bash
   ```

1. ML リソース用に指定したローカルディレクトリの内容を一覧表示します。
**注記**  
 ML リソースのパスが `ml_model` 以外の場合は、ここで置き換えてください。

   ```
   cd /ml_model
   ls -ls
   ```

   以下のファイルが表示されます。

   ```
       56 -rw-r--r-- 1 ggc_user ggc_group     56703 Oct 29 20:07 model.json
   196152 -rw-r--r-- 1 ggc_user ggc_group 200855043 Oct 29 20:08 model.params
      256 -rw-r--r-- 1 ggc_user ggc_group    261848 Oct 29 20:07 model.so
       32 -rw-r--r-- 1 ggc_user ggc_group     30564 Oct 29 20:08 synset.txt
   ```

 

### Lambda 関数で `/dev/dri/renderD128` が見つからない
<a name="troubleshooting-atom-config"></a>

 このエラーは、OpenCL から必要な GPU デバイスに接続できない場合に発生します。Lambda 関数に必要なデバイスでデバイスリソースを作成する必要があります。

## 次の手順
<a name="next-dlc-steps"></a>

 次は、最適化された他のモデルを試します。詳細については、[SageMaker AI Neo ドキュメント](https://docs.aws.amazon.com/sagemaker/latest/dg/neo.html)を参照してください。