

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# AWS Neuron を使用した DLAMI インスタンスの起動
<a name="tutorial-inferentia-launching"></a>

 最新の DLAMI は Inferentia AWS で使用できるようになり、 AWS Neuron API パッケージが付属しています。DLAMI インスタンスを起動するには、[DLAMI の起動と設定](https://docs.aws.amazon.com/dlami/latest/devguide/launch-config.html)を参照してください。DLAMI を作成したら、以下のステップを使用して、 AWS Inferentia チップと AWS Neuron リソースがアクティブであることを確認します。

**Topics**
+ [インスタンスの確認](#tutorial-inferentia-launching-verify)
+ [AWS Inferentia デバイスの識別](#tutorial-inferentia-launching-identify)
+ [リソースの使用状況の表示](#tutorial-inferentia-launching-resource-usage)
+ [Neuron Monitor (neuron-monitor) の使用](#tutorial-inferentia-launching-neuron-monitor)
+ [Neuron ソフトウェアのアップグレード](#tutorial-inferentia-launching-upgrade)

## インスタンスの確認
<a name="tutorial-inferentia-launching-verify"></a>

 インスタンスを使用する前に、インスタンスが正しくセットアップされ、Neuron で設定されていることを確認します。

## AWS Inferentia デバイスの識別
<a name="tutorial-inferentia-launching-identify"></a>

 インスタンス上の Inferentia デバイスの数を確認するには、次のコマンドを使用します。

```
neuron-ls
```

 インスタンスに Inferentia デバイスがアタッチされている場合、出力は次のようになります。

```
+--------+--------+--------+-----------+--------------+
| NEURON | NEURON | NEURON | CONNECTED |     PCI      |
| DEVICE | CORES  | MEMORY |  DEVICES  |     BDF      |
+--------+--------+--------+-----------+--------------+
| 0      | 4      | 8 GB   | 1         | 0000:00:1c.0 |
| 1      | 4      | 8 GB   | 2, 0      | 0000:00:1d.0 |
| 2      | 4      | 8 GB   | 3, 1      | 0000:00:1e.0 |
| 3      | 4      | 8 GB   | 2         | 0000:00:1f.0 |
+--------+--------+--------+-----------+--------------+
```

 示されている出力は Inf1.6xLarge インスタンスから取得されたものであり、次の列が含まれています。
+ NEURON DEVICE: NeuronDevice に割り当てられた論理 ID。この ID は、異なる NeuronDevice を使用するように複数のランタイムを設定する場合に使用されます。
+ NEURON CORES: NeuronDevice に存在する NeuronCore の数。
+ NEURON MEMORY: NeuronDevice 内の DRAM メモリの量。
+ CONNECTED DEVICES: NeuronDevice に接続されている他の NeuronDevice。
+ PCI BDF: NeuronDevice の PCI バスデバイス機能 (BDF) ID。

## リソースの使用状況の表示
<a name="tutorial-inferentia-launching-resource-usage"></a>

 `neuron-top` コマンドを使用して、NeuronCore と vCPU の使用率、メモリ使用率、ロードされたモデル、Neuron アプリケーションに関する有用な情報を表示します。引数を指定せずに `neuron-top` を起動すると、NeuronCore を使用するすべての機械学習アプリケーションのデータが表示されます。

```
neuron-top
```

 アプリケーションが 4 つの NeuronCore を使用している場合、出力は以下の画像のようになります。

![\[neuron-top コマンドの出力。4 つの NeuronCore のうちの 1 つの情報が強調表示されています。\]](http://docs.aws.amazon.com/ja_jp/dlami/latest/devguide/images/neuron-top-output.png)


Neuron ベースの推論アプリケーションを監視および最適化するためのリソースの詳細については、[Neuron Tools](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/index.html) を参照してください。

## Neuron Monitor (neuron-monitor) の使用
<a name="tutorial-inferentia-launching-neuron-monitor"></a>

Neuron Monitor は、システムで実行されている Neuron ランタイムからメトリクスを収集し、収集したデータを JSON 形式で標準出力にストリーミングします。これらのメトリクスは、設定ファイルを指定して設定するメトリクスグループに編成されます。Neuron Monitor の詳細については、[Neuron Monitor User Guide](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/neuron-monitor-user-guide.html) を参照してください。

## Neuron ソフトウェアのアップグレード
<a name="tutorial-inferentia-launching-upgrade"></a>

DLAMI 内で Neuron SDK ソフトウェアを更新する方法については、 AWS 「 Neuron [セットアップガイド](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/neuron-install-guide.html)」を参照してください。

**次のステップ**  
[AWS Neuron での DLAMI の使用](tutorial-inferentia-using.md)