

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Starten einer DLAMI-Instanz mit Neuron AWS
<a name="tutorial-inferentia-launching"></a>

 Das neueste DLAMI ist sofort mit AWS Inferentia einsatzbereit und wird mit dem AWS Neuron API-Paket geliefert. Informationen zum Starten einer DLAMI-Instanz finden Sie unter [Starten und Konfigurieren einer](https://docs.aws.amazon.com/dlami/latest/devguide/launch-config.html) DLAMI-Instanz. Nachdem Sie ein DLAMI haben, gehen Sie wie hier beschrieben vor, um sicherzustellen, dass Ihr AWS Inferentia-Chip und Ihre AWS Neuron-Ressourcen aktiv sind.

**Topics**
+ [Verifizieren der Instance](#tutorial-inferentia-launching-verify)
+ [Identifizieren von AWS Inferentia-Geräten](#tutorial-inferentia-launching-identify)
+ [Anzeigen des Ressourcenverbrauchs](#tutorial-inferentia-launching-resource-usage)
+ [Verwendung von Neuron Monitor (Neuron-Monitor)](#tutorial-inferentia-launching-neuron-monitor)
+ [Aktualisierung der Neuron-Software](#tutorial-inferentia-launching-upgrade)

## Verifizieren der Instance
<a name="tutorial-inferentia-launching-verify"></a>

 Bevor Sie Ihre Instance verwenden, stellen Sie sicher, dass sie ordnungsgemäß eingerichtet und mit Neuron konfiguriert ist. 

## Identifizieren von AWS Inferentia-Geräten
<a name="tutorial-inferentia-launching-identify"></a>

 Verwenden Sie den folgenden Befehl, um die Anzahl der Inferentia-Geräte auf Ihrer Instance zu ermitteln: 

```
neuron-ls
```

 Wenn an Ihre Instance Inferentia-Geräte angeschlossen sind, sieht Ihre Ausgabe in etwa wie folgt aus: 

```
+--------+--------+--------+-----------+--------------+
| NEURON | NEURON | NEURON | CONNECTED |     PCI      |
| DEVICE | CORES  | MEMORY |  DEVICES  |     BDF      |
+--------+--------+--------+-----------+--------------+
| 0      | 4      | 8 GB   | 1         | 0000:00:1c.0 |
| 1      | 4      | 8 GB   | 2, 0      | 0000:00:1d.0 |
| 2      | 4      | 8 GB   | 3, 1      | 0000:00:1e.0 |
| 3      | 4      | 8 GB   | 2         | 0000:00:1f.0 |
+--------+--------+--------+-----------+--------------+
```

 Die bereitgestellte Ausgabe stammt aus einer INF1.6XLarge-Instance und umfasst die folgenden Spalten:
+ NEURON DEVICE: Die logische ID, die dem zugewiesen ist. NeuronDevice Diese ID wird verwendet, wenn mehrere Laufzeiten für die Verwendung verschiedener Laufzeiten konfiguriert werden. NeuronDevices
+ NEURON-KERNE: Die Anzahl der NeuronCores vorhandenen Kerne in der. NeuronDevice 
+ NEURONENSPEICHER: Die Menge an DRAM-Speicher im. NeuronDevice
+ ANGESCHLOSSENE GERÄTE: Andere, die NeuronDevices mit dem verbunden sind. NeuronDevice 
+ PCI BDF: Die PCI-Bus-Gerätefunktions-ID (BDF) des. NeuronDevice

## Anzeigen des Ressourcenverbrauchs
<a name="tutorial-inferentia-launching-resource-usage"></a>

 Zeigen Sie mit dem Befehl nützliche Informationen NeuronCore zur vCPU-Auslastung, zur Speichernutzung, zu geladenen Modellen und Neuron-Anwendungen an`neuron-top`. Wenn Sie `neuron-top` ohne Argumente starten, werden Daten für alle maschinellen Lernanwendungen angezeigt, die dies verwenden. NeuronCores 

```
neuron-top
```

 Wenn eine Anwendung vier verwendet NeuronCores, sollte die Ausgabe der folgenden Abbildung ähneln: 

![\[Die Ausgabe des neuron-top Befehls, wobei Informationen für eine von vier Optionen NeuronCores hervorgehoben sind.\]](http://docs.aws.amazon.com/de_de/dlami/latest/devguide/images/neuron-top-output.png)


[Weitere Informationen zu Ressourcen zur Überwachung und Optimierung neuronaler Inferenzanwendungen finden Sie unter Neuron Tools.](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/index.html)

## Verwendung von Neuron Monitor (Neuron-Monitor)
<a name="tutorial-inferentia-launching-neuron-monitor"></a>

Neuron Monitor sammelt Metriken aus den Neuron-Laufzeiten, die auf dem System laufen, und streamt die gesammelten Daten im JSON-Format auf stdout. Diese Metriken sind in Metrikgruppen organisiert, die Sie konfigurieren, indem Sie eine Konfigurationsdatei bereitstellen. Weitere Informationen zu Neuron Monitor finden Sie im [Benutzerhandbuch für Neuron](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/neuron-monitor-user-guide.html) Monitor.

## Aktualisierung der Neuron-Software
<a name="tutorial-inferentia-launching-upgrade"></a>

[Informationen zum Aktualisieren der Neuron SDK-Software in DLAMI finden Sie im AWS Neuron Setup Guide.](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/neuron-install-guide.html)

**Nächster Schritt**  
[Verwendung des DLAMI mit Neuron AWS](tutorial-inferentia-using.md)