

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Avvio di un'istanza DLAMI con Neuron AWS
<a name="tutorial-inferentia-launching"></a>

 L'ultimo DLAMI è pronto per l'uso con AWS Inferentia e viene fornito con il AWS pacchetto API Neuron. Per avviare un'istanza DLAMI, vedere [Avvio e configurazione](https://docs.aws.amazon.com/dlami/latest/devguide/launch-config.html) di un DLAMI. Dopo aver installato un DLAMI, segui questi passaggi per assicurarti che il tuo chip AWS Inferentia e le risorse AWS Neuron siano attivi.

**Topics**
+ [Verifica la tua istanza](#tutorial-inferentia-launching-verify)
+ [Identificazione dei dispositivi AWS Inferentia](#tutorial-inferentia-launching-identify)
+ [Visualizza l'utilizzo delle risorse](#tutorial-inferentia-launching-resource-usage)
+ [Utilizzo di Neuron Monitor (neuron-monitor)](#tutorial-inferentia-launching-neuron-monitor)
+ [Aggiornamento del software Neuron](#tutorial-inferentia-launching-upgrade)

## Verifica la tua istanza
<a name="tutorial-inferentia-launching-verify"></a>

 Prima di usare l'istanza, verifica che sia correttamente configurata e configurata con Neuron. 

## Identificazione dei dispositivi AWS Inferentia
<a name="tutorial-inferentia-launching-identify"></a>

 Per identificare il numero di dispositivi Inferentia sulla tua istanza, usa il seguente comando: 

```
neuron-ls
```

 Se all'istanza sono collegati dispositivi Inferentia, l'output sarà simile al seguente: 

```
+--------+--------+--------+-----------+--------------+
| NEURON | NEURON | NEURON | CONNECTED |     PCI      |
| DEVICE | CORES  | MEMORY |  DEVICES  |     BDF      |
+--------+--------+--------+-----------+--------------+
| 0      | 4      | 8 GB   | 1         | 0000:00:1c.0 |
| 1      | 4      | 8 GB   | 2, 0      | 0000:00:1d.0 |
| 2      | 4      | 8 GB   | 3, 1      | 0000:00:1e.0 |
| 3      | 4      | 8 GB   | 2         | 0000:00:1f.0 |
+--------+--------+--------+-----------+--------------+
```

 L'output fornito è tratto da un'istanza INF1.6xLarge e include le seguenti colonne:
+ NEURON DEVICE: L'ID logico assegnato a. NeuronDevice Questo ID viene utilizzato quando si configurano più runtime per utilizzarne diversi. NeuronDevices
+ NEURON CORES: Il numero di NeuronCores core presenti in. NeuronDevice 
+ NEURON MEMORY: La quantità di memoria DRAM contenuta in. NeuronDevice
+ DISPOSITIVI COLLEGATI: Altri NeuronDevices collegati a. NeuronDevice 
+ PCI BDF: L'ID PCI Bus Device Function (BDF) di. NeuronDevice

## Visualizza l'utilizzo delle risorse
<a name="tutorial-inferentia-launching-resource-usage"></a>

 Visualizza informazioni utili sull' NeuronCore utilizzo della vCPU, sull'utilizzo della memoria, sui modelli caricati e sulle applicazioni Neuron con il comando. `neuron-top` L'avvio `neuron-top` senza argomenti mostrerà i dati per tutte le applicazioni di machine learning che utilizzano. NeuronCores 

```
neuron-top
```

 Quando un'applicazione ne utilizza quattro NeuronCores, l'output dovrebbe essere simile all'immagine seguente: 

![\[L'output del neuron-top comando, con le informazioni relative a una delle quattro NeuronCores evidenziate.\]](http://docs.aws.amazon.com/it_it/dlami/latest/devguide/images/neuron-top-output.png)


[Per ulteriori informazioni sulle risorse per monitorare e ottimizzare le applicazioni di inferenza basate su Neuron, consulta Neuron Tools.](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/index.html)

## Utilizzo di Neuron Monitor (neuron-monitor)
<a name="tutorial-inferentia-launching-neuron-monitor"></a>

Neuron Monitor raccoglie le metriche dai runtime Neuron in esecuzione sul sistema e trasmette i dati raccolti a stdout in formato JSON. Queste metriche sono organizzate in gruppi di metriche che puoi configurare fornendo un file di configurazione. Per ulteriori informazioni su Neuron Monitor, consulta la [Guida per l'utente](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-guide/neuron-tools/neuron-monitor-user-guide.html) di Neuron Monitor.

## Aggiornamento del software Neuron
<a name="tutorial-inferentia-launching-upgrade"></a>

[Per informazioni su come aggiornare il software Neuron SDK all'interno di DLAMI, consultate la Neuron Setup Guide. AWS](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/neuron-intro/neuron-install-guide.html)

**Fase succcessiva**  
[Usare il DLAMI con Neuron AWS](tutorial-inferentia-using.md)