Lancer une DLAMI instance avec AWS Neuron - AWS Apprentissage profond (deep learning) AMIs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Lancer une DLAMI instance avec AWS Neuron

La dernière version DLAMI est prête à être utilisée avec AWS Inferentia et est fournie avec le package AWS NeuronAPI. Pour lancer une DLAMI instance, consultez la section Lancement et configuration d'une instanceDLAMI. Après avoir obtenu unDLAMI, suivez les étapes ci-dessous pour vous assurer que votre puce AWS Inferentia et vos ressources AWS Neuron sont actives.

Vérification de votre instance

Avant d'utiliser votre instance, vérifiez qu'elle est correctement configurée et configurée avec Neuron.

Identification des AWS dispositifs d'inférence

Pour identifier le nombre d'appareils Inferentia sur votre instance, utilisez la commande suivante :

neuron-ls

Si des périphériques Inferentia sont attachés à votre instance, votre sortie ressemblera à ce qui suit :

+--------+--------+--------+-----------+--------------+ | NEURON | NEURON | NEURON | CONNECTED | PCI | | DEVICE | CORES | MEMORY | DEVICES | BDF | +--------+--------+--------+-----------+--------------+ | 0 | 4 | 8 GB | 1 | 0000:00:1c.0 | | 1 | 4 | 8 GB | 2, 0 | 0000:00:1d.0 | | 2 | 4 | 8 GB | 3, 1 | 0000:00:1e.0 | | 3 | 4 | 8 GB | 2 | 0000:00:1f.0 | +--------+--------+--------+-----------+--------------+

La sortie fournie provient d'une instance INF1.6xLarge et inclut les colonnes suivantes :

  • NEURONDEVICE: ID logique attribué au NeuronDevice. Cet ID est utilisé lors de la configuration de plusieurs environnements d'exécution pour en utiliser différents. NeuronDevices

  • NEURONCORES: Le nombre de NeuronCores présents dans le NeuronDevice.

  • NEURONMEMORY: La quantité de DRAM mémoire contenue dans le NeuronDevice.

  • CONNECTEDDEVICES: Autre NeuronDevices connecté au NeuronDevice.

  • PCIBDF: L'identifiant de fonction du périphérique de PCI bus (BDF) du NeuronDevice.

Affichage de l'utilisation des ressources

Affichez des informations utiles sur l'utilisation de NeuronCore et v, CPU l'utilisation de la mémoire, les modèles chargés et les applications Neuron à l'aide de la neuron-top commande. Le lancement neuron-top sans arguments affichera les données de toutes les applications d'apprentissage automatique qui les utilisent NeuronCores.

neuron-top

Lorsqu'une application en utilise quatre NeuronCores, le résultat doit ressembler à l'image suivante :

Le résultat de la neuron-top commande, avec les informations relatives à l'une des quatre commandes NeuronCores mises en évidence.

Pour plus d'informations sur les ressources permettant de surveiller et d'optimiser les applications d'inférence basées sur les neurones, consultez Neuron Tools.

Utilisation de Neuron Monitor (neuron-monitor)

Neuron Monitor collecte des métriques à partir des environnements d'exécution Neuron exécutés sur le système et diffuse les données collectées au format stdout. JSON Ces métriques sont organisées en groupes de métriques que vous configurez en fournissant un fichier de configuration. Pour plus d'informations sur Neuron Monitor, consultez le guide de l'utilisateur de Neuron Monitor.

Mise à niveau du logiciel Neuron

Pour plus d'informations sur la mise à jour du SDK logiciel Neuron intégréDLAMI, consultez le guide de configuration de AWS Neuron.

Étape suivante

Utilisation du DLAMI avec AWS Neuron