

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Explorez l'environnement de cluster dans AWS PCS
<a name="getting-started_explore"></a>

 Une fois connecté au cluster, vous pouvez exécuter des commandes shell. Par exemple, vous pouvez changer d'utilisateur, travailler avec des données sur des systèmes de fichiers partagés et interagir avec Slurm. 

## Changer d'utilisateur
<a name="getting-started_explore_change-user"></a>

 Si vous vous êtes connecté au cluster à l'aide du gestionnaire de session, vous êtes peut-être connecté en tant que`ssm-user`. Il s'agit d'un utilisateur spécial créé pour le gestionnaire de session. Passez à l'utilisateur par défaut sur Amazon Linux 2 à l'aide de la commande suivante. Vous n'aurez pas besoin de le faire si vous vous êtes connecté via SSH.

```
sudo su - ec2-user
```

## Travailler avec des systèmes de fichiers partagés
<a name="getting-started_explore_fs"></a>

Vous pouvez vérifier que le système de fichiers EFS et FSx les systèmes de fichiers Lustre sont disponibles à l'aide de la commande`df -h`. La sortie de votre cluster doit ressembler à ce qui suit :

```
[ec2-user@ip-10-3-6-103 ~]$ df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   3.8G     0  3.8G   0% /dev
tmpfs                      3.9G     0  3.9G   0% /dev/shm
tmpfs                      3.9G  556K  3.9G   1% /run
tmpfs                      3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/nvme0n1p1              24G   18G  6.6G  73% /
127.0.0.1:/                8.0E     0  8.0E   0% /home
10.3.132.79@tcp:/zlshxbev  1.2T  7.5M  1.2T   1% /shared
tmpfs                      780M     0  780M   0% /run/user/0
tmpfs                      780M     0  780M   0% /run/user/1000
```

 Le système de `/home` fichiers monte 127.0.0.1 et possède une très grande capacité. Il s'agit du système de fichiers EFS que vous avez créé plus tôt dans le didacticiel. Tous les fichiers écrits ici seront disponibles `/home` sur tous les nœuds du cluster. 

 Le système de `/shared` fichiers monte une adresse IP privée et a une capacité de 1,2 To. Il s'agit du système de fichiers FSx for Lustre que vous avez créé plus tôt dans le didacticiel. Tous les fichiers écrits ici seront disponibles `/shared` sur tous les nœuds du cluster. 

## Interagir avec Slurm
<a name="getting-started_explore_slurm"></a>

**Contents**
+ [Répertorier les files d'attente et les nœuds](#getting-started_explore_slurm_queues)
+ [Afficher les offres d'emploi](#getting-started_explore_slurm_jobs)

### Répertorier les files d'attente et les nœuds
<a name="getting-started_explore_slurm_queues"></a>

 Vous pouvez répertorier les files d'attente et les nœuds auxquels elles sont associées à l'aide`sinfo`. La sortie de votre cluster doit ressembler à ce qui suit : 

```
[ec2-user@ip-10-3-6-103 ~]$ sinfo
PARTITION AVAIL  TIMELIMIT  NODES  STATE NODELIST
demo         up   infinite      4  idle~ compute-1-[1-4]
[ec2-user@ip-10-3-6-103 ~]$
```

 Notez le nom de la partition`demo`. Son statut est `up` et il dispose d'un maximum de 4 nœuds. Il est associé aux nœuds du groupe de `compute-1` nœuds. Si vous modifiez le groupe de nœuds de calcul et augmentez le nombre maximum d'instances à 8, le nombre de nœuds sera lu `8` et la liste des nœuds sera lue`compute-1-[1-8]`. Si vous avez créé un deuxième groupe de nœuds de calcul nommé `test` avec 4 nœuds et que vous l'avez ajouté à la `demo` file d'attente, ces nœuds apparaîtront également dans la liste des nœuds. 

### Afficher les offres d'emploi
<a name="getting-started_explore_slurm_jobs"></a>

 Vous pouvez répertorier toutes les tâches du système, quel que soit leur état, avec`squeue`. La sortie de votre cluster doit ressembler à ce qui suit : 

```
[ec2-user@ip-10-3-6-103 ~]$ squeue
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
```

Réessayez de l'exécuter `squeue` ultérieurement, lorsqu'une tâche Slurm est en attente ou en cours d'exécution. 