

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Explore el entorno de clústeres en AWS PCS
<a name="getting-started_explore"></a>

 Una vez que haya iniciado sesión en el clúster, podrá ejecutar comandos de shell. Por ejemplo, puede cambiar de usuario, trabajar con datos en sistemas de archivos compartidos e interactuar con Slurm. 

## Cambiar de usuario
<a name="getting-started_explore_change-user"></a>

 Si ha iniciado sesión en el clúster mediante el Administrador de sesiones, es posible que esté conectado como`ssm-user`. Se trata de un usuario especial que se creó para el Administrador de sesiones. Cambie al usuario predeterminado en Amazon Linux 2 mediante el siguiente comando. No necesitará hacer esto si se conectó mediante SSH.

```
sudo su - ec2-user
```

## Trabaje con sistemas de archivos compartidos
<a name="getting-started_explore_fs"></a>

Puede confirmar que el sistema de archivos EFS y los sistemas FSx de archivos Lustre están disponibles con el comando. `df -h` El resultado del clúster debe ser similar al siguiente:

```
[ec2-user@ip-10-3-6-103 ~]$ df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   3.8G     0  3.8G   0% /dev
tmpfs                      3.9G     0  3.9G   0% /dev/shm
tmpfs                      3.9G  556K  3.9G   1% /run
tmpfs                      3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/nvme0n1p1              24G   18G  6.6G  73% /
127.0.0.1:/                8.0E     0  8.0E   0% /home
10.3.132.79@tcp:/zlshxbev  1.2T  7.5M  1.2T   1% /shared
tmpfs                      780M     0  780M   0% /run/user/0
tmpfs                      780M     0  780M   0% /run/user/1000
```

 El `/home` sistema de archivos monta 127.0.0.1 y tiene una capacidad muy grande. Este es el sistema de archivos EFS que creó anteriormente en el tutorial. Todos los archivos que se escriban aquí estarán disponibles `/home` en todos los nodos del clúster. 

 El `/shared` sistema de archivos monta una IP privada y tiene una capacidad de 1,2 TB. Este es el sistema de archivos FSx para Lustre que creó anteriormente en el tutorial. Todos los archivos que se escriban aquí estarán disponibles `/shared` en todos los nodos del clúster. 

## Interactúa con Slurm
<a name="getting-started_explore_slurm"></a>

**Contents**
+ [Enumere las colas y los nodos](#getting-started_explore_slurm_queues)
+ [Mostrar trabajos](#getting-started_explore_slurm_jobs)

### Enumere las colas y los nodos
<a name="getting-started_explore_slurm_queues"></a>

 Puede enumerar las colas y los nodos a los que están asociadas. `sinfo` El resultado del clúster debe ser similar al siguiente: 

```
[ec2-user@ip-10-3-6-103 ~]$ sinfo
PARTITION AVAIL  TIMELIMIT  NODES  STATE NODELIST
demo         up   infinite      4  idle~ compute-1-[1-4]
[ec2-user@ip-10-3-6-103 ~]$
```

 Anote el nombre de la partición`demo`. Su estado es `up` y tiene un máximo de 4 nodos. Está asociado a los nodos del grupo de `compute-1` nodos. Si edita el grupo de nodos de cómputo y aumenta el número máximo de instancias a 8, el número de nodos se leerá `8` y la lista de nodos se leerá`compute-1-[1-8]`. Si creara un segundo grupo de nodos de cómputo `test` con un nombre de 4 nodos y lo añadiera a la `demo` cola, esos nodos también aparecerían en la lista de nodos. 

### Mostrar trabajos
<a name="getting-started_explore_slurm_jobs"></a>

 Puede enumerar todos los trabajos, en cualquier estado, del sistema con`squeue`. El resultado del clúster debe ser similar al siguiente: 

```
[ec2-user@ip-10-3-6-103 ~]$ squeue
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
```

Intente `squeue` volver a ejecutarlo más tarde, cuando tenga un trabajo de Slurm pendiente o en ejecución. 