

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Explore o ambiente de cluster no AWS PCS
<a name="getting-started_explore"></a>

 Depois de fazer login no cluster, você pode executar comandos shell. Por exemplo, você pode alterar usuários, trabalhar com dados em sistemas de arquivos compartilhados e interagir com o Slurm. 

## Alterar usuário
<a name="getting-started_explore_change-user"></a>

 Se você fez login no cluster usando o Gerenciador de Sessões, você pode estar conectado como`ssm-user`. Esse é um usuário especial criado para o Gerenciador de Sessões. Mude para o usuário padrão no Amazon Linux 2 usando o comando a seguir. Você não precisará fazer isso se estiver conectado usando SSH.

```
sudo su - ec2-user
```

## Trabalhe com sistemas de arquivos compartilhados
<a name="getting-started_explore_fs"></a>

Você pode confirmar se o sistema de arquivos EFS e FSx os sistemas de arquivos Lustre estão disponíveis com o comando. `df -h` A saída em seu cluster deve ser semelhante à seguinte:

```
[ec2-user@ip-10-3-6-103 ~]$ df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   3.8G     0  3.8G   0% /dev
tmpfs                      3.9G     0  3.9G   0% /dev/shm
tmpfs                      3.9G  556K  3.9G   1% /run
tmpfs                      3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/nvme0n1p1              24G   18G  6.6G  73% /
127.0.0.1:/                8.0E     0  8.0E   0% /home
10.3.132.79@tcp:/zlshxbev  1.2T  7.5M  1.2T   1% /shared
tmpfs                      780M     0  780M   0% /run/user/0
tmpfs                      780M     0  780M   0% /run/user/1000
```

 O `/home` sistema de arquivos monta 127.0.0.1 e tem uma capacidade muito grande. Esse é o sistema de arquivos EFS que você criou anteriormente no tutorial. Todos os arquivos gravados aqui estarão disponíveis `/home` em todos os nós do cluster. 

 O `/shared` sistema de arquivos monta um IP privado e tem uma capacidade de 1,2 TB. Esse é o sistema FSx de arquivos do Lustre que você criou anteriormente no tutorial. Todos os arquivos gravados aqui estarão disponíveis `/shared` em todos os nós do cluster. 

## Interaja com o Slurm
<a name="getting-started_explore_slurm"></a>

**Contents**
+ [Listar filas e nós](#getting-started_explore_slurm_queues)
+ [Mostrar empregos](#getting-started_explore_slurm_jobs)

### Listar filas e nós
<a name="getting-started_explore_slurm_queues"></a>

 Você pode listar as filas e os nós aos quais elas estão associadas ao uso`sinfo`. A saída do seu cluster deve ser semelhante à seguinte: 

```
[ec2-user@ip-10-3-6-103 ~]$ sinfo
PARTITION AVAIL  TIMELIMIT  NODES  STATE NODELIST
demo         up   infinite      4  idle~ compute-1-[1-4]
[ec2-user@ip-10-3-6-103 ~]$
```

 Observe a partição chamada`demo`. Seu status é `up` e tem no máximo 4 nós. Está associado aos nós do grupo de `compute-1` nós. Se você editar o grupo de nós de computação e aumentar o número máximo de instâncias para 8, o número de nós será lido `8` e a lista de nós será lida`compute-1-[1-8]`. Se você criasse um segundo grupo de nós de computação chamado `test` com 4 nós e o adicionasse à `demo` fila, esses nós também apareceriam na lista de nós. 

### Mostrar empregos
<a name="getting-started_explore_slurm_jobs"></a>

 Você pode listar todos os trabalhos, em qualquer estado, no sistema com`squeue`. A saída do seu cluster deve ser semelhante à seguinte: 

```
[ec2-user@ip-10-3-6-103 ~]$ squeue
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
```

Tente executar `squeue` novamente mais tarde, quando você tiver um trabalho do Slurm pendente ou em execução. 