As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Seção [cluster]
Define um modelo de cluster que pode ser usado para criar um cluster. Um arquivo de configuração pode conter várias seções [cluster]
.
O mesmo modelo de cluster pode ser usado para criar vários clusters.
O formato é [cluster
. A seção [cluster] nomeada pela configuração cluster_template na seção [global] é usada por padrão, mas pode ser substituída na linha de comando pcluster.cluster-template-name
]
cluster-template-name
deve começar com uma letra, conter no máximo 30 caracteres e conter somente letras, números, hífens (-) e sublinhados (_).
[cluster default]
Tópicos
additional_cfn_template
(Opcional) Define um AWS CloudFormation modelo adicional a ser executado junto com o cluster. Esse modelo adicional é usado para a criação de recursos que existem fora do cluster, mas que fazem parte do ciclo de vida do cluster.
Esse valor deve ser um URL HTTP para um modelo público, com todos os parâmetros fornecidos.
Não há valor padrão.
additional_cfn_template = https://
<bucket-name>
.s3.amazonaws.com/my-cfn-template.yaml
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
additional_iam_policies
(Opcional) Especifica uma lista de nomes de recursos da Amazon (ARNs) de políticas do IAM para a Amazon EC2. Essa lista é anexada à função raiz usada no cluster, além das permissões exigidas pelo AWS ParallelCluster separadas por vírgulas. O nome da política do IAM e seu ARN são diferentes. Os nomes não podem ser usados como um argumento para additional_iam_policies
.
Se sua intenção é adicionar políticas extras às configurações padrão dos nós do cluster, recomendamos que você transmita as políticas personalizadas adicionais do IAM com a additional_iam_policies
configuração, em vez de usar as ec2_iam_roleconfigurações para adicionar suas EC2 políticas específicas. Isso ocorre porque additional_iam_policies
são adicionados às permissões padrão AWS ParallelCluster exigidas. Um ec2_iam_role existente deve incluir todas as permissões necessárias. No entanto, como as permissões necessárias geralmente mudam de uma versão para outra à medida que os recursos são adicionados, um ec2_iam_role pode se tornar obsoleto.
Não há valor padrão.
additional_iam_policies = arn:aws:iam::123456789012:policy/
CustomEC2Policy
nota
O suporte para additional_iam_policies foi adicionado ao AWS ParallelCluster versão 2.5.0.
Política de atualização: essa configuração pode ser alterada durante uma atualização.
base_os
(Obrigatório) Especifica qual tipo de SO é usado no cluster.
As opções disponíveis são:
-
alinux2
-
centos7
-
ubuntu1804
-
ubuntu2004
nota
Somente para instâncias AWS baseadas em Graviton alinux2
ubuntu1804
, ou ubuntu2004
são compatíveis.
nota
Support for centos8
removido na AWS ParallelCluster versão 2.11.4. O suporte para ubuntu2004
foi adicionado e o suporte para alinux
e ubuntu1604
foi removido na versão 2.11.0 do AWS ParallelCluster . O suporte para centos8
foi adicionado e o suporte para centos6
foi removido na AWS ParallelCluster versão 2.10.0. O suporte para alinux2
foi adicionado ao AWS ParallelCluster
versão 2.6.0. O suporte para ubuntu1804
foi adicionado e o suporte para ubuntu1404
foi removido no AWS ParallelCluster versão 2.5.0.
Além dos específicos Regiões da AWS mencionados na tabela a seguir, que não são compatíveiscentos7
. Todas as outras regiões AWS comerciais oferecem suporte a todos os sistemas operacionais a seguir.
Partição (Regiões da AWS) | alinux2 |
centos7 |
ubuntu1804 e ubuntu2004 |
---|---|---|---|
Comercial (tudo Regiões da AWS não mencionado especificamente) | Verdadeiro | Verdadeiro | Verdadeiro |
AWS GovCloud (Leste dos EUA) (us-gov-east-1 ) |
Verdadeiro | Falso | Verdadeiro |
AWS GovCloud (Oeste dos EUA) (us-gov-west-1 ) |
Verdadeiro | Falso | Verdadeiro |
China (Pequim) (cn-north-1 ) |
Verdadeiro | Falso | Verdadeiro |
China (Ningxia) (cn-northwest-1 ) |
Verdadeiro | Falso | Verdadeiro |
nota
O parâmetro base_os também determina o nome de usuário que é usado para fazer login no cluster.
-
centos7
:centos
-
ubuntu1804
eubuntu2004
:ubuntu
-
alinux2
:ec2-user
nota
Antes da AWS ParallelCluster versão 2.7.0, o base_os parâmetro era opcional e o padrão era. alinux
A partir do AWS ParallelCluster
versão 2.7.0, o parâmetro base_os é obrigatório.
nota
Se o parâmetro scheduler for awsbatch
, somente alinux2
será aceito.
base_os = alinux2
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
cluster_resource_bucket
(Opcional) Especifica o nome do bucket do Amazon S3 usado para hospedar recursos que são gerados quando o cluster é criado. O bucket deve ter o versionamento ativado. Para obter mais informações, consulte Usando versionamento no Guia do usuário do Amazon Simple Storage Service. Esse bucket pode ser usado para vários clusters. O bucket do deve estar na mesma região que o cluster.
Se esse parâmetro não for especificado, um novo bucket será criado quando o cluster for criado. O novo bucket tem o nome de parallelcluster-
. Nesse nome, random_string
random_string
é uma sequência aleatória de caracteres alfanuméricos. Todos os recursos do cluster são armazenados nesse bucket em um caminho com o formulário
. bucket_name
/resource_directory
resource_directory
tem o formulário
, onde stack_name
-random_string
stack_name
está o nome de uma das AWS CloudFormation pilhas usadas por AWS ParallelCluster. O valor de bucket_name
pode ser encontrado no ResourcesS3Bucket
valor na saída da parallelcluster-
pilha. O valor de clustername
resource_directory
pode ser encontrado no valor da ArtifactS3RootDirectory
saída da mesma pilha.
O valor padrão é parallelcluster-
.random_string
cluster_resource_bucket = amzn-s3-demo-bucket
nota
Support for cluster_resource_bucket adicionado na AWS ParallelCluster versão 2.10.0.
cluster_type
(Opcional) Define o tipo de cluster a ser executado. Se a configuração queue_settings estiver definida, essa configuração deverá ser substituída pelas configurações compute_type nas seções[queue].
As opções válidas são ondemand
e spot
.
O valor padrão é ondemand
.
Para obter mais informações sobre instâncias spot, consulte Trabalho com Instâncias spot.
nota
O uso de Instâncias spot exige que a função AWSServiceRoleForEC2Spot
vinculada ao serviço exista na sua conta. Para criar essa função na sua conta usando o AWS CLI, execute o seguinte comando:
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
Para obter mais informações, consulte Função vinculada ao serviço para solicitações de instâncias spot no Guia EC2 do usuário da Amazon.
cluster_type = ondemand
compute_instance_type
(Opcional) Define o tipo de EC2 instância da Amazon que é usado para os nós de computação do cluster. A arquitetura do tipo de instância deve ser a mesma usada para a configuração master_instance_type. Se a configuração queue_settings estiver definida, essa configuração deverá ser substituída pelas configurações instance_type nas seções[compute_resource].
Se você estiver usando o awsbatch
agendador, consulte a criação de ambientes de computação na AWS Batch interface do usuário para ver uma lista dos tipos de instância compatíveis.
O padrão é t2.micro
, optimal
quando o programador for awsbatch
.
compute_instance_type = t2.micro
nota
Support para instâncias AWS baseadas em Graviton (incluindo C6g
instâncias A1
e) foi adicionado na AWS ParallelCluster versão 2.8.0.
compute_root_volume_size
(Opcional) Especifica o tamanho do volume ComputeFleet raiz em gibibytes (GiB). A AMI deve oferecer suporte para growroot
.
O valor padrão é 35
.
nota
Para AWS ParallelCluster versões entre 2.5.0 e 2.10.4, o padrão era 25. Antes da AWS ParallelCluster versão 2.5.0, o padrão era 20.
compute_root_volume_size = 35
custom_ami
(Opcional) Especifica a ID de uma AMI personalizada a ser usada nos nós principais e de computação, em vez da publicação padrão. AMIs
Não há valor padrão.
custom_ami = ami-00d4efc81188687a0
Se a AMI personalizada exigir permissões adicionais para seu lançamento, essas permissões deverão ser adicionadas às políticas do usuário e do nó principal.
Por exemplo, se uma AMI personalizada tiver um snapshot criptografado associado a ela, as seguintes políticas adicionais serão necessárias nas políticas do usuário e do nó principal:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "kms:DescribeKey", "kms:ReEncrypt*", "kms:CreateGrant", "kms:Decrypt" ], "Resource": [ "arn:aws:kms:
<AWS_REGION>
:<AWS_ACCOUNT_ID>
:key/<AWS_KMS_KEY_ID>
" ] } ] }
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
cw_log_settings
(Opcional) Identifica a [cw_log]
seção com a configuração de CloudWatch registros. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para mais informações, consulte a seção [cw_log], CloudWatch Painel da Amazon, e Integração com Amazon CloudWatch Logs.
Por exemplo, a configuração a seguir especifica que a seção que começa [cw_log custom-cw]
é usada para a configuração de CloudWatch registros.
cw_log_settings = custom-cw
nota
Support for cw_log_settings adicionado na AWS ParallelCluster versão 2.6.0.
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
dashboard_settings
(Opcional) Identifica a [dashboard]
seção com a configuração do CloudWatch painel. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para obter mais informações, consulte a seção [dashboard].
Por exemplo, a configuração a seguir especifica que a seção que começa [dashboard
custom-dashboard
é usada para a configuração do CloudWatch painel.
dashboard_settings = custom-dashboard
nota
Support for dashboard_settings adicionado na AWS ParallelCluster versão 2.10.0.
Política de atualização: essa configuração pode ser alterada durante uma atualização.
dcv_settings
(Opcional) Identifica a seção [dcv]
com a configuração do Amazon DCV. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para obter mais informações, consulte a seção [dcv].
Por exemplo, a configuração a seguir especifica que a seção que inicia [dcv custom-dcv]
é usada para a configuração do Amazon DCV.
dcv_settings = custom-dcv
nota
Em instâncias AWS baseadas em Graviton, o Amazon DCV só é compatível com. alinux2
nota
Support for dcv_settings adicionado na AWS ParallelCluster versão 2.5.0.
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
desired_vcpus
(Opcional) Especifica o número desejado de v CPUs no ambiente computacional. Usador apenas se o programador for awsbatch
.
O valor padrão é 4
.
desired_vcpus = 4
Política de atualização: essa configuração não é analisada durante uma atualização.
disable_cluster_dns
(Opcional) Especifica se as entradas de DNS do cluster não devem ser criadas. Por padrão, AWS ParallelCluster cria uma zona hospedada do Route 53. Se disable_cluster_dns
estiver definido como true
, a zona hospedada não será criada.
O valor padrão é false
.
disable_cluster_dns = true
Atenção
É necessário um sistema de resolução de nomes para que o cluster funcione adequadamente. Se disable_cluster_dns
estiver definido como true
, um sistema adicional de resolução de nomes também deverá ser fornecido.
Importante
disable_cluster_dns= só true
é suportado se a configuração queue_settings for especificada.
nota
Support for disable_cluster_dns adicionado na AWS ParallelCluster versão 2.9.1.
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
disable_hyperthreading
(Opcional) Desabilita o hyperthreading nos nós principais e de computação. Nem todos os tipos de instância podem desabilitar o hyperthreading. Para obter uma lista de tipos de instância que suportam a desativação do hyperthreading, consulte Núcleos e threads de CPU para cada núcleo de CPU para cada tipo de instância no Guia do usuário da Amazon EC2 . Se a configuração queue_settings for definida, essa configuração poderá ser definida ou as configurações disable_hyperthreading nas seções [queue] poderão ser definidas.
O valor padrão é false
.
disable_hyperthreading = true
nota
disable_hyperthreading afeta apenas o nó principal quando scheduler = awsbatch
.
nota
O suporte para disable_hyperthreading foi adicionado ao AWS ParallelCluster versão 2.5.0.
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
ebs_settings
(Opcional) Identifica as seções [ebs]
com os volumes do Amazon EBS que estão montados no nó principal. Ao usar vários volumes do Amazon EBS, insira esses parâmetros em uma lista com cada um separado por uma vírgula. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Há suporte para até cinco (5) volumes adicionais do Amazon EBS.
Para obter mais informações, consulte a seção [ebs].
Por exemplo, a seguinte configuração especifica que as seções que começam com [ebs custom1]
e [ebs custom2]
são usados para os volumes do Amazon EBS.
ebs_settings = custom1, custom2
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
ec2_iam_role
(Opcional) Define o nome de uma função existente do IAM para a Amazon EC2 que está anexada a todas as instâncias no cluster. Um nome de função do IAM e seu Amazon Resource Name (ARN) são diferentes. ARNs não pode ser usado como argumento paraec2_iam_role
.
Se essa opção for especificada, a configuração additional_iam_policies será ignorada. Se sua intenção é adicionar políticas extras às configurações padrão dos nós do cluster, recomendamos que você transmita as políticas adicionais personalizadas do IAM com a configuração additional_iam_policies em vez de usar as configurações ec2_iam_role
.
Se essa opção não for especificada, a função padrão AWS ParallelCluster do IAM para a Amazon EC2 será usada. Para obter mais informações, consulte AWS Identity and Access Management funções em AWS ParallelCluster.
Não há valor padrão.
ec2_iam_role = ParallelClusterInstanceRole
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
efs_settings
(Opcional) Especifica as configurações relacionadas ao sistema de arquivos do Amazon EFS. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para obter mais informações, consulte a seção [efs].
Por exemplo, a seguinte configuração especifica que a seção que começa com [efs customfs]
é usada para a configuração do sistema de arquivos do Amazon EFS.
efs_settings = customfs
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
enable_efa
(Opcional) Se estiver presente, especificará que o Elastic Fabric Adapter (EFA) está habilitado para os nós de computação. Para ver a lista de EC2 instâncias que oferecem suporte ao EFA, consulte Tipos de instância compatíveis no Guia do EC2 usuário da Amazon para instâncias Linux. Para obter mais informações, consulte Elastic Fabric Adapter. Se a configuração queue_settings for definida, essa configuração poderá ser definida ou as configurações enable_efa na seção [queue] poderão ser definidas. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para ter mais informações, consulte placement e placement_group.
enable_efa = compute
nota
O suporte para EFA em instâncias Graviton2 baseadas em ARM foi adicionado na versão 2.10.1. AWS ParallelCluster
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
enable_efa_gdr
(Opcional) A partir da AWS ParallelCluster versão 2.11.3, essa configuração não tem efeito. O suporte do Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acesso direto remoto à memória) está sempre ativado se for suportado pelo tipo de instância e pelo sistema operacional.
nota
AWS ParallelCluster versão 2.10.0 a 2.11.2: Secompute
, especifica que o suporte do Elastic Fabric Adapter (EFA) GPUDirect para RDMA (acesso direto remoto à memória) está habilitado para os nós de computação. Definir essa configuração como compute
requer que a configuração enable_efa seja definida como compute
. O suporte do EFA para GPUDirect RDMA é suportado por tipos de instância específicos (p4d.24xlarge
) em sistemas operacionais específicos (base_oséalinux2
, centos7
ubuntu1804
, ouubuntu2004
). Se a configuração queue_settings for definida, essa configuração poderá ser definida ou as configurações enable_efa_gdr nas seções [queue] poderão ser definidas. Um placement group de cluster deve ser usado para minimizar latências entre instâncias. Para ter mais informações, consulte placement e placement_group.
enable_efa_gdr = compute
nota
Support for enable_efa_gdr
adicionado na AWS ParallelCluster versão 2.10.0.
enable_intel_hpc_platform
(Opcional) Se estiver presente, indica que o Contrato de licença de usuário final = centos7
).
O valor padrão é false
.
enable_intel_hpc_platform = true
nota
O enable_intel_hpc_platform parâmetro não é compatível com instâncias AWS baseadas em Graviton.
nota
O suporte para enable_intel_hpc_platform foi adicionado ao AWS ParallelCluster versão 2.5.0.
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
encrypted_ephemeral
(Opcional) Criptografa os volumes de armazenamento de instâncias efêmeros com chaves na memória não recuperáveis usando LUKS (Linux Unified Key Setup).
Para obter mais informações, consulte https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md
O valor padrão é false
.
encrypted_ephemeral = true
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
ephemeral_dir
(Opcional) Define o caminho onde volumes de armazenamento de instâncias são montados, caso sejam usados.
O valor padrão é /scratch
.
ephemeral_dir = /scratch
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
extra_json
(Opcional) Define o JSON extra que é mesclado no Chef dna.json
. Para obter mais informações, consulte Criação de uma AWS ParallelCluster AMI personalizada.
O valor padrão é {}
.
extra_json = {}
nota
A partir da AWS ParallelCluster versão 2.6.1, a maioria das receitas de instalação são ignoradas por padrão ao iniciar os nós para melhorar os tempos de inicialização. Para executar todas as fórmulas de instalação para uma melhor compatibilidade com versões anteriores em detrimento dos tempos de inicialização, adicione "skip_install_recipes" : "no"
à chave cluster
na configuração extra_json. Por exemplo:
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
fsx_settings
(Opcional) Especifica a seção que define a configuração do FSx Lustre. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para obter mais informações, consulte a seção [fsx].
Por exemplo, a configuração a seguir especifica que a seção que começa [fsx fs]
é usada FSx para a configuração for Lustre.
fsx_settings = fs
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
iam_lambda_role
(Opcional) Define o nome de uma função de AWS Lambda execução existente. Esta função está vinculada a todas as funções do Lambda no cluster. Para obter mais informações, consulte perfil do IAM para execução do AWS Lambda no Guia do desenvolvedor do AWS Lambda .
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
Um nome de função do IAM e seu Amazon Resource Name (ARN) são diferentes. ARNs não pode ser usado como argumento paraiam_lambda_role
. Se ambos ec2_iam_role e iam_lambda_role
forem definidos e se scheduler for sge
, slurm
ou torque
, não haverá funções criadas. Se scheduler for awsbatch
, então haverá funções criadas durante pcluster start. Para obter exemplos de políticas, consulte ParallelClusterLambdaPolicyusando SGE, Slurm ou Torque e ParallelClusterLambdaPolicy usando awsbatch.
Não há valor padrão.
iam_lambda_role = ParallelClusterLambdaRole
nota
Support for iam_lambda_role
adicionado na AWS ParallelCluster versão 2.10.1.
Política de atualização: essa configuração pode ser alterada durante uma atualização.
initial_queue_size
(Opcional) Define o número inicial de EC2 instâncias da Amazon a serem executadas como nós de computação no cluster. Se a configuração queue_settings estiver definida, essa configuração deverá ser removida e substituída pelas configurações initial_count nas seções [compute_resource].
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
Essa configuração é aplicável somente para agendadores tradicionais (SGE, Slurm e Torque). Se a maintain_initial_size configuração fortrue
, a initial_queue_size configuração deverá ser pelo menos uma (1).
Se o programador for awsbatch
, use min_vcpus em vez disso.
O padrão é 2
.
initial_queue_size = 2
Política de atualização: essa configuração pode ser alterada durante uma atualização.
key_name
(Opcional) Nomeia um par de EC2 chaves Amazon existente com o qual habilitar o acesso SSH às instâncias.
key_name = mykey
nota
Antes da AWS ParallelCluster versão 2.11.0, key_name
era uma configuração obrigatória.
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
maintain_initial_size
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
(Opcional) Mantém o tamanho inicial do grupo Auto Scaling para programadores tradicionais (SGE, Slurm e Torque).
Se o programador for awsbatch
, use desired_vcpus em vez disso.
Essa configuração é um sinalizador booliano. Se definido como true
, o grupo di Auto Scaling nunca terá menos membros do que o valor de initial_queue_size, e o valor de initial_queue_size deve ser um (1) ou maior. O cluster ainda pode aumentar até o valor de max_queue_size. Se cluster_type = spot
, o grupo do Auto Scaling pode ter instâncias interrompidas, e o tamanho pode cair para menos de initial_queue_size.
Se for definido como false
, o grupo do Auto Scaling poderá ser reduzido para zero (0) membros a fim de impedir que os recursos fiquem ociosos quando não forem necessários.
Se a configuração queue_settings estiver definida, essa configuração deverá ser removida e substituída pelas configurações initial_count e min_count nas seções [compute_resource].
O padrão é false
.
maintain_initial_size = false
Política de atualização: essa configuração pode ser alterada durante uma atualização.
master_instance_type
(Opcional) Define o tipo de EC2 instância da Amazon usado para o nó principal. A arquitetura do tipo de instância deve ser a mesma usada para a configuração compute_instance_type.
Se Regiões da AWS tiver um nível gratuito, o padrão é o tipo de instância de nível gratuito (t2.micro
out3.micro
). Se Regiões da AWS não tiver um nível gratuito, o padrão é. t3.micro
Para obter mais informações sobre o nível AWS gratuito, consulte Nível AWS gratuito FAQs
master_instance_type = t2.micro
nota
Antes da AWS ParallelCluster versão 2.10.1, o padrão era in all. t2.micro
Regiões da AWS Na AWS ParallelCluster versão 2.10.0, o p4d.24xlarge
não tinha suporte para o nó principal. Support para instâncias AWS baseadas em Graviton (como A1
eC6g
) foi adicionado na AWS ParallelCluster versão 2.8.0.
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
master_root_volume_size
(Opcional) Especifica o tamanho do volume raiz do nó principal em gibibytes (GiB). A AMI deve oferecer suporte para growroot
.
O valor padrão é 35
.
nota
Para AWS ParallelCluster versões entre 2.5.0 e 2.10.4, o padrão era 25. Antes da AWS ParallelCluster versão 2.5.0, o padrão era 20.
master_root_volume_size = 35
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
max_queue_size
(Opcional) Define o número máximo de EC2 instâncias da Amazon que podem ser executadas no cluster. Se a configuração queue_settings estiver definida, essa configuração deverá ser removida e substituída pelas configurações max_count nas seções [compute_resource].
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
Essa configuração é aplicável somente para agendadores tradicionais (SGE, Slurm e Torque).
Se o programador for awsbatch
, use max_vcpus em vez disso.
O padrão é 10
.
max_queue_size = 10
Política de atualização: essa configuração pode ser alterada durante uma atualização, mas a frota computacional deve ser interrompida se o valor for reduzido. Caso contrário, os nós existentes poderão ser encerrados.
max_vcpus
(Opcional) Especifica o número máximo de v CPUs no ambiente computacional. Usador apenas se o programador for awsbatch
.
O valor padrão é 20
.
max_vcpus = 20
Política de atualização: essa configuração não pode ser diminuída durante uma atualização.
min_vcpus
(Opcional) Mantém o tamanho inicial do grupo do Auto Scaling para o programador awsbatch
.
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
Se o agendador for SGE, Slurm ou Torque, use maintain_initial_size em vez disso.
O ambiente de computação nunca terá menos membros do que o valor de min_vcpus.
O padrão é 0
.
min_vcpus = 0
Política de atualização: essa configuração pode ser alterada durante uma atualização.
placement
(Opcional) Define a lógica de grupo de posicionamento de cluster, permitindo que todo o cluster ou somente as instâncias de computação usem o grupo de posicionamento de cluster.
Se a configuração queue_settings estiver definida, essa configuração deverá ser removida e substituída pelas configurações placement_group para cada uma das seções de [queue]. Se o mesmo grupo de posicionamento for usado para diferentes tipos de instância, é mais provável que a solicitação falhe devido a um erro de capacidade insuficiente. Para obter mais informações, consulte Capacidade de instância insuficiente no Guia EC2 do usuário da Amazon. Várias filas só podem compartilhar um grupo de posicionamento se ele for criado com antecedência e configurado na configuração placement_group de cada fila. Se cada seção [queue] definir uma configuração placement_group, o nó principal não poderá estar no grupo de posicionamento de uma fila.
As opções válidas são cluster
ou compute
.
Esse parâmetro não é usado quando o programador for awsbatch
.
O valor padrão é compute
.
placement = compute
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
placement_group
(Opcional) Define o grupo de posicionamento de cluster. Se a configuração queue_settings estiver definida, essa configuração deverá ser removida e substituída pelas configurações placement_group nas seções [queue].
As opções válidas são as seguintes:
-
DYNAMIC
-
Um nome de grupo de posicionamento de EC2 clusters existente da Amazon
Quando definido como DYNAMIC
, um placement group exclusivo será criado e excluído como parte da pilha do cluster.
Esse parâmetro não é usado quando o programador for awsbatch
.
Para obter mais informações sobre grupos de posicionamento, consulte Grupos de posicionamento no Guia EC2 do usuário da Amazon. Se o mesmo grupo de posicionamento for usado para diferentes tipos de instância, é mais provável que a solicitação falhe devido a um erro de capacidade insuficiente. Para obter mais informações, consulte Capacidade de instância insuficiente no Guia EC2 do usuário da Amazon.
Não há valor padrão.
Nem todos os tipos de instância oferecem suporte para placement groups de cluster. Por exemplo, o tipo de instância padrão de t3.micro
não oferece suporte para grupos de posicionamento de cluster. Para obter informações sobre a lista de tipos de instância que oferecem suporte a grupos de posicionamento de clusters, consulte Regras e limitações de grupos de posicionamento de clusters no Guia EC2 do usuário da Amazon. Consulte Grupos de posicionamento e problemas de execução de instâncias para obter dicas ao trabalhar com placement groups.
placement_group = DYNAMIC
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
post_install
(Opcional) Especifica a URL de um script de pós-instalação que é executado após a conclusão de todas as ações de bootstrap do nó. Para obter mais informações, consulte Ações de bootstrap personalizadas.
Ao usar o awsbatch
como o programador, o script de pós-instalação será executado somente no nó principal.
O formato do parâmetro pode ser http://
ou hostname/path/to/script.sh
s3://
.bucket-name/path/to/script.sh
Não há valor padrão.
post_install = s3://
<bucket-name>
/my-post-install-script.sh
post_install_args
(Opcional) Especifica uma lista de argumentos entre aspas a serem enviados ao script de pós-instalação.
Não há valor padrão.
post_install_args = "
argument-1
argument-2
"
pre_install
(Opcional) Especifica a URL de um script de pré-instalação que é executado antes do início de qualquer ação de bootstrap de implantação do nó. Para obter mais informações, consulte Ações de bootstrap personalizadas.
Ao usar o awsbatch
como o programador, o script de pré-instalação será executado somente no nó principal.
O formato do parâmetro pode ser http://
ou hostname/path/to/script.sh
s3://
.bucket-name/path/to/script.sh
Não há valor padrão.
pre_install = s3://
bucket-name
/my-pre-install-script.sh
pre_install_args
(Opcional) Especifica uma lista de argumentos entre aspas a serem enviados ao script de pré-instalação.
Não há valor padrão.
pre_install_args = "
argument-3
argument-4
"
proxy_server
(Opcional) Define um servidor de proxy HTTP ou HTTPS, normalmente http://
.x.x.x.x:8080
Não há valor padrão.
proxy_server = http://
10.11.12.13:8080
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
queue_settings
(Opcional) Especifica que o cluster usa filas em vez de uma frota de computação homogênea e quais seções [queue] são usadas. A primeira seção [queue] listada é a fila padrão do programador. Os nomes da seção queue
deve começar com uma letra minúscula, conter no máximo 30 caracteres e conter apenas letras minúsculas, números e hifens (-).
Importante
queue_settings só é compatível quando scheduler está definido para slurm
. As configurações cluster_type, compute_instance_type, initial_queue_size, maintain_initial_size, max_queue_size, placement, placement_group, e spot_price não devem ser especificadas. As configurações disable_hyperthreading e enable_efa podem ser especificadas na seção [cluster] ou nas seções[queue], mas não em ambas.
São suportadas até cinco (5) seções [queue].
Para obter mais informações, consulte a seção [queue].
Por exemplo, a seguinte configuração especifica que as seções que começam com [queue q1]
e [queue q2]
são usados.
queue_settings = q1, q2
nota
Support for queue_settings adicionado na AWS ParallelCluster versão 2.9.0.
raid_settings
(Opcional) Identifica a seção [raid]
com a configuração de RAID de volume do Amazon EBS. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para obter mais informações, consulte a seção [raid].
Por exemplo, a configuração a seguir especifica que a seção que começa com [raid rs]
seja usada para a configuração do Auto Scaling.
raid_settings = rs
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
s3_read_resource
(Opcional) Especifica um recurso do Amazon S3 ao AWS ParallelCluster qual os nós recebem acesso somente de leitura.
Por exemplo, arn:aws:s3:::
fornece acesso somente de leitura ao my_corporate_bucket
*my_corporate_bucket
bucket e aos objetos no bucket.
Consulte trabalhar com o Amazon S3 para obter detalhes sobre o formato.
Não há valor padrão.
s3_read_resource = arn:aws:s3:::
my_corporate_bucket
*
Política de atualização: essa configuração pode ser alterada durante uma atualização.
s3_read_write_resource
(Opcional) Especifica um recurso do Amazon S3 ao qual os nós do AWS ParallelCluster obtêm acesso leitura/gravação.
Por exemplo, arn:aws:s3:::
fornece acesso de leitura/gravação a todos os objetos na my_corporate_bucket
/Development/*Development
pasta do my_corporate_bucket
bucket.
Consulte trabalhar com o Amazon S3 para obter detalhes sobre o formato.
Não há valor padrão.
s3_read_write_resource = arn:aws:s3:::
my_corporate_bucket
/*
Política de atualização: essa configuração pode ser alterada durante uma atualização.
scaling_settings
Identifica a seção [scaling]
com a configuração do Auto Scaling. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para obter mais informações, consulte a seção [scaling].
Por exemplo, a configuração a seguir especifica que a seção que começa com [scaling custom]
seja usada para a configuração do Auto Scaling.
scaling_settings = custom
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
scheduler
(Obrigatório) Define o programador do cluster.
As opções válidas são as seguintes:
awsbatch
-
AWS Batch
Para obter mais informações sobre o programador
awsbatch
, consulte configuração de redes e AWS Batch (awsbatch). sge
-
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
Son of Grid Engine (SGE)
slurm
-
Slurm Workload Manager (Slurm)
torque
-
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
Torque Resource Manager (Torque)
nota
Antes da AWS ParallelCluster versão 2.7.0, o scheduler
parâmetro era opcional e o padrão era. sge
A partir da AWS ParallelCluster versão 2.7.0, o scheduler
parâmetro é obrigatório.
scheduler = slurm
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
shared_dir
(Opcional) Define o caminho onde o volume compartilhado do Amazon EBS é montado.
Não use esta opção com vários volumes do Amazon EBS. Em vez disso, forneça valores de shared_dir em cada seção [ebs].
Consulte a seção [ebs] para obter detalhes sobre como trabalhar com vários volumes do Amazon EBS.
O valor padrão é /shared
.
O exemplo a seguir mostra um volume compartilhado do Amazon EBS montado em /myshared
.
shared_dir = myshared
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
spot_bid_percentage
(Opcional) Define a porcentagem sob demanda usada para calcular o preço spot máximo para o ComputeFleet, quando awsbatch
é o programador.
Se não for especificado, o preço de mercado spot atual será selecionado, limitado ao preço sob demanda.
spot_bid_percentage = 85
Política de atualização: essa configuração pode ser alterada durante uma atualização.
spot_price
nota
A partir da versão 2.11.5, AWS ParallelCluster não suporta o uso de SGE or Torque agendadores.
(Opcional) Define o preço spot máximo para ComputeFleet os programadores tradicionais (SGE, Slurm e Torque). Usado somente quando a cluster_type configuração está definida comospot
. Se você não especificar um valor, será cobrado o preço spot, limitado ao preço sob demanda. Se a configuração queue_settings estiver definida, essa configuração deverá ser removida e substituída pelas configurações spot_price nas seções [compute_resource].
Se o programador for awsbatch
, use spot_bid_percentage em vez disso.
Para obter ajuda para encontrar uma instância spot que atenda às suas necessidades, consulte o Spot Instance Advisor
spot_price = 1.50
nota
Na AWS ParallelCluster versão 2.5.0, se for especificada, cluster_type = spot
mas spot_price não for especificada, a instância iniciará a ComputeFleet falha. Isso foi corrigido na AWS ParallelCluster versão 2.5.1.
Política de atualização: essa configuração pode ser alterada durante uma atualização.
tags
(Opcional) Define as tags a serem usadas por AWS CloudFormation.
Se as tags da linha de comando estiverem especificadas por --tags, elas são mescladas com as tags de configuração.
As tags da linha de comando substituem as tags de configuração que têm a mesma chave.
As tags são formatadas por JSON. Não use aspas fora das chaves.
Para obter mais informações, consulte tipos de tags de recurso do AWS CloudFormation no Guia de usuário do AWS CloudFormation .
tags = {"key" : "value", "key2" : "value2"}
Política de atualização: se essa configuração for alterada, a atualização não será permitida.
nota
A política de atualização não suportou a alteração da configuração tags
para AWS ParallelCluster
versão 2.8.0 até a versão 2.9.1.
Para as versões 2.10.0 até a versão 2.11.7, a política de atualização listada que suportava a alteração da configuração tags
não é precisa. Não há suporte para uma atualização de cluster ao modificar essa configuração.
template_url
(Opcional) Define o caminho para o AWS CloudFormation modelo usado para criar o cluster.
Atualiza o uso do modelo que foi usado originalmente para criar a pilha.
O padrão é https://
.aws_region_name
-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version
.cfn.json
Atenção
Este é um parâmetro avançado. Qualquer alteração nessa configuração é feita por sua conta e risco.
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
Política de atualização: essa configuração não é analisada durante uma atualização.
vpc_settings
(Obrigatório) Identifica a seção [vpc]
com a configuração da Amazon VPC na qual o cluster é implantado. O nome da seção deve começar com uma letra, conter no máximo 30 caracteres e conter apenas letras, números, hifens (-) e sublinhados (_).
Para obter mais informações, consulte a seção [vpc].
Por exemplo, a configuração a seguir especifica que a seção que começa com [vpc public]
é usada para a configuração do Amazon VPC.
vpc_settings = public
Política de atualização: se essa configuração for alterada, a atualização não será permitida.