Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Sección de [cluster]
Define una plantilla de clúster que se puede utilizar para crear un clúster. Un archivo de configuración puede contener varias secciones de [cluster]
.
Se puede usar la misma plantilla de clúster para crear varios clústeres.
El formato es [cluster
. La sección de [cluster] nombrada por la configuración de cluster_template de la sección de [global] se usa de forma predeterminada, pero se puede anular en la línea de comandos de pcluster.cluster-template-name
]
cluster-template-name
debe empezar por una letra, no contener más de 30 caracteres y contener únicamente letras, números, guiones (-) y guiones bajos (_).
[cluster default]
Temas
additional_cfn_template
(Opcional) Define una AWS CloudFormation plantilla adicional para lanzarla junto con el clúster. Esta plantilla adicional se utiliza para la creación de recursos que existen fuera del clúster pero que forman parte del ciclo de vida de este.
Este valor tiene que ser una dirección URL HTTP a una plantilla pública con todos los parámetros incluidos.
No hay valor predeterminado.
additional_cfn_template = https://
<bucket-name>
.s3.amazonaws.com/my-cfn-template.yaml
Política de actualización: si se cambia esta configuración, no se permite la actualización.
additional_iam_policies
(Opcional) Especifica una lista de nombres de recursos de Amazon (ARNs) de las políticas de IAM para Amazon EC2. Esta lista se asocia al rol raíz utilizado en el clúster, además de los permisos requeridos por AWS ParallelCluster separados por comas. El nombre de una política de IAM y su ARN son diferentes. Los nombres no se pueden utilizar como argumento para additional_iam_policies
.
Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que incorpore las políticas de IAM personalizadas adicionales con la additional_iam_policies
ec2_iam_roleconfiguración en lugar de utilizarla para añadir sus políticas específicas EC2 . Esto se debe a que additional_iam_policies
se añaden a los permisos predeterminados que se AWS ParallelCluster requieren. Un ec2_iam_role existente debe incluir todos los permisos necesarios. Sin embargo, dado que los permisos necesarios suelen cambiar de una versión a otra a medida que se añaden características, un ec2_iam_role existente puede quedar obsoleto.
No hay valor predeterminado.
additional_iam_policies = arn:aws:iam::123456789012:policy/
CustomEC2Policy
nota
Se ha agregado compatibilidad para additional_iam_policies en la versión 2.5.0 de AWS ParallelCluster .
Política de actualización: esta configuración se puede cambiar durante una actualización.
base_os
(Obligatorio) Especifica qué tipo de sistema operativo se utiliza en el clúster.
Las opciones disponibles son:
-
alinux2
-
centos7
-
ubuntu1804
-
ubuntu2004
nota
Solo para instancias AWS basadas en Graviton alinux2
ubuntu1804
, o ubuntu2004
son compatibles.
nota
El soporte para centos8
se eliminó en la AWS ParallelCluster versión 2.11.4. Se ha agregado compatibilidad para ubuntu2004
y se ha eliminado la compatibilidad con alinux
y ubuntu1604
en la versión 2.11.0 de AWS ParallelCluster . Se agregó soporte para y se centos8
centos6
eliminó el soporte para en la AWS ParallelCluster versión 2.10.0. Se ha agregado compatibilidad para alinux2
en la versión 2.6.0 de AWS ParallelCluster
. Se ha agregado compatibilidad para ubuntu1804
y se ha eliminado la compatibilidad con ubuntu1404
en la versión 2.5.0 de AWS ParallelCluster .
Aparte de las especificas Regiones de AWS mencionadas en la siguiente tabla que no son compatibles. centos7
Todas las demás regiones AWS comerciales son compatibles con los siguientes sistemas operativos.
Partición (Regiones de AWS) | alinux2 |
centos7 |
ubuntu1804 y ubuntu2004 |
---|---|---|---|
Comercial ( Regiones de AWS ninguno de ellos se menciona específicamente) | True | True | True |
AWS GovCloud (Este de EE. UU.) (us-gov-east-1 ) |
True | False | True |
AWS GovCloud (EEUU-Oeste) () us-gov-west-1 |
True | False | True |
China (Pekín) (cn-north-1 ) |
True | False | True |
China (Ningxia) (cn-northwest-1 ) |
True | False | True |
nota
Nota: El parámetro base_os también determina el nombre de usuario que se utiliza para iniciar sesión en el clúster.
-
centos7
:centos
-
ubuntu1804
yubuntu2004
:ubuntu
-
alinux2
:ec2-user
nota
Antes de AWS ParallelCluster la versión 2.7.0, el base_os parámetro era opcional y el predeterminado era. alinux
A partir de la versión 2.7.0 de AWS ParallelCluster
, el parámetro base_os es obligatorio.
nota
Si el parámetro scheduler es awsbatch
, solo se admite alinux2
.
base_os = alinux2
Política de actualización: si se cambia esta configuración, no se permite la actualización.
cluster_resource_bucket
(Opcional) Especifica el nombre del bucket de Amazon S3 que se utiliza para alojar los recursos que se generan al crear el clúster. El bucket debe tener habilitado el control de versiones. Para obtener más información, consulte Uso del control de versiones en la Guía del usuario de Amazon Simple Storage Service. Este bucket se puede utilizar para varios clústeres. El bucket debe estar en la misma región que el clúster.
Si no se especifica este parámetro, se crea un bucket nuevo al crear el clúster. El nuevo bucket tiene el nombre de parallelcluster-
. En este nombre, random_string
random_string
hay una cadena aleatoria de caracteres alfanuméricos. Todos los recursos del clúster se almacenan en este depósito en una ruta con el formulario
. bucket_name
/resource_directory
resource_directory
tiene la forma
, donde stack_name
-random_string
stack_name
es el nombre de una de las AWS CloudFormation pilas utilizadas por AWS ParallelCluster. El valor de bucket_name
se encuentra en el ResourcesS3Bucket
valor de la salida de la parallelcluster-
pila. El valor de clustername
resource_directory
se encuentra en el valor de la ArtifactS3RootDirectory
salida de la misma pila.
El valor predeterminado es parallelcluster-
.random_string
cluster_resource_bucket = amzn-s3-demo-bucket
nota
El soporte para cluster_resource_bucket se agregó en la AWS ParallelCluster versión 2.10.0.
cluster_type
(Opcional) Define el tipo de clúster que se va a lanzar. Si se define la configuración de queue_settings, esta configuración debe reemplazarse por la configuración de compute_type en las secciones de [queue].
Las opciones válidas son: ondemand
y spot
.
El valor predeterminado es ondemand
.
Para obtener más información acerca de las instancias de Spot, consulte Uso de instancias de spot.
nota
El uso de instancias de spot requiere que el rol de AWSServiceRoleForEC2Spot
vinculado al servicio esté en su cuenta. Para crear este rol en su cuenta mediante el AWS CLI, ejecute el siguiente comando:
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com
Para obtener más información, consulte Función vinculada a servicios para solicitudes de instancias puntuales en la Guía EC2 del usuario de Amazon.
cluster_type = ondemand
compute_instance_type
(Opcional) Define el tipo de EC2 instancia de Amazon que se usa para los nodos de cómputo del clúster. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de master_instance_type. Si se define la configuración de queue_settings, esta configuración debe reemplazarse por la configuración de instance_type en las secciones de [compute_resource].
Si utilizas el awsbatch
programador, consulta la sección Creación de entornos de cómputo en la AWS Batch interfaz de usuario para ver una lista de los tipos de instancias compatibles.
El valor predeterminado es t2.micro
, optimal
cuando el programador es awsbatch
.
compute_instance_type = t2.micro
nota
En la AWS ParallelCluster versión 2.8.0 se agregó soporte para instancias AWS basadas en Graviton (incluidas C6g
las instancias A1
Y).
compute_root_volume_size
(Opcional) Especifica el tamaño del volumen ComputeFleet raíz en gibibytes (GiB). La AMI debe admitir growroot
.
El valor predeterminado es 35
.
nota
Para AWS ParallelCluster las versiones entre 2.5.0 y 2.10.4, el valor predeterminado era 25. Antes de AWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.
compute_root_volume_size = 35
custom_ami
(Opcional) Especifica el ID de una AMI personalizada que se utilizará en los nodos principal y de cómputo en lugar de la publicada
No hay valor predeterminado.
custom_ami = ami-00d4efc81188687a0
Si la AMI personalizada requiere permisos adicionales para su lanzamiento, estos permisos se deben agregar a las políticas de usuario y de nodo principal.
Por ejemplo, si una AMI personalizada tiene asociada una instantánea cifrada, se requieren las siguientes políticas adicionales tanto en las políticas de usuario como en las del nodo principal:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "kms:DescribeKey", "kms:ReEncrypt*", "kms:CreateGrant", "kms:Decrypt" ], "Resource": [ "arn:aws:kms:
<AWS_REGION>
:<AWS_ACCOUNT_ID>
:key/<AWS_KMS_KEY_ID>
" ] } ] }
Política de actualización: si se cambia esta configuración, no se permite la actualización.
cw_log_settings
(Opcional) Identifica la [cw_log]
sección con la configuración de CloudWatch registros. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección de [cw_log], CloudWatch Panel de control de Amazon y Integración con Amazon CloudWatch Logs.
Por ejemplo, la siguiente configuración especifica que la sección que se inicia [cw_log custom-cw]
se usa para la configuración de CloudWatch registros.
cw_log_settings = custom-cw
nota
El soporte para cw_log_settings se agregó en la AWS ParallelCluster versión 2.6.0.
Política de actualización: si se cambia esta configuración, no se permite la actualización.
dashboard_settings
(Opcional) Identifica la [dashboard]
sección con la configuración del CloudWatch cuadro de mandos. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección [dashboard].
Por ejemplo, la siguiente configuración especifica que la sección que se inicia [dashboard
custom-dashboard
se usa para la configuración del CloudWatch panel.
dashboard_settings = custom-dashboard
nota
El soporte para dashboard_settings se agregó en la AWS ParallelCluster versión 2.10.0.
Política de actualización: esta configuración se puede cambiar durante una actualización.
dcv_settings
(Opcional) Identifica la sección [dcv]
con la configuración de Amazon DCV. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección [dcv].
Por ejemplo, la siguiente configuración especifica que la sección que inicia [dcv custom-dcv]
se utiliza para la configuración de Amazon DCV.
dcv_settings = custom-dcv
nota
En las instancias AWS basadas en Graviton, Amazon DCV solo es compatible con. alinux2
nota
El soporte para dcv_settings se agregó en la AWS ParallelCluster versión 2.5.0.
Política de actualización: si se cambia esta configuración, no se permite la actualización.
desired_vcpus
(Opcional) Especifica el número deseado de v CPUs en el entorno informático. Solo se utiliza si el programador es awsbatch
.
El valor predeterminado es 4
.
desired_vcpus = 4
Política de actualización: esta configuración no se analiza durante una actualización.
disable_cluster_dns
(Opcional) Especifica si no se deben crear las entradas de DNS del clúster. De forma predeterminada, AWS ParallelCluster crea una zona alojada en Route 53. Si disable_cluster_dns
se establece en true
, no se crea la zona alojada.
El valor predeterminado es false
.
disable_cluster_dns = true
aviso
Se requiere un sistema de resolución de nombres para que el clúster funcione correctamente. Si disable_cluster_dns
está establecido en true
, también se debe proporcionar un sistema de resolución de nombres adicional.
importante
disable_cluster_dns = true
solo se admite si se especifica la configuración de queue_settings.
nota
El soporte para disable_cluster_dns se agregó en la AWS ParallelCluster versión 2.9.1.
Política de actualización: si se cambia esta configuración, no se permite la actualización.
disable_hyperthreading
Deshabilita la tecnología Hyper-Threading en los nodos principal y de computación. No todos los tipos de instancias pueden deshabilitar la tecnología Hyper-Threading. Para obtener una lista de los tipos de instancias que admiten la desactivación del hiperproceso, consulta los núcleos de CPU y los subprocesos de cada núcleo de CPU para cada tipo de instancia en la Guía del usuario de Amazon EC2 . Si se define la configuración de queue_settings, se puede definir esta configuración o se puede definir la configuración de disable_hyperthreading en las secciones de [queue].
El valor predeterminado es false
.
disable_hyperthreading = true
nota
disable_hyperthreading solo afecta al nodo principal cuando scheduler = awsbatch
.
nota
Se ha agregado compatibilidad para disable_hyperthreading en la versión 2.5.0 de AWS ParallelCluster .
Política de actualización: si se cambia esta configuración, no se permite la actualización.
ebs_settings
(Opcional) Identifica las secciones de [ebs]
con los volúmenes de Amazon EBS que están montados en el nodo principal. Si utiliza varios volúmenes de Amazon EBS, introduzca estos parámetros en una lista separados por una coma. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Se admiten hasta cinco (5) volúmenes de Amazon EBS adicionales.
Para obtener más información, consulte la sección [ebs].
Por ejemplo, la siguiente configuración especifica que las secciones que inician [ebs custom1]
y [ebs custom2]
se utilizan para los volúmenes de Amazon EBS.
ebs_settings = custom1, custom2
Política de actualización: si se cambia esta configuración, no se permite la actualización.
ec2_iam_role
(Opcional) Define el nombre de una función de IAM existente para Amazon EC2 que está asociada a todas las instancias del clúster. El nombre de una función de IAM y su nombre de recurso de Amazon (ARN) son diferentes. ARNs no se puede usar como argumento para. ec2_iam_role
Si se especifica esta opción, se omite el valor additional_iam_policies. Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que apruebe las políticas de IAM personalizadas adicionales utilizando la configuración de additional_iam_policies en lugar de la de ec2_iam_role
.
Si no se especifica esta opción, se utiliza la función de AWS ParallelCluster IAM predeterminada para Amazon EC2 . Para obtener más información, consulte AWS Identity and Access Management funciones en AWS ParallelCluster.
No hay valor predeterminado.
ec2_iam_role = ParallelClusterInstanceRole
Política de actualización: si se cambia esta configuración, no se permite la actualización.
efs_settings
(Opcional) Especifica la configuración relacionada con el sistema de archivos de Amazon EFS. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección [efs].
Por ejemplo, la siguiente configuración especifica que la sección que inicia [efs customfs]
se utiliza para la configuración del sistema de archivos de Amazon EFS.
efs_settings = customfs
Política de actualización: si se cambia esta configuración, no se permite la actualización.
enable_efa
Si está presente, especifica que Elastic Fabric Adapter (EFA) se ha habilitado para los nodos de computación. Para ver la lista de EC2 instancias compatibles con EFA, consulta los tipos de instancias compatibles en la Guía del EC2 usuario de Amazon para instancias de Linux. Para obtener más información, consulte Elastic Fabric Adapter. Si se define la configuración de queue_settings, se puede definir esta configuración o se puede definir la configuración de enable_efa en la sección de [queue]. Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte placement y placement_group.
enable_efa = compute
nota
En la versión 2.10.1 se agregó soporte para EFA en instancias Graviton2 basadas en ARM. AWS ParallelCluster
Política de actualización: si se cambia esta configuración, no se permite la actualización.
enable_efa_gdr
(Opcional) A partir de la AWS ParallelCluster versión 2.11.3, esta configuración no tiene efecto. La compatibilidad con el Elastic Fabric Adapter (EFA) para GPUDirect RDMA (acceso remoto directo a memoria) siempre está habilitada si es compatible tanto con el tipo de instancia como con el sistema operativo.
nota
AWS ParallelCluster de la versión 2.10.0 a la 2.11.2: Sicompute
, especifica que la compatibilidad con el Elastic Fabric Adapter (EFA) GPUDirect para RDMA (acceso remoto directo a la memoria) está habilitada para los nodos de procesamiento. Si se establece esta configuración en compute
, es necesario que la configuración de enable_efa esté establecida en compute
. El soporte de EFA para GPUDirect RDMA lo admiten tipos de instancias específicos (p4d.24xlarge
) en sistemas operativos específicos (es decir,, o). base_os alinux2
centos7
ubuntu1804
ubuntu2004
Si se define la configuración de queue_settings, se puede definir esta configuración o se puede definir la configuración de enable_efa_gdr en las secciones de [queue]. Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte placement y placement_group.
enable_efa_gdr = compute
nota
El soporte para enable_efa_gdr
se agregó en la AWS ParallelCluster versión 2.10.0.
enable_intel_hpc_platform
Si existe, indica que se acepta el Acuerdo de licencia de usuario final para Intel Parallel Studio. Esto hace que Intel Parallel Studio se instale en el nodo maestro y se comparta con los nodos de computación. Esto añade varios minutos al tiempo que tarda el nodo principal en arrancar. La enable_intel_hpc_platform configuración solo se admite en CentOS (7 base_os = centos7
).
El valor predeterminado es false
.
enable_intel_hpc_platform = true
nota
El enable_intel_hpc_platform parámetro no es compatible con las instancias AWS basadas en Graviton.
nota
Se ha agregado compatibilidad para enable_intel_hpc_platform en la versión 2.5.0 de AWS ParallelCluster .
Política de actualización: si se cambia esta configuración, no se permite la actualización.
encrypted_ephemeral
Cifra los volúmenes de almacenes de instancias efímeros con claves en memoria no recuperables, mediante LUKS (configuración de clave unificada de Linux).
Para obtener más información, consulte https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md
El valor predeterminado es false
.
encrypted_ephemeral = true
Política de actualización: si se cambia esta configuración, no se permite la actualización.
ephemeral_dir
Define la ruta donde se montan los volúmenes de almacenes de instancias, si se usan.
El valor predeterminado es /scratch
.
ephemeral_dir = /scratch
Política de actualización: si se cambia esta configuración, no se permite la actualización.
extra_json
(Opcional) Define el JSON adicional que se fusiona en Chef dna.json
. Para obtener más información, consulte Creación de una AWS ParallelCluster AMI personalizada.
El valor predeterminado es {}
.
extra_json = {}
nota
A partir de AWS ParallelCluster la versión 2.6.1, la mayoría de las recetas de instalación se omiten de forma predeterminada al lanzar los nodos para mejorar los tiempos de inicio. Para ejecutar todas las recetas de instalación para una mejor compatibilidad con versiones anteriores a costa de los tiempos de inicio, añada "skip_install_recipes" : "no"
a la clave cluster
en la configuración extra_json. Por ejemplo:
extra_json = { "cluster" : { "skip_install_recipes" : "no" } }
fsx_settings
(Opcional) Especifica la sección que define la configuración FSx de Lustre. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección [fsx].
Por ejemplo, la siguiente configuración especifica que la sección que comienza [fsx fs]
se usa FSx para la configuración de Lustre.
fsx_settings = fs
Política de actualización: si se cambia esta configuración, no se permite la actualización.
iam_lambda_role
(Opcional) Define el nombre de un rol de AWS Lambda ejecución existente. Este rol está asociado a todas las funciones de Lambda en el clúster. Para obtener más información, consulte Rol de ejecución de AWS Lambda en la Guía para desarrolladores de AWS Lambda .
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
El nombre de una función de IAM y su nombre de recurso de Amazon (ARN) son diferentes. ARNs no se puede usar como argumento para. iam_lambda_role
Si ambos ec2_iam_role y iam_lambda_role
están definidos, y el scheduler es sge
, slurm
o torque
, entonces no se creará ningún rol. Si scheduler se establece en awsbatch
, se crearán roles durante pcluster start. Para obtener ejemplos de políticas, consulte ParallelClusterLambdaPolicyusando SGE, Slurm, or Torque y ParallelClusterLambdaPolicy con awsbatch.
No hay valor predeterminado.
iam_lambda_role = ParallelClusterLambdaRole
nota
El soporte para iam_lambda_role
se agregó en la AWS ParallelCluster versión 2.10.1.
Política de actualización: esta configuración se puede cambiar durante una actualización.
initial_queue_size
(Opcional) Establece el número inicial de EC2 instancias de Amazon que se lanzarán como nodos de cómputo en el clúster. Si se define la configuración de queue_settings, esta configuración debe eliminarse y reemplazarse por la configuración de initial_count en las secciones de [compute_resource].
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
Esta configuración solo se aplica a los planificadores tradicionales (SGE, Slurm, y Torque). Si la maintain_initial_size configuración estrue
, entonces la initial_queue_size configuración debe ser al menos una (1).
Si el programador es awsbatch
, utilice min_vcpus en su lugar.
El valor predeterminado es 2
.
initial_queue_size = 2
Política de actualización: esta configuración se puede cambiar durante una actualización.
key_name
(Opcional) Nombra un par de EC2 claves de Amazon existente con el que habilitar el acceso SSH a las instancias.
key_name = mykey
nota
Antes de AWS ParallelCluster la versión 2.11.0, key_name
era una configuración obligatoria.
Política de actualización: si se cambia esta configuración, no se permite la actualización.
maintain_initial_size
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
(Opcional) Mantiene el tamaño inicial del grupo Auto Scaling para los programadores tradicionales (SGE, Slurm, y Torque).
Si el programador es awsbatch
, utilice desired_vcpus en su lugar.
Esta configuración es un indicador booleano. Si se establece en true
, el grupo de escalado automático nunca tendrá menos miembros que el valor de initial_queue_size, y el valor de initial_queue_size debe ser uno (1) o mayor. El clúster también se puede ampliar y escalar hasta el valor de max_queue_size. Si cluster_type = spot
, el grupo de escalado automático puede tener instancias interrumpidas y el tamaño puede ser inferior a initial_queue_size.
Si se establece en false
, el grupo de escalado automático se puede reducir a cero (0) miembros, para evitar que los recursos permanezcan inactivos cuando no sean necesarios.
Si se define la configuración de queue_settings, esta configuración debe eliminarse y reemplazarse por la configuración de initial_count y min_count en las secciones de [compute_resource].
El valor predeterminado es false
.
maintain_initial_size = false
Política de actualización: esta configuración se puede cambiar durante una actualización.
master_instance_type
(Opcional) Define el tipo de EC2 instancia de Amazon que se utiliza para el nodo principal. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para la configuración de compute_instance_type.
Si Regiones de AWS tiene una capa gratuita, el valor predeterminado es el tipo de instancia de capa gratuita (t2.micro
ot3.micro
). Si Regiones de AWS no tiene un nivel gratuito, el valor predeterminado es. t3.micro
Para obtener más información sobre la capa AWS gratuita, consulte la capa AWS gratuita. FAQs
master_instance_type = t2.micro
nota
Antes de AWS ParallelCluster la versión 2.10.1, el valor predeterminado era «t2.micro
in all». Regiones de AWS En AWS ParallelCluster versión 2.10.0, p4d.24xlarge
no era compatible con el nodo principal. La compatibilidad con instancias AWS basadas en Graviton (como A1
yC6g
) se agregó en la AWS ParallelCluster versión 2.8.0.
Política de actualización: si se cambia esta configuración, no se permite la actualización.
master_root_volume_size
(Opcional) Especifica el tamaño del volumen raíz del nodo principal en gibibytes (GiB). La AMI debe admitir growroot
.
El valor predeterminado es 35
.
nota
Para AWS ParallelCluster las versiones entre la 2.5.0 y la 2.10.4, el valor predeterminado era 25. Antes de AWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.
master_root_volume_size = 35
Política de actualización: si se cambia esta configuración, no se permite la actualización.
max_queue_size
(Opcional) Establece el número máximo de EC2 instancias de Amazon que se pueden lanzar en el clúster. Si se define la configuración de queue_settings, esta configuración debe eliminarse y reemplazarse por la configuración de max_count en las secciones de [compute_resource].
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
Esta configuración solo se aplica a los planificadores tradicionales (SGE, Slurm, y Torque).
Si el programador es awsbatch
, utilice max_vcpus en su lugar.
El valor predeterminado es 10
.
max_queue_size = 10
Política de actualización: esta configuración se puede cambiar durante una actualización, pero la flota de computación debe detenerse si se reduce el valor. De lo contrario, es posible que se cierren los nodos existentes.
max_vcpus
(Opcional) Especifica el número máximo de v CPUs en el entorno informático. Solo se utiliza si el programador es awsbatch
.
El valor predeterminado es 20
.
max_vcpus = 20
Política de actualización: esta configuración no se puede reducir durante una actualización.
min_vcpus
(Opcional) Mantiene el tamaño inicial del grupo de escalado automático para el programador de awsbatch
.
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
Si el planificador es SGE, Slurm, or Torque, utilícelo maintain_initial_size en su lugar.
El entorno informático nunca tendrá menos miembros que el valor de min_vcpus.
El valor predeterminado es 0
.
min_vcpus = 0
Política de actualización: esta configuración se puede cambiar durante una actualización.
placement
(Opcional) Define la lógica de los grupos con ubicación en clúster, lo que permite a todo el clúster o solo a las instancias de computación utilizar el grupo con ubicación en clúster.
Si se define la configuración dequeue_settings, esta configuración debe eliminarse y reemplazarse por la configuración de placement_group en cada una de las secciones de [queue]. Si se usa el mismo grupo de ubicación para distintos tipos de instancias, es más probable que la solicitud no se realice correctamente debido a un error de capacidad insuficiente. Para obtener más información, consulta Capacidad de instancia insuficiente en la Guía del EC2 usuario de Amazon. Las colas múltiples solo pueden compartir un grupo de ubicación si se crean con antelación y se configuran en la configuración de placement_group de cada cola. Si cada sección de [queue] define una configuración de placement_group, el nodo principal no puede estar en el grupo de ubicación de una cola.
Las opciones válidas son cluster
o compute
.
Este parámetro no se usa cuando el programador es awsbatch
.
El valor predeterminado es compute
.
placement = compute
Política de actualización: si se cambia esta configuración, no se permite la actualización.
placement_group
(Opcional) Define el grupo de ubicación en clúster. Si se define la configuración de queue_settings, esta configuración debe eliminarse y reemplazarse por la configuración de placement_group en las secciones de [queue].
Las opciones válidas son las siguientes:
-
DYNAMIC
-
Un nombre de grupo de ubicación de EC2 clústeres de Amazon existente
Cuando se establece en DYNAMIC
, se crea y elimina un grupo de ubicación único como parte de la pila del clúster.
Este parámetro no se usa cuando el programador es awsbatch
.
Para obtener más información sobre los grupos de ubicación, consulte Grupos de ubicación en la Guía del EC2 usuario de Amazon. Si se usa el mismo grupo de ubicación para distintos tipos de instancias, es más probable que la solicitud no se realice correctamente debido a un error de capacidad insuficiente. Para obtener más información, consulta Capacidad de instancia insuficiente en la Guía del EC2 usuario de Amazon.
No hay valor predeterminado.
No todos los tipos de instancias admiten grupos de ubicación en clúster. Por ejemplo, el tipo de instancia predeterminado t3.micro
no admite grupos con ubicación en clúster. Para obtener información sobre la lista de tipos de instancias que admiten grupos de ubicación en clústeres, consulta Reglas y limitaciones de los grupos de ubicación en clústeres en la Guía del EC2 usuario de Amazon. Consulte Problemas con los grupos de ubicación y el lanzamiento de instancias para obtener sugerencias al trabajar con grupos de ubicación.
placement_group = DYNAMIC
Política de actualización: si se cambia esta configuración, no se permite la actualización.
post_install
(Opcional) Especifica la URL de un script posterior a la instalación que se ejecuta una vez que se hayan completado todas las acciones de arranque del nodo. Para obtener más información, consulte Acciones de arranque personalizadas.
Cuando se utiliza awsbatch
como programador, el script posterior a la instalación solo se ejecuta en el nodo principal.
El formato de los parámetros puede ser http://
o hostname/path/to/script.sh
s3://
.bucket-name/path/to/script.sh
No hay valor predeterminado.
post_install = s3://
<bucket-name>
/my-post-install-script.sh
post_install_args
(Opcional) Especifica una lista de argumentos entre comillas que se pasará al script posterior a la instalación.
No hay valor predeterminado.
post_install_args = "
argument-1
argument-2
"
pre_install
(Opcional) Especifica la URL de un script de preinstalación que se ejecuta antes de que se inicie cualquier acción de arranque de implementación de nodos. Para obtener más información, consulte Acciones de arranque personalizadas.
Cuando se utiliza awsbatch
como programador, el script de preinstalación solo se ejecuta en el nodo principal.
El formato de los parámetros puede ser http://
o hostname/path/to/script.sh
s3://
.bucket-name/path/to/script.sh
No hay valor predeterminado.
pre_install = s3://
bucket-name
/my-pre-install-script.sh
pre_install_args
Especifica una lista de argumentos entre comillas que se pasará al script de preinstalación.
No hay valor predeterminado.
pre_install_args = "
argument-3
argument-4
"
proxy_server
Define un servidor proxy HTTP o HTTPS, normalmente .
No hay valor predeterminado.
proxy_server = http://
10.11.12.13:8080
Política de actualización: si se cambia esta configuración, no se permite la actualización.
queue_settings
(Opcional) Especifica que el clúster usa colas en lugar de una flota de computación homogénea y qué secciones de [queue] se utilizan. La primera sección de [queue] en la lista es la cola del programador predeterminada. Los nombres de la sección de queue
deben comenzar por una letra, contener no más de 30 caracteres y solo letras, números y guiones (-).
importante
Solo se admite cuando el spot se establece en . Los ajustes cluster_type, compute_instance_type, initial_queue_size, maintain_initial_size, max_queue_size, placement, placement_group y spot_price no deben especificarse. La configuración de disable_hyperthreading y enable_efa se puede especificar en la sección de [cluster] o en las secciones de [queue], pero no en ambas.
Se admiten hasta cinco (5) secciones de [queue].
Para obtener más información, consulte la sección [queue].
Por ejemplo, la siguiente configuración especifica que se utilicen las secciones que inician [queue q1]
y [queue q2]
.
queue_settings = q1, q2
nota
El soporte para queue_settings se agregó en la AWS ParallelCluster versión 2.9.0.
raid_settings
(Opcional) Identifica la sección de [raid]
con la configuración RAID del volumen de Amazon EBS. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección [raid].
Por ejemplo, la siguiente configuración especifica que la sección que inicia [raid rs]
se utiliza para la configuración del escalado automático.
raid_settings = rs
Política de actualización: si se cambia esta configuración, no se permite la actualización.
s3_read_resource
(Opcional) Especifica un recurso de Amazon S3 al que se concede acceso de solo lectura a AWS ParallelCluster los nodos.
Por ejemplo, arn:aws:s3:::
proporciona acceso de solo lectura al my_corporate_bucket
*my_corporate_bucket
bucket y a los objetos del bucket.
Consulte la sección sobre cómo trabajar con para obtener información detallada sobre el formato.
No hay valor predeterminado.
s3_read_resource = arn:aws:s3:::
my_corporate_bucket
*
Política de actualización: esta configuración se puede cambiar durante una actualización.
s3_read_write_resource
Especifica un recurso de al que los nodos tienen concedido acceso de lectura y escritura.
Por ejemplo, arn:aws:s3:::
proporciona acceso de lectura y escritura a todos los objetos de la my_corporate_bucket
/Development/*Development
carpeta del depósito. my_corporate_bucket
Consulte la sección sobre cómo trabajar con para obtener información detallada sobre el formato.
No hay valor predeterminado.
s3_read_write_resource = arn:aws:s3:::
my_corporate_bucket
/*
Política de actualización: esta configuración se puede cambiar durante una actualización.
scaling_settings
Identifica la sección de [scaling]
con la configuración del escalado automático. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección [scaling].
Por ejemplo, la siguiente configuración especifica que la sección que inicia [scaling custom]
se utiliza para la configuración del escalado automático.
scaling_settings = custom
Política de actualización: si se cambia esta configuración, no se permite la actualización.
scheduler
(Obligatorio) Define el programador de clúster.
Las opciones válidas son las siguientes:
awsbatch
-
AWS Batch
Para obtener más información sobre el programador de
awsbatch
, consulte la configuración de red y AWS Batch (awsbatch). sge
-
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
Son of Grid Engine (SGE)
slurm
-
Slurm Workload Manager (Slurm)
torque
-
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
Torque Resource Manager (Torque)
nota
Antes de AWS ParallelCluster la versión 2.7.0, el scheduler
parámetro era opcional y el predeterminado era. sge
A partir de AWS ParallelCluster la versión 2.7.0, el scheduler
parámetro es obligatorio.
scheduler = slurm
Política de actualización: si se cambia esta configuración, no se permite la actualización.
shared_dir
Define la ruta donde se monta el volumen de compartido.
No use esta opción con varios volúmenes de . En su lugar, proporcione los valores shared_dir en cada sección de .
Consulte la sección de para obtener información detallada sobre cómo trabajar con varios volúmenes de .
El valor predeterminado es /shared
.
En el siguiente ejemplo se muestra un volumen de compartido montado en .
shared_dir = myshared
Política de actualización: si se cambia esta configuración, no se permite la actualización.
spot_bid_percentage
(Opcional) Establece el porcentaje bajo demanda que se utiliza para calcular el precio máximo al ComputeFleet contado para awsbatch
el planificador.
Si no se especifica, se selecciona el precio de mercado de spot actual con el precio bajo demanda como límite.
spot_bid_percentage = 85
Política de actualización: esta configuración se puede cambiar durante una actualización.
spot_price
nota
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.
(Opcional) Establece el precio máximo al contado para los programadores ComputeFleet tradicionales (SGE, Slurm, y Torque). Se usa solo cuando el cluster_type ajuste está establecido enspot
. Si no especifica ningún valor, se le cobrará el precio de spot, con el precio bajo demanda como límite máximo. Si se define la configuración de queue_settings, esta configuración debe eliminarse y reemplazarse por la configuración de spot_price en las secciones de [compute_resource].
Si el programador es awsbatch
, utilice spot_bid_percentage en su lugar.
Para obtener ayuda para encontrar una instancia de spot que se ajuste a sus necesidades, consulte el Asistente de instancias de spot
spot_price = 1.50
nota
En AWS ParallelCluster la versión 2.5.0, si cluster_type = spot
spot_price no se especifica, la instancia se lanza cuando se produce un ComputeFleet error. Esto se solucionó en la AWS ParallelCluster versión 2.5.1.
Política de actualización: esta configuración se puede cambiar durante una actualización.
tags
(Opcional) Define las etiquetas que utilizará. AWS CloudFormation
Si se especifican etiquetas de línea de comandos a través de --tags, se combinan con etiquetas de configuración.
Las etiquetas de la línea de comandos sobrescriben las etiquetas de configuración que tienen la misma clave.
Las etiquetas están en formato JSON. No utilice comillas fuera de las llaves.
Para obtener más información, consulte AWS CloudFormation resource tags type en la Guía del usuario de AWS CloudFormation .
tags = {"key" : "value", "key2" : "value2"}
Política de actualización: si se cambia esta configuración, no se permite la actualización.
nota
La política de actualización no permitía cambiar la configuración tags
hasta que se detuvo la flota informática desde AWS ParallelCluster
versión 2.0.0 hasta la versión 2.9.1.
En el caso de las versiones 2.10.0 a 2.11.7, la política de actualización indicada que permitía cambiar la configuración de tags
no es precisa. No se admite una actualización de clúster al modificar esta configuración.
template_url
(Opcional) Define la ruta a la AWS CloudFormation plantilla que se utiliza para crear el clúster.
Actualiza la plantilla que se utilizó originalmente para crear la pila.
El valor predeterminado es https://
.aws_region_name
-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version
.cfn.json
aviso
Este es un parámetro avanzado. Cualquier cambio en esta configuración es por su cuenta y riesgo.
template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json
Política de actualización: esta configuración no se analiza durante una actualización.
vpc_settings
(Obligatorio) Identifica la sección de [vpc]
con la configuración de Amazon VPC donde se implementa el clúster. El nombre de la sección debe comenzar por una letra, contener no más de 30 caracteres y solo letras, números, guiones (-) y guiones bajos (_).
Para obtener más información, consulte la sección [vpc].
Por ejemplo, la siguiente configuración especifica que la sección que inicia [vpc public]
se utiliza para la configuración de Amazon VPC.
vpc_settings = public
Política de actualización: si se cambia esta configuración, no se permite la actualización.