Exemples - AWS ParallelCluster

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Exemples

Les exemples de configuration suivants illustrent AWS ParallelCluster les configurations utilisant SlurmTorque, et des AWS Batch planificateurs.

Note

À partir de la version 2.11.5, AWS ParallelCluster il n'est pas possible d'utiliser des planificateursSGE. Torque

Slurm Workload Manager (slurm)

L'exemple suivant lance un cluster avec le planificateur slurm. L'exemple de configuration lance 1 cluster avec 2 files d'attente de tâches. La première file d'spotattente comporte initialement 2 instances t3.micro Spot disponibles. Il peut augmenter jusqu'à un maximum de 10 instances et diminuer jusqu'à un minimum d'une instance lorsqu'aucune tâche n'a été exécutée pendant 10 minutes (réglable à l'aide du scaledown_idletime paramètre). La seconde file d'ondemandattente commence sans instance et peut évoluer jusqu'à un maximum de 5 instances t3.micro à la demande.

[global] update_check = true sanity_check = true cluster_template = slurm [aws] aws_region_name = <your Région AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster slurm] key_name = <your EC2 keypair name> base_os = alinux2 # optional, defaults to alinux2 scheduler = slurm master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public queue_settings = spot,ondemand [queue spot] compute_resource_settings = spot_i1 compute_type = spot # optional, defaults to ondemand [compute_resource spot_i1] instance_type = t3.micro min_count = 1 # optional, defaults to 0 initial_count = 2 # optional, defaults to 0 [queue ondemand] compute_resource_settings = ondemand_i1 [compute_resource ondemand_i1] instance_type = t3.micro max_count = 5 # optional, defaults to 10

Son of Grid Engine(sge) et Torque Resource Manager (torque)

Note

Cet exemple s'applique uniquement aux AWS ParallelCluster versions antérieures à la version 2.11.4. À partir de la version 2.11.5, AWS ParallelCluster il n'est pas possible d'utiliser des planificateursSGE. Torque

L'exemple suivant lance un cluster avec le sge planificateur torque or. Pour l'utiliserSGE, remplacez-le scheduler = torque parscheduler = sge. L'exemple de configuration autorise un maximum de 5 nœuds simultanés, puis passe à deux lorsqu'aucune tâche n'est exécutée pendant 10 minutes.

[global] update_check = true sanity_check = true cluster_template = torque [aws] aws_region_name = <your Région AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster torque] key_name = <your EC2 keypair name>but they aren't eligible for future updates base_os = alinux2 # optional, defaults to alinux2 scheduler = torque # optional, defaults to sge master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public initial_queue_size = 2 # optional, defaults to 0 maintain_initial_size = true # optional, defaults to false max_queue_size = 5 # optional, defaults to 10
Note

À partir de la version 2.11.5, AWS ParallelCluster il n'est pas possible d'utiliser des planificateursSGE. Torque Si vous utilisez ces versions, vous pouvez continuer à les utiliser ou à obtenir de l'aide auprès des équipes de AWS service et de AWS support pour résoudre les problèmes.

AWS Batch (awsbatch)

L'exemple suivant lance un cluster avec le planificateur awsbatch. Il est configuré pour sélectionner le meilleur type d'instance en fonction de vos besoins en ressources de travail.

L'exemple de configuration autorise un maximum de 40 processeurs virtuels simultanés et diminue jusqu'à zéro lorsqu'aucune tâche n'est exécutée pendant 10 minutes (réglable à l'aide du scaledown_idletime paramètre).

[global] update_check = true sanity_check = true cluster_template = awsbatch [aws] aws_region_name = <your Région AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster awsbatch] scheduler = awsbatch compute_instance_type = optimal # optional, defaults to optimal min_vcpus = 0 # optional, defaults to 0 desired_vcpus = 0 # optional, defaults to 4 max_vcpus = 40 # optional, defaults to 20 base_os = alinux2 # optional, defaults to alinux2, controls the base_os of # the head node and the docker image for the compute fleet key_name = <your EC2 keypair name> vpc_settings = public