Beispiele - AWS ParallelCluster

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Beispiele

Die folgenden Beispielkonfigurationen veranschaulichen AWS ParallelCluster Konfigurationen mit SlurmTorque, und AWS Batch Schedulern.

Anmerkung

Ab Version 2.11.5 wird die Verwendung von SGE oder Torque Schedulern AWS ParallelCluster nicht unterstützt.

Slurm Workload Manager (slurm)

Das folgende Beispiel startet einen Cluster mit dem Scheduler slurm. Die Beispielkonfiguration startet 1 Cluster mit 2 Job-Warteschlangen. In der ersten Warteschlange spot sind zunächst 2 t3.micro Spot-Instances verfügbar. Es kann auf maximal 10 Instanzen skaliert und auf mindestens 1 Instanz herunterskaliert werden, wenn 10 Minuten lang keine Jobs ausgeführt wurden (einstellbar über die scaledown_idletime Einstellung). Die zweite Warteschlange,ondemand, beginnt ohne Instances und kann auf maximal 5 t3.micro On-Demand-Instances skaliert werden.

[global] update_check = true sanity_check = true cluster_template = slurm [aws] aws_region_name = <your AWS-Region> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster slurm] key_name = <your EC2 keypair name> base_os = alinux2 # optional, defaults to alinux2 scheduler = slurm master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public queue_settings = spot,ondemand [queue spot] compute_resource_settings = spot_i1 compute_type = spot # optional, defaults to ondemand [compute_resource spot_i1] instance_type = t3.micro min_count = 1 # optional, defaults to 0 initial_count = 2 # optional, defaults to 0 [queue ondemand] compute_resource_settings = ondemand_i1 [compute_resource ondemand_i1] instance_type = t3.micro max_count = 5 # optional, defaults to 10

Son of Grid Engine(sge) und Torque Resource Manager (torque)

Anmerkung

Dieses Beispiel gilt nur für AWS ParallelCluster Versionen bis einschließlich Version 2.11.4. Ab Version 2.11.5 wird die Verwendung von SGE oder Torque Schedulern AWS ParallelCluster nicht unterstützt.

Im folgenden Beispiel wird ein Cluster mit dem torque oder sge Scheduler gestartet. Um es zu verwendenSGE, wechseln Sie scheduler = torque zuscheduler = sge. Die Beispielkonfiguration erlaubt maximal 5 gleichzeitige Knoten und wird auf zwei herunterskaliert, wenn 10 Minuten lang keine Jobs ausgeführt wurden.

[global] update_check = true sanity_check = true cluster_template = torque [aws] aws_region_name = <your AWS-Region> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster torque] key_name = <your EC2 keypair name>but they aren't eligible for future updates base_os = alinux2 # optional, defaults to alinux2 scheduler = torque # optional, defaults to sge master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public initial_queue_size = 2 # optional, defaults to 0 maintain_initial_size = true # optional, defaults to false max_queue_size = 5 # optional, defaults to 10
Anmerkung

Ab Version 2.11.5 wird die Verwendung von SGE oder Torque Schedulern AWS ParallelCluster nicht unterstützt. Wenn Sie diese Versionen verwenden, können Sie sie weiterhin verwenden oder Unterstützung bei der Fehlerbehebung durch die AWS Service- und AWS Support-Teams erhalten.

AWS Batch (awsbatch)

Das folgende Beispiel startet einen Cluster mit dem Scheduler awsbatch. Es ist so eingerichtet, dass es den besseren Instanztyp basierend auf Ihren Anforderungen an Jobressourcen auswählt.

Die Beispielkonfiguration erlaubt maximal 40 gleichzeitige vCPUs und wird auf Null herunterskaliert, wenn 10 Minuten lang keine Jobs ausgeführt wurden (mit der scaledown_idletime Einstellung einstellbar).

[global] update_check = true sanity_check = true cluster_template = awsbatch [aws] aws_region_name = <your AWS-Region> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster awsbatch] scheduler = awsbatch compute_instance_type = optimal # optional, defaults to optimal min_vcpus = 0 # optional, defaults to 0 desired_vcpus = 0 # optional, defaults to 4 max_vcpus = 40 # optional, defaults to 20 base_os = alinux2 # optional, defaults to alinux2, controls the base_os of # the head node and the docker image for the compute fleet key_name = <your EC2 keypair name> vpc_settings = public