Esempi - AWS ParallelCluster

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Esempi

Le seguenti configurazioni di esempio mostrano le AWS ParallelCluster configurazioni che utilizzano e Slurm AWS Batch gli Torque scheduler.

Nota

A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso SGE o Torque gli scheduler.

Slurm Workload Manager (slurm)

L'esempio seguente consente di avviare un cluster con il pianificatore slurm. La configurazione di esempio avvia 1 cluster con 2 code di lavoro. La prima coda ha inizialmente 2 istanze t3.micro Spot disponibili. spot Può essere scalato fino a un massimo di 10 istanze e fino a un minimo di 1 istanza quando nessun processo è stato eseguito per 10 minuti (regolabile utilizzando l'scaledown_idletimeimpostazione). La seconda coda,ondemand, inizia senza istanze e può essere scalata fino a un massimo di 5 t3.micro istanze On-Demand.

[global] update_check = true sanity_check = true cluster_template = slurm [aws] aws_region_name = <your Regione AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster slurm] key_name = <your EC2 keypair name> base_os = alinux2 # optional, defaults to alinux2 scheduler = slurm master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public queue_settings = spot,ondemand [queue spot] compute_resource_settings = spot_i1 compute_type = spot # optional, defaults to ondemand [compute_resource spot_i1] instance_type = t3.micro min_count = 1 # optional, defaults to 0 initial_count = 2 # optional, defaults to 0 [queue ondemand] compute_resource_settings = ondemand_i1 [compute_resource ondemand_i1] instance_type = t3.micro max_count = 5 # optional, defaults to 10

Son of Grid Engine(sge) e Torque Resource Manager (torque)

Nota

Questo esempio si applica solo alle AWS ParallelCluster versioni fino alla versione 2.11.4 inclusa. A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso SGE o Torque gli scheduler.

L'esempio seguente avvia un cluster con lo sge scheduler torque or. Per utilizzareSGE, passa scheduler = torque ascheduler = sge. La configurazione di esempio consente un massimo di 5 nodi simultanei e viene ridotta a due quando nessun processo viene eseguito per 10 minuti.

[global] update_check = true sanity_check = true cluster_template = torque [aws] aws_region_name = <your Regione AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster torque] key_name = <your EC2 keypair name>but they aren't eligible for future updates base_os = alinux2 # optional, defaults to alinux2 scheduler = torque # optional, defaults to sge master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public initial_queue_size = 2 # optional, defaults to 0 maintain_initial_size = true # optional, defaults to false max_queue_size = 5 # optional, defaults to 10
Nota

A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso SGE o Torque gli scheduler. Se utilizzi queste versioni, puoi continuare a utilizzarle o l'assistenza per la risoluzione dei problemi da parte dei team di AWS assistenza e AWS supporto.

AWS Batch (awsbatch)

L'esempio seguente consente di avviare un cluster con il pianificatore awsbatch. È impostato per selezionare il tipo di istanza migliore in base alle esigenze in termini di risorse lavorative.

La configurazione di esempio consente un massimo di 40 vCPU simultanee e si riduce a zero quando nessun processo viene eseguito per 10 minuti (regolabile utilizzando l'impostazione). scaledown_idletime

[global] update_check = true sanity_check = true cluster_template = awsbatch [aws] aws_region_name = <your Regione AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster awsbatch] scheduler = awsbatch compute_instance_type = optimal # optional, defaults to optimal min_vcpus = 0 # optional, defaults to 0 desired_vcpus = 0 # optional, defaults to 4 max_vcpus = 40 # optional, defaults to 20 base_os = alinux2 # optional, defaults to alinux2, controls the base_os of # the head node and the docker image for the compute fleet key_name = <your EC2 keypair name> vpc_settings = public