Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esempi
Le seguenti configurazioni di esempio mostrano le AWS ParallelCluster configurazioni che utilizzano e Slurm AWS Batch gli Torque scheduler.
Nota
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso SGE o Torque gli scheduler.
Indice
Slurm Workload Manager (slurm
)
L'esempio seguente consente di avviare un cluster con il pianificatore slurm
. La configurazione di esempio avvia 1 cluster con 2 code di lavoro. La prima coda ha inizialmente 2 istanze t3.micro
Spot disponibili. spot
Può essere scalato fino a un massimo di 10 istanze e fino a un minimo di 1 istanza quando nessun processo è stato eseguito per 10 minuti (regolabile utilizzando l'scaledown_idletimeimpostazione). La seconda coda,ondemand
, inizia senza istanze e può essere scalata fino a un massimo di 5 t3.micro
istanze On-Demand.
[global] update_check = true sanity_check = true cluster_template = slurm [aws] aws_region_name =
<your Regione AWS>
[vpc public] master_subnet_id =<your subnet>
vpc_id =<your VPC>
[cluster slurm] key_name =<your EC2 keypair name>
base_os = alinux2 # optional, defaults to alinux2 scheduler = slurm master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public queue_settings = spot,ondemand [queue spot] compute_resource_settings = spot_i1 compute_type = spot # optional, defaults to ondemand [compute_resource spot_i1] instance_type = t3.micro min_count = 1 # optional, defaults to 0 initial_count = 2 # optional, defaults to 0 [queue ondemand] compute_resource_settings = ondemand_i1 [compute_resource ondemand_i1] instance_type = t3.micro max_count = 5 # optional, defaults to 10
Son of Grid Engine(sge
) e Torque Resource Manager (torque
)
Nota
Questo esempio si applica solo alle AWS ParallelCluster versioni fino alla versione 2.11.4 inclusa. A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso SGE o Torque gli scheduler.
L'esempio seguente avvia un cluster con lo sge
scheduler torque
or. Per utilizzareSGE, passa scheduler =
torque
ascheduler = sge
. La configurazione di esempio consente un massimo di 5 nodi simultanei e viene ridotta a due quando nessun processo viene eseguito per 10 minuti.
[global] update_check = true sanity_check = true cluster_template = torque [aws] aws_region_name =
<your Regione AWS>
[vpc public] master_subnet_id =<your subnet>
vpc_id =<your VPC>
[cluster torque] key_name =<your EC2 keypair name>
but they aren't eligible for future updates base_os = alinux2 # optional, defaults to alinux2 scheduler = torque # optional, defaults to sge master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public initial_queue_size = 2 # optional, defaults to 0 maintain_initial_size = true # optional, defaults to false max_queue_size = 5 # optional, defaults to 10
Nota
A partire dalla versione 2.11.5, AWS ParallelCluster non supporta l'uso SGE o Torque gli scheduler. Se utilizzi queste versioni, puoi continuare a utilizzarle o l'assistenza per la risoluzione dei problemi da parte dei team di AWS assistenza e AWS supporto.
AWS Batch (awsbatch
)
L'esempio seguente consente di avviare un cluster con il pianificatore awsbatch
. È impostato per selezionare il tipo di istanza migliore in base alle esigenze in termini di risorse lavorative.
La configurazione di esempio consente un massimo di 40 vCPU simultanee e si riduce a zero quando nessun processo viene eseguito per 10 minuti (regolabile utilizzando l'impostazione). scaledown_idletime
[global] update_check = true sanity_check = true cluster_template = awsbatch [aws] aws_region_name =
<your Regione AWS>
[vpc public] master_subnet_id =<your subnet>
vpc_id =<your VPC>
[cluster awsbatch] scheduler = awsbatch compute_instance_type = optimal # optional, defaults to optimal min_vcpus = 0 # optional, defaults to 0 desired_vcpus = 0 # optional, defaults to 4 max_vcpus = 40 # optional, defaults to 20 base_os = alinux2 # optional, defaults to alinux2, controls the base_os of # the head node and the docker image for the compute fleet key_name =<your EC2 keypair name>
vpc_settings = public