Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Contoh
Contoh konfigurasi berikut menunjukkan AWS ParallelCluster konfigurasi menggunakanSlurm,Torque, dan AWS Batch penjadwal.
catatan
Dimulai dengan versi 2.11.5, AWS ParallelCluster tidak mendukung penggunaan SGE atau Torque penjadwal.
Daftar Isi
Slurm Workload Manager (slurm
)
Contoh berikut meluncurkan cluster dengan scheduler. slurm
Contoh konfigurasi meluncurkan 1 cluster dengan 2 antrian pekerjaan. Antrian pertama,spot
, awalnya memiliki 2 instans t3.micro
Spot yang tersedia. Ini dapat meningkatkan skala hingga maksimum 10 instans, dan menurunkan skala hingga minimal 1 instans ketika tidak ada pekerjaan yang dijalankan selama 10 menit (dapat disesuaikan menggunakan scaledown_idletime pengaturan). Antrian keduaondemand
, dimulai tanpa instans dan dapat meningkatkan skala hingga maksimum 5 t3.micro
instans Sesuai Permintaan.
[global] update_check = true sanity_check = true cluster_template = slurm [aws] aws_region_name =
<your Wilayah AWS>
[vpc public] master_subnet_id =<your subnet>
vpc_id =<your VPC>
[cluster slurm] key_name =<your EC2 keypair name>
base_os = alinux2 # optional, defaults to alinux2 scheduler = slurm master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public queue_settings = spot,ondemand [queue spot] compute_resource_settings = spot_i1 compute_type = spot # optional, defaults to ondemand [compute_resource spot_i1] instance_type = t3.micro min_count = 1 # optional, defaults to 0 initial_count = 2 # optional, defaults to 0 [queue ondemand] compute_resource_settings = ondemand_i1 [compute_resource ondemand_i1] instance_type = t3.micro max_count = 5 # optional, defaults to 10
Son of Grid Enginedan sge
Torque Resource Manager (torque
)
catatan
Contoh ini hanya berlaku untuk AWS ParallelCluster versi hingga dan termasuk versi 2.11.4. Dimulai dengan versi 2.11.5, AWS ParallelCluster tidak mendukung penggunaan SGE atau Torque penjadwal.
Contoh berikut meluncurkan cluster dengan torque
atau sge
scheduler. Untuk menggunakanSGE, ubah scheduler =
torque
kescheduler = sge
. Contoh konfigurasi memungkinkan maksimum 5 node bersamaan, dan skala ke dua ketika tidak ada pekerjaan telah berjalan selama 10 menit.
[global] update_check = true sanity_check = true cluster_template = torque [aws] aws_region_name =
<your Wilayah AWS>
[vpc public] master_subnet_id =<your subnet>
vpc_id =<your VPC>
[cluster torque] key_name =<your EC2 keypair name>
but they aren't eligible for future updates base_os = alinux2 # optional, defaults to alinux2 scheduler = torque # optional, defaults to sge master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public initial_queue_size = 2 # optional, defaults to 0 maintain_initial_size = true # optional, defaults to false max_queue_size = 5 # optional, defaults to 10
catatan
Dimulai dengan versi 2.11.5, AWS ParallelCluster tidak mendukung penggunaan SGE atau Torque penjadwal. Jika Anda menggunakan versi ini, Anda dapat terus menggunakannya, atau memecahkan masalah dukungan dari AWS layanan dan tim AWS Dukungan.
AWS Batch (awsbatch
)
Contoh berikut meluncurkan cluster dengan scheduler. awsbatch
Ini diatur untuk memilih jenis instans yang lebih baik berdasarkan kebutuhan sumber daya pekerjaan Anda.
Contoh konfigurasi memungkinkan maksimum 40 vCPU bersamaan, dan skala ke nol ketika tidak ada pekerjaan yang berjalan selama 10 menit (dapat disesuaikan menggunakan pengaturan). scaledown_idletime
[global] update_check = true sanity_check = true cluster_template = awsbatch [aws] aws_region_name =
<your Wilayah AWS>
[vpc public] master_subnet_id =<your subnet>
vpc_id =<your VPC>
[cluster awsbatch] scheduler = awsbatch compute_instance_type = optimal # optional, defaults to optimal min_vcpus = 0 # optional, defaults to 0 desired_vcpus = 0 # optional, defaults to 4 max_vcpus = 40 # optional, defaults to 20 base_os = alinux2 # optional, defaults to alinux2, controls the base_os of # the head node and the docker image for the compute fleet key_name =<your EC2 keypair name>
vpc_settings = public