本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Slurm 基于内存的调度
从 3.2.0 版开始, AWS ParallelCluster 支持使用 SlurmSettings/cl EnableMemoryBasedSchedulinguster 配置参数进行Slurm基于内存的调度。
注意
从 3.7.0 AWS ParallelCluster 版开始,如果您在实例中配置了多个实例类型,则EnableMemoryBasedScheduling可以启用。
适用于 3.2.0 到 3.6 AWS ParallelCluster 版本。 x
,如果您在实例中配置了多个实例类型,则EnableMemoryBasedScheduling无法启用。
警告
当您在启用了 EnableMemoryBasedScheduling
的 Slurm 队列计算资源中指定多个实例类型时,RealMemory
值将是提供给所有实例类型的最小内存量。如果您指定的实例类型具有截然不同的内存容量,则可能会导致大量未使用的内存。
使用 EnableMemoryBasedScheduling: true
,Slurm 调度器可以跟踪每个作业在每个节点上所需的内存量。然后,Slurm 调度器将使用此信息在同一个计算节点上调度多个作业。作业在节点上所需的内存总量不能大于可用的节点内存。调度器可防止作业使用的内存超过提交作业时请求的内存。
使用 EnableMemoryBasedScheduling: false
,作业可能会争夺共享节点上的内存并导致作业失败和 out-of-memory
事件。
警告
Slurm 对其标签使用 2 的幂表示法,例如 MB 或 GB。将这些标签分别读作 MiB 和 GiB。
Slurm 配置和基于内存的调度
使用 EnableMemoryBasedScheduling: true
,Slurm 设置以下 Slurm 配置参数:
-
slurm.conf
中的SelectTypeParameters=CR_CPU_Memory
。此选项将节点内存配置为 Slurm 中的可消耗资源。 -
Slurm
cgroup.conf
中的ConstrainRAMSpace=yes
。使用此选项,作业对内存的访问仅限于提交作业时请求的内存量。
注意
设置这两个选项后,有几个其他 Slurm 配置参数可能会影响 Slurm 调度器和资源管理器的行为。有关更多信息,请参阅 Slurm 文档
Slurm 调度器和基于内存的调度
EnableMemoryBasedScheduling: false
(默认值)
默认情况下,EnableMemoryBasedScheduling
设置为 false。当为 false 时,Slurm 不将内存作为资源包含在其调度算法中,也不会跟踪作业使用的内存。用户可以指定 --mem MEM_PER_NODE
选项来设置作业所需的每个节点的最小内存量。这会强制调度器在调度作业时选择 RealMemory
值至少为 MEM_PER_NODE
的节点。
例如,假设用户提交了两个使用 --mem=5GB
的作业。如果请求的资源(例如 CPU 或 GPU)可用,则这些作业可以在内存为 8 GiB 的节点上同时运行。不会调度这两个作业在 RealMemory
小于 5 GiB 的计算节点上运行。
警告
当禁用了基于内存的调度时,Slurm 不会跟踪作业使用的内存量。在同一节点上运行的作业可能会争夺内存资源并导致其他作业失败。
在禁用基于内存的调度时,我们建议用户不要指定 --mem-per-cpu
--mem-per-gpu
EnableMemoryBasedScheduling: true
当 EnableMemoryBasedScheduling
设置为 true 时,Slurm 将会跟踪每个作业的内存使用情况,并防止作业使用的内存超过通过 --mem
提交选项请求的内存量。
在上面的示例中,用户提交了两个使用 --mem=5GB
的作业。这些作业无法在内存为 8 GiB 的节点上同时运行。这是因为所需的总内存量大于节点上可用的内存量。
在启用基于内存的调度后,--mem-per-cpu
和 --mem-per-gpu
的行为将与 Slurm 文档中描述的行为一致。例如,使用 --ntasks-per-node=2 -c 1 --mem-per-cpu=2GB
提交作业。在这种情况下,Slurm 将为每个节点分配总计 4 GiB 的作业。
警告
启用基于内存的调度后,我们建议用户在提交作业时包含 --mem
规范。使用包含的默认Slurm配置 AWS ParallelCluster,如果不包含内存选项(--mem
--mem-per-cpu
、或--mem-per-gpu
),则会将Slurm分配的节点的全部内存分配给该作业,即使它只请求一部分其他资源,例如 CPU 或 GPU。这可在作业完成之前有效地防止节点共享,因为没有内存可用于其他作业。之所以发生这种情况,是因为在提交作业时,如果未提供内存规范,Slurm 会将作业的每个节点的内存设置为 DefMemPerNode
如果同一个队列中存在多种具有不同内存量的计算资源,则在不同的节点上可能会为不带内存选项的已提交作业分配不同的内存量。这取决于调度器为作业提供了哪些节点。用户可以在集群或分区级别在 Slurm 配置文件中为选项(如 DefMemPerNode
或 DefMemPerCPU
Slurm RealMemory 和 AWS ParallelCluster SchedulableMemory
使用随附的Slurm配置 AWS ParallelCluster,Slurm解释RealMemoryRealMemory
为亚马逊 EC2 实例类型中列出并由亚马逊 EC2
禁用基于内存的调度后,当用户提交指定了 --mem
的作业时,Slurm 调度器会使用 RealMemory
来筛选节点。
启用基于内存的调度后,Slurm 调度器会将 RealMemory
解释为计算节点上运行的作业可用的最大内存量。
默认设置可能不是所有实例类型的最佳设置:
-
此设置可能高于节点实际可以访问的内存量。当计算节点是小型实例类型时,可能会发生这种情况。
-
此设置可能低于节点实际可以访问的内存量。当计算节点是大型实例类型时,可能会发生这种情况,并可能导致大量未使用的内存。
您可以使用 SlurmQueues/ComputeResources/SchedulableMemory微调计算节点 AWS ParallelCluster 的RealMemory
配置值。要覆盖默认值,请针对您的集群配置专门为 SchedulableMemory
定义一个自定义值。
要检查计算节点的实际可用内存,请在该节点上运行 /opt/slurm/sbin/slurmd -C
命令。此命令可返回节点的硬件配置,包括 RealMemory
slurmd
-C
确保计算节点的操作系统进程有足够的内存。为此,请将 SchedulableMemory
值设置为低于 slurmd -C
命令返回的 RealMemory
值,从而限制作业可用的内存。