选择您的 Cookie 首选项

我们使用必要 Cookie 和类似工具提供我们的网站和服务。我们使用性能 Cookie 收集匿名统计数据,以便我们可以了解客户如何使用我们的网站并进行改进。必要 Cookie 无法停用,但您可以单击“自定义”或“拒绝”来拒绝性能 Cookie。

如果您同意,AWS 和经批准的第三方还将使用 Cookie 提供有用的网站功能、记住您的首选项并显示相关内容,包括相关广告。要接受或拒绝所有非必要 Cookie,请单击“接受”或“拒绝”。要做出更详细的选择,请单击“自定义”。

与针对基础架构进行了优化的 SMDDP 库的兼容性 AWS

聚焦模式
与针对基础架构进行了优化的 SMDDP 库的兼容性 AWS - 亚马逊 SageMaker AI

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

您可以将 SageMaker 模型并行度库 v2 (SMP v2) 与SageMaker 分布式数据并行度 (SMDDP) 库结合使用,后者提供针对基础架构进行了优化的集体通信操作。AllGather AWS 在分布式训练中,集体通信操作旨在同步多个 GPU 工作人员并在它们之间交换信息。AllGather 是通常用于分片数据并行的核心集体通信操作之一。要了解有关 SMDDP AllGather 操作的更多信息,请参阅SMDDP AllGather 集体操作优化此类集体通信操作将直接有助于加快 end-to-end训练速度,而不会对收敛产生副作用。

注意

SMDDP 库支持 P4 和 P4de 实例(另请参阅 SMDDP 库的 支持的框架 AWS 区域、和实例类型)。

SMDDP 库 PyTorch 通过流程组层与原生集成。要使用 SMDDP 库,您只需在训练脚本中添加两行代码。它支持任何训练框架,例如 SageMaker 模型并行库、 PyTorch FSDP 和。 DeepSpeed

要激活 SMDDP 并使用其 AllGather 操作,您需要在训练脚本中添加两行代码,作为 第 1 步:调整你的 PyTorch FSDP 训练脚本 的一部分。请注意,您需要先使用 SMDDP 后 PyTorch 端初始化 Distributed,然后运行 SMP 初始化。

import torch.distributed as dist # Initialize with SMDDP import smdistributed.dataparallel.torch.torch_smddp dist.init_process_group(backend="smddp") # Replacing "nccl" # Initialize with SMP import torch.sagemaker as tsm tsm.init()

SageMaker 的@@ 框架容器 PyTorch (另支持的框架和 AWS 区域请参阅 SMP v2 和 支持的框架 AWS 区域、和实例类型 SMDDP 库)预先打包了 SMP 二进制文件和 SMDDP 二进制文件。要了解有关 SMDDP 库的更多信息,请参阅 使用 SageMaker AI 分布式数据并行库运行分布式训练

隐私网站条款Cookie 首选项
© 2025, Amazon Web Services, Inc. 或其附属公司。保留所有权利。