选择您的 Cookie 首选项

我们使用必要 Cookie 和类似工具提供我们的网站和服务。我们使用性能 Cookie 收集匿名统计数据,以便我们可以了解客户如何使用我们的网站并进行改进。必要 Cookie 无法停用,但您可以单击“自定义”或“拒绝”来拒绝性能 Cookie。

如果您同意,AWS 和经批准的第三方还将使用 Cookie 提供有用的网站功能、记住您的首选项并显示相关内容,包括相关广告。要接受或拒绝所有非必要 Cookie,请单击“接受”或“拒绝”。要做出更详细的选择,请单击“自定义”。

支持多模型终端节点的算法、框架和实例

聚焦模式
支持多模型终端节点的算法、框架和实例 - 亚马逊 SageMaker AI

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

有关可用于多模型端点的算法、框架和实例类型的信息,请参阅以下各部分。

使用 CPU 支持的实例的多模型端点所支持的算法、框架和实例

以下算法和框架的推理容器支持多模型端点:

要使用任何其他框架或算法,请使用 SageMaker AI 推理工具包构建支持多模型端点的容器。有关信息,请参阅为 SageMaker AI 多模型端点构建自己的容器

多模型端点支持所有 CPU 实例类型。

使用 GPU 支持的实例的多模型端点所支持的算法、框架和实例

SageMaker AI Triton 推理服务器支持在多模型端点上托管多个 GPU 支持的模型。这支持所有主要的推理框架,例如 NVIDIA® Tensorrt™、、、Python、ONNX PyTorch、 MXNet、scikit-learn RandomForest、OpenVino XGBoost、自定义 C++ 等。

要使用任何其他框架或算法,可以使用适用于 Python 或 C++ 的 Triton 后端来编写模型逻辑并提供任何自定义模型。服务器准备就绪后,可以开始在一个端点后部署数以百计的深度学习模型。

多模型端点支持下列 GPU 实例类型。

实例系列 实例类型 v CPUs 每个 vCPU 的内存 GiB 数量 GPUs GPU 内存

p2

ml.p2.xlarge

4

15.25

1

12

p3

ml.p3.2xlarge

8

7.62

1

16

g5

ml.g5.xlarge

4

4

1

24

g5

ml.g5.2xlarge

8

4

1

24

g5

ml.g5.4xlarge

16

4

1

24

g5

ml.g5.8xlarge

32

4

1

24

g5

ml.g5.16xlarge

64

4

1

24

g4dn

ml.g4dn.xlarge

4

4

1

16

g4dn

ml.g4dn.2xlarge

8

4

1

16

g4dn

ml.g4dn.4xlarge

16

4

1

16

g4dn

ml.g4dn.8xlarge

32

4

1

16

g4dn

ml.g4dn.16xlarge

64

4

1

16

隐私网站条款Cookie 首选项
© 2025, Amazon Web Services, Inc. 或其附属公司。保留所有权利。