多模型端点支持的算法、框架和实例 - Amazon SageMaker

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

多模型端点支持的算法、框架和实例

有关可用于多模型端点的算法、框架和实例类型的信息,请参阅以下各部分。

支持使用CPU支持实例的多模型终端节点的算法、框架和实例

以下算法和框架的推理容器支持多模型端点:

要使用任何其他框架或算法,请使用 SageMaker 推理工具包构建支持多模型端点的容器。有关信息,请参阅为 SageMaker多模型端点构建自己的容器

多模型终端节点支持所有CPU实例类型。

支持使用GPU支持实例的多模型终端节点的算法、框架和实例

SageMaker Triton In ference 服务器支持在多模型端点上托管多个GPU支持的模型。这支持所有主要的推理框架,例如 NVIDIA® tensorrt™、、、Python、、 PyTorchMXNet、scikit-learn ONNX、XGBoost、、Open RandomForest、VINO自定义 C++ 等。

要使用任何其他框架或算法,可以使用适用于 Python 或 C++ 的 Triton 后端来编写模型逻辑并提供任何自定义模型。服务器准备就绪后,可以开始在一个端点后部署数以百计的深度学习模型。

多模型终端节点支持以下GPU实例类型:

实例系列 实例类型 vCPUs 每 v 有 GiB 的内存 CPU GPUs GPU记忆

p2

ml.p2.xlarge

4

15.25

1

12

p3

ml.p3.2xlarge

8

7.62

1

16

g5

ml.g5.xlarge

4

4

1

24

g5

ml.g5.2xlarge

8

4

1

24

g5

ml.g5.4xlarge

16

4

1

24

g5

ml.g5.8xlarge

32

4

1

24

g5

ml.g5.16xlarge

64

4

1

24

g4dn

ml.g4dn.xlarge

4

4

1

16

g4dn

ml.g4dn.2xlarge

8

4

1

16

g4dn

ml.g4dn.4xlarge

16

4

1

16

g4dn

ml.g4dn.8xlarge

32

4

1

16

g4dn

ml.g4dn.16xlarge

64

4

1

16