本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
多模型端点支持的算法、框架和实例
有关可用于多模型端点的算法、框架和实例类型的信息,请参阅以下各部分。
支持使用CPU支持实例的多模型终端节点的算法、框架和实例
以下算法和框架的推理容器支持多模型端点:
要使用任何其他框架或算法,请使用 SageMaker 推理工具包构建支持多模型端点的容器。有关信息,请参阅为 SageMaker多模型端点构建自己的容器。
多模型终端节点支持所有CPU实例类型。
支持使用GPU支持实例的多模型终端节点的算法、框架和实例
SageMaker Triton In ference 服务器支持在多模型端点上托管多个GPU支持的模型。这支持所有主要的推理框架,例如 NVIDIA® tensorrt™、、、Python、、 PyTorchMXNet、scikit-learn ONNX、XGBoost、、Open RandomForest、VINO自定义 C++ 等。
要使用任何其他框架或算法,可以使用适用于 Python 或 C++ 的 Triton 后端来编写模型逻辑并提供任何自定义模型。服务器准备就绪后,可以开始在一个端点后部署数以百计的深度学习模型。
多模型终端节点支持以下GPU实例类型:
实例系列 | 实例类型 | vCPUs | 每 v 有 GiB 的内存 CPU | GPUs | GPU记忆 |
---|---|---|---|---|---|
p2 |
ml.p2.xlarge |
4 |
15.25 |
1 |
12 |
p3 |
ml.p3.2xlarge |
8 |
7.62 |
1 |
16 |
g5 |
ml.g5.xlarge |
4 |
4 |
1 |
24 |
g5 |
ml.g5.2xlarge |
8 |
4 |
1 |
24 |
g5 |
ml.g5.4xlarge |
16 |
4 |
1 |
24 |
g5 |
ml.g5.8xlarge |
32 |
4 |
1 |
24 |
g5 |
ml.g5.16xlarge |
64 |
4 |
1 |
24 |
g4dn |
ml.g4dn.xlarge |
4 |
4 |
1 |
16 |
g4dn |
ml.g4dn.2xlarge |
8 |
4 |
1 |
16 |
g4dn |
ml.g4dn.4xlarge |
16 |
4 |
1 |
16 |
g4dn |
ml.g4dn.8xlarge |
32 |
4 |
1 |
16 |
g4dn |
ml.g4dn.16xlarge |
64 |
4 |
1 |
16 |