本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
有关可用于多模型端点的算法、框架和实例类型的信息,请参阅以下各部分。
使用 CPU 支持的实例的多模型端点所支持的算法、框架和实例
以下算法和框架的推理容器支持多模型端点:
要使用任何其他框架或算法,请使用 SageMaker AI 推理工具包构建支持多模型端点的容器。有关信息,请参阅为 SageMaker AI 多模型端点构建自己的容器。
多模型端点支持所有 CPU 实例类型。
使用 GPU 支持的实例的多模型端点所支持的算法、框架和实例
SageMaker AI Triton 推理服务器支持在多模型端点上托管多个 GPU 支持的模型。这支持所有主要的推理框架,例如 NVIDIA® Tensorrt™、、、Python、ONNX PyTorch、 MXNet、scikit-learn RandomForest、OpenVino XGBoost、自定义 C++ 等。
要使用任何其他框架或算法,可以使用适用于 Python 或 C++ 的 Triton 后端来编写模型逻辑并提供任何自定义模型。服务器准备就绪后,可以开始在一个端点后部署数以百计的深度学习模型。
多模型端点支持下列 GPU 实例类型。
实例系列 | 实例类型 | v CPUs | 每个 vCPU 的内存 GiB 数量 | GPUs | GPU 内存 |
---|---|---|---|---|---|
p2 |
ml.p2.xlarge |
4 |
15.25 |
1 |
12 |
p3 |
ml.p3.2xlarge |
8 |
7.62 |
1 |
16 |
g5 |
ml.g5.xlarge |
4 |
4 |
1 |
24 |
g5 |
ml.g5.2xlarge |
8 |
4 |
1 |
24 |
g5 |
ml.g5.4xlarge |
16 |
4 |
1 |
24 |
g5 |
ml.g5.8xlarge |
32 |
4 |
1 |
24 |
g5 |
ml.g5.16xlarge |
64 |
4 |
1 |
24 |
g4dn |
ml.g4dn.xlarge |
4 |
4 |
1 |
16 |
g4dn |
ml.g4dn.2xlarge |
8 |
4 |
1 |
16 |
g4dn |
ml.g4dn.4xlarge |
16 |
4 |
1 |
16 |
g4dn |
ml.g4dn.8xlarge |
32 |
4 |
1 |
16 |
g4dn |
ml.g4dn.16xlarge |
64 |
4 |
1 |
16 |