本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
推荐的 Inferentia 实例
AWS Inferentia 实例旨在为深度学习模型推理工作负载提供高性能和成本效益。具体而言,Inf2 实例类型使用 AWS Inferentia 芯片和 Ne AWS uron SDK
客户使用 Inf2 实例之后,能够以最低的云端成本来运行大规模的机器学习推理应用程序,例如搜索、推荐引擎、计算机视觉、语音识别、自然语言处理、个性化和欺诈检测。
注意
模型的大小应该是选择实例的一个因素。如果您的模型超过了实例的可用容量RAM,请选择具有足够内存供应用程序使用的其他实例类型。
Amazon EC2 Inf2 实例
最多有 16 个 AWS 推理芯片和 100 Gbps 的网络吞吐量。
有关开始使用 AWS Inferentia 的更多信息DLAMIs,请参阅。AWS 推理芯片带有 DLAMI