

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 带有 DLAMI 的 AWS 推理芯片
<a name="tutorial-inferentia"></a>

AWS Inferentia 是一款由其设计的自定义机器学习芯片 AWS ，可用于高性能的推理预测。 要使用该芯片，请设置亚马逊弹性计算云实例，然后使用 Ne AWS uron 软件开发套件 (SDK) 调用 Inferentia 芯片。为了向客户提供最佳 Inferentia 体验，Neuron 已内置在 AWS Deep Learning AMIs (DLAMI) 中。

以下主题将向您展示如何开始将 Inferentia 与 DLAMI 结合使用。

**Topics**
+ [启动带有神经元的 DLAMI 实例 AWS](tutorial-inferentia-launching.md)
+ [将 DLAMI 与神经元一起使用 AWS](tutorial-inferentia-using.md)