

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 大型模型推理（LMI）容器文档
<a name="large-model-inference-container-docs"></a>

Deep Java 库文档网站提供了[大型模型推理（LMI）容器文档](https://docs.djl.ai/master/docs/serving/serving/docs/lmi/index.html)。

本文档专为需要在 Amazon A SageMaker I 上部署和优化大型语言模型 (LLMs) 的开发人员、数据科学家和机器学习工程师编写。它可以帮助您使用 LMI 容器，这些容器是专门用于 LLM 推断的 Docker 容器，由提供。 AWS它提供了概述、部署指南、所支持推理库的用户指南以及高级教程。

通过使用 LMI 容器文档，您可以
+ 了解 LMI 容器的组件和架构
+ 了解如何为您的使用场景选择合适的实例类型和后端
+ 使用 LMI 容器 LLMs 在 SageMaker AI 上配置和部署
+ 利用量化、张量并行和连续批处理等功能优化性能
+ 对您的 SageMaker AI 端点进行基准测试和调整，以实现最佳吞吐量和延迟