

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 评估、解释和检测模型中的偏差
<a name="model-explainability"></a>

Amazon SageMaker AI 提供的功能可以检测潜在的偏差，并帮助解释您的模型根据表格、计算机视觉、自然处理或时间序列数据集所做的预测，从而改进您的机器学习 (ML) 模型。它可以帮助您识别训练前数据和训练后数据中的各类偏差，这些偏差可能会在模型训练过程中或模型投入生产时出现。您还可以使用基础模型评测来评估语言模型的模型质量和责任指标。

以下主题提供了有关如何使用 Amazon A SageMaker I 评估、解释和检测偏见的信息。

**Topics**
+ [使用 Clarify 了解评估大型语言模型的 SageMaker 选项](clarify-foundation-model-evaluate.md)
+ [评估和比较 Amazon SageMaker JumpStart 文本分类模型](jumpstart-text-classification-evaluation.md)
+ [使用 Clarify 进行公平性、模型可解释性和偏见检测 SageMaker](clarify-configure-processing-jobs.md)
+ [SageMaker 使用 AI Autopilot 澄清可 SageMaker 解释性](autopilot-explainability.md)