SageMaker 使用自动驾驶仪澄清可解释性 SageMaker - Amazon SageMaker

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

SageMaker 使用自动驾驶仪澄清可解释性 SageMaker

Autopilot 使用 Amazon SageMaker Clarify 提供的工具来帮助深入了解机器学习 (ML) 模型是如何进行预测的。这些工具可以帮助机器学习工程师、产品经理和其他内部利益相关者了解模型特征。为了信任和解释根据模型预测做出的决策,消费者和监管机构都依赖机器学习的透明度来排序。

Autopilot 解释功能使用与模型无关的特征归因方法。这种方法确定各项特征或输入对模型输出的贡献,从而深入了解不同特征的相关性。您可以利用它来了解模型在训练后做出预测的原因,或在推理过程中按实例提供解释。该实现包括 SHAP(Shapley 加法解释)的可扩展实现。这种实现基于合作博弈论中的 Shapley 值的概念,它为每个特征分配特定预测的重要性值。

您可以使用以下SHAP解释:审计和满足监管要求、建立对模型的信任、支持人工决策,或者调试和提高模型性能。

有关 Shapley 值和基线的更多信息,请参阅SHAP可解释性基线。

有关 Amazon SageMaker Clarify 文档的指南,请参阅 SageMaker 澄清文档指南。