SageMaker 使用 SageMaker AI Autopilot 釐清可解釋性 - Amazon SageMaker AI

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

SageMaker 使用 SageMaker AI Autopilot 釐清可解釋性

Autopilot 使用 Amazon SageMaker Clarify 提供的工具,協助您深入瞭解機器學習 (ML) 模型如何進行預測。這些工具可協助機器學習 (ML) 工程師、產品經理和其他內部利害關係人瞭解模型特徵。為了信任和解釋對模型預測所做的決策,消費者和監管機構都依賴機器學習的透明度。

Autopilot 說明功能性使用與模型無關的特徵歸因方法。此方法決定個別特徵或輸入對模型輸出的貢獻,從而提供不同特徵相關性的深入分析。您可以使用它來理解為什麼模型在訓練後進行預測,或者在推論期間使用它來提供每個執行個體的說明。實作包含可擴展的 SHAP 實作 (Shapley 附加說明)。此實作是以合作遊戲理論的 Shapley 值概念為基礎,該理論會為每個特徵指派特定預測的重要性值。

您可以針對下列項目使用 SHAP 說明:稽核和符合法規要求、在模型中建立信任、支援人類決策,或偵錯和改善模型效能。

如需 Shapley 值和基準的詳細資訊,請參閱 SHAP 基準以取得可解釋性

如需 Amazon SageMaker Clarify 文件的指南,請參閱 SageMaker Clarify 文件指南