本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
模型可解釋性
Amazon SageMaker Clarify 提供工具來協助解釋機器學習 (ML) 模型如何做出預測。這些工具可協助機器學習 (ML) 建模者、開發人員以及其他內部利害關係人在部署之前瞭解整個模型特性,並在部署模型之後對模型提供的預測進行偵錯。
-
若要取得資料集和模型的說明,請參閱 使用 SageMaker Clarify 進行公平性、模型可解釋性和偏差偵測。
-
若要即時從 SageMaker 端點取得說明,請參閱 搭配 SageMaker Clarify 的線上可解釋性。
關於機器學習 (ML) 模型如何達到預測的透明度對於消費者和監管機構來說也是至關重要的。他們需要信任模型預測,如果他們要根據這些預測接受決策。 SageMaker Clarify 使用模型無關特徵屬性方法。您可以使用此特徵來瞭解模型在訓練後進行預測的原因,並在推論期間提供每個執行個體的說明。實作包含可擴展且高效率的 實作SHAP
Clarify 會產生部分相依性圖表 (PDPs),顯示邊際效果特徵對機器學習模型的預測結果具有影響。部分的依賴性有助於解釋特定一組輸入特徵的目標回應。它也支援電腦視覺 (CV) 和自然語言處理 (NLP) 可解釋性,使用與表格式資料解釋相同的 Shapley 值 (SHAP) 演算法。
機器學習環境中的可解釋性特徵是什麼? 可以將可解釋性視為為什麼問題的答案,該問題可以幫助人類了解預測的原因。在機器學習 (ML) 模型的環境中,您可能有興趣回答以下問題:
-
為什麼該模型預測了負面結果,例如特定申請人拒絕貸款?
-
模型如何做出預測?
-
為什麼模型做出不正確的預測?
-
哪些特徵對模型行為的影響最大?
您可以使用說明用以稽核和符合法規需求、建立對模型的信任以及支援人為決策,以及偵錯和改善模型效能。
滿足人類對機器學習 (ML) 推論性質和結果的理解需求是可解釋性所需的關鍵。哲學和認知科學學科的研究表明,人們特別關心對比性解釋,或解釋為什麼事件 X 發生而不是其他未發生的事件 Y 發生。在這裡,X 可能是未預期或令人驚訝的事件,Y 對應到以其現有作為心理模型基準的期望。請注意,對於同一個事件 X,不同的人可能會根據他們的觀點或心理模型 Y 尋求不同的可解釋性。在可解釋的 AI 的環境中,您可以將 X 視為解釋完的範例,Y 作為通常選擇代表資料集中資訊不足或平均範例的基準。有時候,例如,在對影像進行機器學習 (ML) 建模的情況下,基準可能是隱性的,其中都是相同顏色像素的影像可以用作基準。
範例筆記本
Amazon SageMaker Clarify 提供下列範例筆記本,用於模型可解釋性:
-
Amazon SageMaker Clarify Processing
– 使用 SageMaker Clarify 建立偵測偏差的處理任務,並使用特徵屬性解釋模型預測。範例包括使用 CSV和 JSON 行資料格式、自帶容器,以及使用 Spark 執行處理任務。 -
使用 SageMaker Clarify 說明影像分類
– SageMaker Clarify 為您提供有關電腦視覺模型如何分類影像的洞察。 -
使用 SageMaker Clarify 說明物件偵測模型
– SageMaker Clarify 為您提供電腦視覺模型如何偵測物件的洞察。
此筆記本已經過驗證,只能在 Amazon SageMaker Studio 中執行。如果您需要如何在 Amazon SageMaker Studio 中開啟筆記本的指示,請參閱 建立或開啟 Amazon SageMaker Studio Classic Notebook。如果系統提示您選擇核心,請選擇 Python 3 (資料科學)。