モデルの説明可能性 - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

モデルの説明可能性

Amazon SageMaker Clarify には、機械学習 (ML) モデルが予測を行う方法を説明するのに役立つツールが用意されています。これらのツールは、ML モデラー、デベロッパー、その他の内部ステークホルダーが、デプロイ前にモデル特性を全体として理解したり、デプロイ後にモデルが提供する予測をデバッグしたりするのに役立ちます。

ML モデルがどのように予測に到達するかについての透明性も、消費者や規制当局にとって重要です。モデル予測に基づいて決定を受け入れる場合は、モデル予測を信頼する必要があります。 SageMaker Clarify はモデルに依存しない特徴量属性アプローチを使用します。これを使用して、モデルがトレーニング後に予測を行った理由を理解し、推論中にインスタンスごとの説明を提供できます。この実装には、 のスケーラブルで効率的な実装が含まれていますSHAP。これは、協調ゲーム理論の分野における Shapley 値という概念に基づいており、特定の予測で各特徴量に重要度を割り当てます。

Clarify は、特徴が機械学習モデルの予測結果に与える影響を示す部分依存プロット (PDPs) を生成します。部分依存は、一連の入力特徴量が与えられた場合にターゲットレスポンスを説明するのに役立ちます。また、表形式のデータ説明に使用されるのと同じ Shapley 値 (NLP) アルゴリズムを使用して、コンピュータビジョン (CV) と自然言語処理 (SHAP) の両方の説明可能性をサポートします。

機械学習のコンテキストにおける説明の特徴とは何でしょうか。説明とは、人間が予測の原因を理解するのに役立つ「なぜ」という質問に対する答えであると考えることができます。ML モデルのコンテキストでは、次のような質問に答えることに興味があるかれません。

  • モデルが特定の申請者のローン拒否などの否定的な結果を予測したのはなぜですか。

  • モデルはどのように予測するのですか。

  • モデルが誤った予測を行ったのはなぜですか。

  • モデルの動作に最大の影響を与える特徴量はどれですか。

説明を使用して、規制要件の監査と適合、モデルの信頼の構築と人間の意思決定のサポート、モデルのパフォーマンスのデバッグと改善を行うことができます。

ML 推論の性質と結果に関する人間の理解の要求を満たすニーズが、必要な説明の種類の鍵となります。哲学や認知科学の分野の研究によると、人は特に対照的な説明、つまり、ある事象 X が、起こらなかった他の事象 Y の代わりになぜ起こったのか、という説明に関心を持つことがわかっています。ここでX は、発生した予期せぬまたは驚くべき事象であり、Y はベースラインと呼ばれる既存のメンタルモデルに基づく期待に対応します。同じ事象 Xでも、人の視点やメンタルモデル Y によって、求める説明が異なる場合があることに注意してください。説明可能な AI のコンテキストでは、X は説明される例であり、Y はデータセット内の情報の少ない例や平均的な例を表すために通常選択されるベースラインだと考えることができます。たとえば、画像の ML モデリングの場合、ベースラインが暗黙的に表示されることがあります。この場合、ピクセルがすべて同じ色の画像がベースラインとして機能することがあります。

サンプルノートブック

Amazon SageMaker Clarify には、モデルの説明可能性に関する次のサンプルノートブックが用意されています。

このノートブックは Amazon SageMaker Studio でのみ実行することが検証されています。Amazon SageMaker Studio でノートブックを開く方法の手順が必要な場合は、「」を参照してくださいAmazon SageMaker Studio Classic ノートブックを作成または開く。カーネルの選択を求めるメッセージが表示されたら、[Python 3 (Data Science)] (Python 3 (データサイエンス)) を選択します。