Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Erklärbarkeit des Modells
Amazon SageMaker Clarify bietet Tools, mit denen erklärt werden kann, wie Modelle für maschinelles Lernen (ML) Vorhersagen treffen. Diese Tools können ML-Modellierern und -Entwicklern sowie anderen internen Stakeholdern helfen, die Modellmerkmale vor der Bereitstellung als Ganzes zu verstehen und Vorhersagen zu debuggen, die das Modell nach der Bereitstellung liefert.
-
Erläuterungen zu Ihren Datensätzen und Modellen finden Sie unterFairness, Erklärbarkeit von Modellen und Erkennung von Verzerrungen mit Clarify SageMaker .
-
Informationen zum Abrufen von Erklärungen in Echtzeit von einem SageMaker Endpunkt finden Sie unterOnline-Erklärbarkeit mit Clarify SageMaker .
Transparenz darüber, wie ML-Modelle zu ihren Prognosen gelangen, ist auch für Verbraucher und Aufsichtsbehörden von entscheidender Bedeutung. Sie müssen den Modellvorhersagen vertrauen, wenn sie die auf ihnen beruhenden Entscheidungen akzeptieren wollen. SageMaker Clarify verwendet einen modellunabhängigen Ansatz zur Zuordnung von Merkmalen. Sie können dies verwenden, um zu verstehen, warum ein Modell nach dem Training eine Vorhersage getroffen hat, und um während der Inferenz eine Erklärung pro Instance zu geben. Die Implementierung beinhaltet eine skalierbare und effiziente Implementierung von. SHAP
Clarify erstellt partielle Abhängigkeitsdiagramme (PDPs), die die marginalen Auswirkungen von Merkmalen auf das vorhergesagte Ergebnis eines Modells für maschinelles Lernen zeigen. Die partielle Abhängigkeit hilft bei der Erklärung der Zielreaktion anhand einer Reihe von Eingabemerkmalen. Es unterstützt auch die Erklärbarkeit von Computer Vision (CV) und natürlicher Sprachverarbeitung (NLP) unter Verwendung desselben Shapley-Values (SHAP) -Algorithmus, der auch für tabellarische Datenerklärungen verwendet wird.
Was ist die Funktion einer Erklärung im Kontext des maschinellen Lernens? Eine Erklärung kann man sich als Antwort auf eine Warum-Frage vorstellen, die Menschen hilft, die Ursache einer Vorhersage zu verstehen. Im Kontext eines ML-Modells könnten Sie an der Beantwortung von Fragen wie den folgenden interessiert sein:
-
Warum hat das Modell für einen bestimmten Antragsteller ein negatives Ergebnis vorhergesagt, z. B. eine Ablehnung eines Kredits?
-
Wie macht das Modell Vorhersagen?
-
Warum hat das Modell eine falsche Vorhersage getroffen?
-
Welche Merkmale haben den größten Einfluss auf das Verhalten des Modells?
Mithilfe von Erläuterungen können Sie regulatorische Anforderungen prüfen und erfüllen, Vertrauen in das Modell aufbauen und menschliche Entscheidungen unterstützen sowie die Modellleistung debuggen und verbessern.
Entscheidend für die Art der Erklärung ist die Notwendigkeit, den Anforderungen an menschliches Verständnis über die Art und die Ergebnisse der ML-Inferenz gerecht zu werden. Forschungen aus philosophischen und kognitionswissenschaftlichen Disziplinen haben gezeigt, dass Menschen sich besonders für kontrastive Erklärungen interessieren, also Erklärungen, warum ein Ereignis X eingetreten ist, anstatt für ein anderes Ereignis Y, das nicht eingetreten ist. Hier könnte X ein unerwartetes oder überraschendes Ereignis sein, das eingetreten ist, und Y entspricht einer Erwartung, die auf ihrem bestehenden mentalen Modell basiert und als Basislinie bezeichnet wird. Beachten Sie, dass für dasselbe Ereignis X verschiedene Personen je nach ihrer Sichtweise oder ihrem mentalen Modell Y unterschiedliche Erklärungen suchen können. Im Zusammenhang mit erklärbarer KI können Sie sich X als das Beispiel vorstellen, das erklärt wird, und Y als Basislinie, die normalerweise ausgewählt wird, um ein nicht informatives oder durchschnittliches Beispiel im Datensatz darzustellen. Manchmal, zum Beispiel bei der ML-Modellierung von Bildern, kann die Basislinie implizit sein, wobei ein Bild, dessen Pixel alle dieselbe Farbe haben, als Basislinie dienen kann.
Beispiel-Notebooks
Amazon SageMaker Clarify stellt zur besseren Erläuterung des Modells das folgende Musternotizbuch zur Verfügung:
-
Amazon SageMaker Clarify Processing
— Verwenden Sie SageMaker Clarify, um einen Verarbeitungsjob für die Erkennung von Verzerrungen und die Erklärung von Modellvorhersagen mit Feature-Attributionen zu erstellen. Beispiele hierfür sind die Verwendung von CSV und JSON Lines-Datenformaten, das Mitbringen eines eigenen Containers und das Ausführen von Verarbeitungsaufträgen mit Spark. -
Erläuterung der Bildklassifizierung mit SageMaker SageMaker Clarify
— Clarify bietet Ihnen Einblicke, wie Ihre Computer-Vision-Modelle Bilder klassifizieren. -
Erläuterung von Objekterkennungsmodellen mit SageMaker Clarify
— SageMaker Clarify bietet Ihnen Einblicke in die Art und Weise, wie Ihre Computer-Vision-Modelle Objekte erkennen.
Es wurde verifiziert, dass dieses Notizbuch nur in Amazon SageMaker Studio ausgeführt werden kann. Anweisungen zum Öffnen eines Notizbuchs in Amazon SageMaker Studio finden Sie unterErstellen oder öffnen Sie ein Amazon SageMaker Studio Classic-Notizbuch. Wenn Sie aufgefordert werden, einen Kernel auszuwählen, wählen Sie Python 3 (Data Science).