Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Erklärbarkeit des Modells

Fokusmodus
Erklärbarkeit des Modells - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon SageMaker Clarify bietet Tools, mit denen erklärt werden kann, wie Modelle für maschinelles Lernen (ML) Vorhersagen treffen. Diese Tools können ML-Modellierern und -Entwicklern sowie anderen internen Stakeholdern helfen, die Modellmerkmale vor der Bereitstellung als Ganzes zu verstehen und Vorhersagen zu debuggen, die das Modell nach der Bereitstellung liefert.

Transparenz darüber, wie ML-Modelle zu ihren Prognosen gelangen, ist auch für Verbraucher und Aufsichtsbehörden von entscheidender Bedeutung. Sie müssen den Modellvorhersagen vertrauen können, wenn sie die auf ihnen basierenden Entscheidungen akzeptieren wollen. SageMaker Clarify verwendet einen modellunabhängigen Ansatz zur Zuordnung von Merkmalen. Sie können dies verwenden, um zu verstehen, warum ein Modell nach dem Training eine Vorhersage getroffen hat, und um während der Inferenz eine Erklärung pro Instance zu geben. Die Implementierung beinhaltet eine skalierbare und effiziente Implementierung von SHAP. Dies basiert auf dem Konzept eines Shapley-Werts aus dem Bereich der kooperativen Spieltheorie, der jedem Merkmal einen Wichtigkeitswert für eine bestimmte Vorhersage zuweist.

Clarify erstellt partielle Abhängigkeitsdiagramme (PDPs), die die marginalen Auswirkungen von Merkmalen auf das vorhergesagte Ergebnis eines Modells für maschinelles Lernen zeigen. Die partielle Abhängigkeit hilft bei der Erklärung der Zielreaktion anhand einer Reihe von Eingabemerkmalen. Es unterstützt auch die Erklärbarkeit von Computer Vision (CV) und Natural Language Processing (NLP) unter Verwendung desselben Shapley-Values-Algorithmus (SHAP), der auch für tabellarische Datenerklärungen verwendet wird.

Was ist die Funktion einer Erklärung im Kontext des maschinellen Lernens? Eine Erklärung kann man sich als Antwort auf eine Warum-Frage vorstellen, die Menschen hilft, die Ursache einer Vorhersage zu verstehen. Im Kontext eines ML-Modells könnten Sie an der Beantwortung von Fragen wie den folgenden interessiert sein:

  • Warum hat das Modell für einen bestimmten Antragsteller ein negatives Ergebnis vorhergesagt, z. B. eine Ablehnung eines Kredits?

  • Wie macht das Modell Vorhersagen?

  • Warum hat das Modell eine falsche Vorhersage getroffen?

  • Welche Merkmale haben den größten Einfluss auf das Verhalten des Modells?

Mithilfe von Erläuterungen können Sie regulatorische Anforderungen prüfen und erfüllen, Vertrauen in das Modell aufbauen und menschliche Entscheidungen unterstützen sowie die Modellleistung debuggen und verbessern.

Entscheidend für die Art der Erklärung ist die Notwendigkeit, den Anforderungen an menschliches Verständnis über die Art und die Ergebnisse der ML-Inferenz gerecht zu werden. Forschungen aus philosophischen und kognitionswissenschaftlichen Disziplinen haben gezeigt, dass Menschen sich besonders für kontrastive Erklärungen interessieren, also Erklärungen, warum ein Ereignis X eingetreten ist, anstatt für ein anderes Ereignis Y, das nicht eingetreten ist. Hier könnte X ein unerwartetes oder überraschendes Ereignis sein, das eingetreten ist, und Y entspricht einer Erwartung, die auf ihrem bestehenden mentalen Modell basiert und als Basislinie bezeichnet wird. Beachten Sie, dass für dasselbe Ereignis X verschiedene Personen je nach ihrer Sichtweise oder ihrem mentalen Modell Y unterschiedliche Erklärungen suchen können. Im Zusammenhang mit erklärbarer KI können Sie sich X als das Beispiel vorstellen, das erklärt wird, und Y als Basislinie, die normalerweise ausgewählt wird, um ein nicht informatives oder durchschnittliches Beispiel im Datensatz darzustellen. Manchmal, zum Beispiel bei der ML-Modellierung von Bildern, kann die Basislinie implizit sein, wobei ein Bild, dessen Pixel alle dieselbe Farbe haben, als Basislinie dienen kann.

Beispiel-Notebooks

Amazon SageMaker Clarify stellt zur besseren Erläuterung des Modells das folgende Musternotizbuch zur Verfügung:

Es wurde verifiziert, dass dieses Notizbuch nur in Amazon SageMaker Studio ausgeführt werden kann. Anweisungen zum Öffnen eines Notizbuchs in Amazon SageMaker Studio finden Sie unterErstellen oder öffnen Sie ein Amazon SageMaker Studio Classic-Notizbuch. Wenn Sie aufgefordert werden, einen Kernel auszuwählen, wählen Sie Python 3 (Data Science).

Auf dieser Seite

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.