Erklärbare KI – Explainable AI (XAI)
Was ist eine erklärbare KI oder Explainable AI (XAI)?
Erklärbare Methoden der Künstlichen Intelligenz (XAI) ermöglichen es Datenwissenschaftlern und anderen Beteiligten, Entscheidungen über Modelle des maschinellen Lernens zu interpretieren. XAI liefert uns zwei Arten von Informationen, die globale Interpretierbarkeit oder welche Merkmale des Modells des maschinellen Lernens für seine Vorhersagen am wichtigsten sind. Und die lokale Interpretierbarkeit oder welche Merkmalswerte einer bestimmten Instanz das Ergebnis am meisten beeinflussten und in welcher Weise.
Warum brauchen wir erklärbare künstliche Intelligenz?
KI-basierte Entscheidungsfindung wird zunehmend in unserem Alltag eingesetzt. Wenn wir in einen Online-Shop gehen, werden die uns vorgeschlagenen Produkte durch ein KI-Modell bestimmt – höchstwahrscheinlich ein Hybrid aus inhaltsbasierter und kollaborativer Filtermethode. Die Krankheitsdiagnose ist ein weiterer Bereich, in dem auch die KI zunehmend eingesetzt wird. Ein weiterer Bereich ist das Finanzwesen, wo unser Kreditrisiko höchstwahrscheinlich durch ein maschinelles Lernmodell berechnet wird.
Allerdings sind maschinelle Lernmodelle oft eine Blackbox. Um dies mit dem Wunsch und den Anforderungen des Menschen, sich Entscheidungen erklären zu lassen, in Einklang zu bringen, hat sich innerhalb des KI-Bereichs ein neues Feld entwickelt – Explainable Artificial Intelligence oder XAI.
Wer treibt auch die Nachfrage nach XAI an?
Neben den Kunden sind die Regulierungsbehörden ein wichtiger Interessenvertreter, der XAI fordert. Einige der Vorschriften, die das “Recht auf Erklärung” in den Mittelpunkt gestellt haben, sind:
- GDPR
- Fair Credit Reporting Act
- Equal Credit Opportunity Act (ECOA)
Die Bereiche, in denen die Regulierungsbehörden besonders daran interessiert sein werden, eine größere Transparenz der erklärbaren KI durchzusetzen, sind Finanzen und Gesundheit. Beide Sektoren können erhebliche Auswirkungen auf unser Leben haben und werden daher strenger reguliert als andere.
Welche sind die wichtigsten Methoden für XAI?
Die am besten fundierte Methode für XAI ist der SHAP. Es basiert auf Shapley-Werten, die die koalitionale Spieltheorie nutzen, um Auszahlungen aus einem Spiel zu verteilen.
Im Falle der Anwendung von Shapley-Werten auf das maschinelle Lernproblem ist das “Spiel” die Vorhersage des ML-Modells, die “Spieler” im Spiel sind Eingabevariablenwerte für eine bestimmte Instanz und die “Auszahlung” ist gleich der Vorhersage mit subtrahiertem Basiswert.
Die SHAP-Methode hat unter anderem mehrere hervorragende Eigenschaften:
- lokale Genauigkeit
- Konsistenz
Die SHAP, die den Shap-Ansatz implementiert, verfügt über mehrere sehr leistungsfähige Funktionen:
- shap.summary_plot ist sehr nützlich, um die wichtigsten Funktionen eines maschinellen Lernmodells anzuzeigen.
- shap.dependence_plot ist ähnlich wie die partielle Abhängigkeitsdiagramm und ermöglicht es Ihnen zu untersuchen, wie das Feature die Ergebnisvorhersage beeinflusst.
- shap.force_plot ist der Schlüssel zur Gewinnung lokaler Interpretierbarkeitsinformationen, welche Merkmalswerte den größten Einfluss auf die Ergebniswahrscheinlichkeit hatten und in welche Richtung.
LIME
Erklärbare KI-Beratungsunternehmen verwenden oft einen anderen bekannten Ansatz für die lokale Interpretierbarkeit der Ergebnisse von KI-Modellen – LIME.
Im LIME Methode passt man ein lineares Modell auf den lokalen Datensatz um die Dateninstanz herum an. Die Koeffizienten dieses linearen Modells (das hochgradig interpretierbar ist) werden dann verwendet, um die Bedeutung verschiedener Merkmale für das Ergebnis in diesem Fall zu bewerten.
LIME-Methode sind weniger stabil als SHAP-Ansatz, wenn es um die Stabilität der Ergebnisse geht, definiert als die Änderungen in der Erklärung über kleine Änderungen der Eingangsvariablen.
ELI5
ELI5 ist eine weitere wertvolle Bibliothek. Es bietet sowohl eine globale Interpretation (man kann dafür z.B. die Methode der Wichtigkeit von Permutationsmerkmalen verwenden) als auch eine lokale Interpretation.
Partial Dependence Plot (PDP)
Der erste Schritt in der XAI-Analyse ist die Bestimmung der wichtigsten Merkmale, die die wichtigsten Merkmale zeigen. Im nächsten Schritt wollen wir dann nicht nur wissen, welche Merkmale am wichtigsten sind, sondern wie genau sie sich auf die Wahrscheinlichkeit eines bestimmten Ergebnisses auswirken. Erhöht oder fällt beispielsweise die Wahrscheinlichkeit für die Klasse 1 mit der Erhöhung der Variable 1.
Um diese Frage zu beantworten, kann man auf den PDP-Ansatz zurückgreifen, der ein Diagramm ausgibt, das zeigt, wie sich die Ergebniswahrscheinlichkeit mit einem bestimmten Merkmal ändert. PDPs werden in der Regel für 1 oder 2 Funktionen gleichzeitig erstellt. Eine nützliche Python-Bibliothek zur Generierung von PDP ist die PDPBOX.
Permutation Feature Importance
Eine der frühesten Methoden zur Bestimmung der Bedeutung von Merkmalen war die Bedeutung von Permutationsmerkmalen. In diesem Ansatz permutiert man die Werte eines einzelnen Merkmals und berechnet die Änderung des Fehlers des Modells. Merkmale, bei denen eine solche Permutation den ML-Modellfehler erhöht, gelten als wichtiger.
Ein wichtiger Nachteil der Bedeutung von Permutationsmerkmalen ist, dass die Ergebnisse irreführend sein können, wenn wir Merkmale mit hoher Korrelation verwenden.