Erklärbare KI – Explainable AI (XAI)

Was ist eine erklärbare KI oder Explainable AI (XAI)?

Erklärbare Methoden der Künstlichen Intelligenz (XAI) ermöglichen es Datenwissenschaftlern und anderen Beteiligten, Entscheidungen über Modelle des maschinellen Lernens zu interpretieren. XAI liefert uns zwei Arten von Informationen, die globale Interpretierbarkeit oder welche Merkmale des Modells des maschinellen Lernens für seine Vorhersagen am wichtigsten sind. Und die lokale Interpretierbarkeit oder welche Merkmalswerte einer bestimmten Instanz das Ergebnis am meisten beeinflussten und in welcher Weise.

Warum brauchen wir erklärbare künstliche Intelligenz?

KI-basierte Entscheidungsfindung wird zunehmend in unserem Alltag eingesetzt. Wenn wir in einen Online-Shop gehen, werden die uns vorgeschlagenen Produkte durch ein KI-Modell bestimmt – höchstwahrscheinlich ein Hybrid aus inhaltsbasierter und kollaborativer Filtermethode. Die Krankheitsdiagnose ist ein weiterer Bereich, in dem auch die KI zunehmend eingesetzt wird. Ein weiterer Bereich ist das Finanzwesen, wo unser Kreditrisiko höchstwahrscheinlich durch ein maschinelles Lernmodell berechnet wird.

Allerdings sind maschinelle Lernmodelle oft eine Blackbox. Um dies mit dem Wunsch und den Anforderungen des Menschen, sich Entscheidungen erklären zu lassen, in Einklang zu bringen, hat sich innerhalb des KI-Bereichs ein neues Feld entwickelt – Explainable Artificial Intelligence oder XAI.

Wer treibt auch die Nachfrage nach XAI an?

Neben den Kunden sind die Regulierungsbehörden ein wichtiger Interessenvertreter, der XAI fordert. Einige der Vorschriften, die das “Recht auf Erklärung” in den Mittelpunkt gestellt haben, sind:

  • GDPR
  • Fair Credit Reporting Act
  • Equal Credit Opportunity Act (ECOA)

Die Bereiche, in denen die Regulierungsbehörden besonders daran interessiert sein werden, eine größere Transparenz der erklärbaren KI durchzusetzen, sind Finanzen und Gesundheit. Beide Sektoren können erhebliche Auswirkungen auf unser Leben haben und werden daher strenger reguliert als andere.

Welche sind die wichtigsten Methoden für XAI?

Die am besten fundierte Methode für XAI ist der SHAP. Es basiert auf Shapley-Werten, die die koalitionale Spieltheorie nutzen, um Auszahlungen aus einem Spiel zu verteilen.
Im Falle der Anwendung von Shapley-Werten auf das maschinelle Lernproblem ist das “Spiel” die Vorhersage des ML-Modells, die “Spieler” im Spiel sind Eingabevariablenwerte für eine bestimmte Instanz und die “Auszahlung” ist gleich der Vorhersage mit subtrahiertem Basiswert.

Die SHAP-Methode hat unter anderem mehrere hervorragende Eigenschaften:

  • lokale Genauigkeit
  • Konsistenz

Die SHAP, die den Shap-Ansatz implementiert, verfügt über mehrere sehr leistungsfähige Funktionen:

  • shap.summary_plot ist sehr nützlich, um die wichtigsten Funktionen eines maschinellen Lernmodells anzuzeigen.
  • shap.dependence_plot ist ähnlich wie die partielle Abhängigkeitsdiagramm und ermöglicht es Ihnen zu untersuchen, wie das Feature die Ergebnisvorhersage beeinflusst.
  • shap.force_plot ist der Schlüssel zur Gewinnung lokaler Interpretierbarkeitsinformationen, welche Merkmalswerte den größten Einfluss auf die Ergebniswahrscheinlichkeit hatten und in welche Richtung.

LIME
Erklärbare KI-Beratungsunternehmen verwenden oft einen anderen bekannten Ansatz für die lokale Interpretierbarkeit der Ergebnisse von KI-Modellen – LIME.
Im LIME Methode passt man ein lineares Modell auf den lokalen Datensatz um die Dateninstanz herum an. Die Koeffizienten dieses linearen Modells (das hochgradig interpretierbar ist) werden dann verwendet, um die Bedeutung verschiedener Merkmale für das Ergebnis in diesem Fall zu bewerten.

LIME-Methode sind weniger stabil als SHAP-Ansatz, wenn es um die Stabilität der Ergebnisse geht, definiert als die Änderungen in der Erklärung über kleine Änderungen der Eingangsvariablen.

ELI5
ELI5 ist eine weitere wertvolle Bibliothek. Es bietet sowohl eine globale Interpretation (man kann dafür z.B. die Methode der Wichtigkeit von Permutationsmerkmalen verwenden) als auch eine lokale Interpretation.

Partial Dependence Plot (PDP)
Der erste Schritt in der XAI-Analyse ist die Bestimmung der wichtigsten Merkmale, die die wichtigsten Merkmale zeigen. Im nächsten Schritt wollen wir dann nicht nur wissen, welche Merkmale am wichtigsten sind, sondern wie genau sie sich auf die Wahrscheinlichkeit eines bestimmten Ergebnisses auswirken. Erhöht oder fällt beispielsweise die Wahrscheinlichkeit für die Klasse 1 mit der Erhöhung der Variable 1.
Um diese Frage zu beantworten, kann man auf den PDP-Ansatz zurückgreifen, der ein Diagramm ausgibt, das zeigt, wie sich die Ergebniswahrscheinlichkeit mit einem bestimmten Merkmal ändert. PDPs werden in der Regel für 1 oder 2 Funktionen gleichzeitig erstellt. Eine nützliche Python-Bibliothek zur Generierung von PDP ist die PDPBOX.

Permutation Feature Importance
Eine der frühesten Methoden zur Bestimmung der Bedeutung von Merkmalen war die Bedeutung von Permutationsmerkmalen. In diesem Ansatz permutiert man die Werte eines einzelnen Merkmals und berechnet die Änderung des Fehlers des Modells. Merkmale, bei denen eine solche Permutation den ML-Modellfehler erhöht, gelten als wichtiger.
Ein wichtiger Nachteil der Bedeutung von Permutationsmerkmalen ist, dass die Ergebnisse irreführend sein können, wenn wir Merkmale mit hoher Korrelation verwenden.

Predictive Analytics – Methoden

Einführung

Mit Predictive Analytics können Einzelpersonen, Unternehmen, öffentliche Einrichtungen und viele andere Organisationen wertvolle Erkenntnisse aus ihren umfangreichen Datensammlungen gewinnen, um ihre Abläufe zu verbessern und ihren Kunden Vorteile zu verschaffen.

Predictive Analytics gewinnt mithilfe von Methoden aus einer Vielzahl von Bereichen Erkenntnisse aus Big Data, darunter:

  • Data Mining,
  • statistische Modellierung,
  • Maschinelles lernen,
  • Deep Learning,
  • andere künstliche Intelligenz (AI) Methoden

Das Hauptziel von Predictive Analytics-Beratern besteht darin, eine breite Palette von Methoden für Echtzeit- und historische Daten einzusetzen, um Vorhersagen und Prognosen über Kunden oder zukünftige Ereignisse zu treffen. Obwohl die Predictive Analytics häufig von einem Team aus Datenwissenschaftlern, Dateningenieuren und anderen Personen aus technischen Abteilungen implementiert wird, sind häufig andere Organisationsebenen beteiligt.

Der Erfolg bei der Implementierung von Data-Science-Produkten erfordert häufig ein tiefes Verständnis der Geschäftsprozesse in der Organisation. Daher ist es unerlässlich, dass auch die oberen Führungsebenen in die frühe Planung und spätere Überwachung der Predictive-Analytics-Projekte einbezogen werden.

Beispiele für Predictive Analytics im Marketing

Predictive Analytics wurde im letzten Jahrzehnt von fast allen Organisationsebenen übernommen. Einer der ersten Anwender von Predictive Analytics waren die Marketing- und Vertriebsabteilungen, die sie für eine Vielzahl von Zwecken im täglichen Betrieb einsetzen:

  • Vorhersagen des Customer Lifetime Value (CLV)
  • Lead Scoring
  • Optimierung der Verkaufstrichter (Leads Flow)
  • Kundenbindung
  • Identifizierung von Upselling- / Cross-Selling-Möglichkeiten
  • Kundensegmentierung
  • Betrugstransaktionen (Aufdeckung von Anomalien)
  • Umsatz- und Nachfrageprognose

Predictive Scoring

Auf technischer Ebene berechnet Predictive Analytics einen quantitativen Score, bei denen es sich um Personen wie Kunden oder Mitarbeiter handeln kann. Es können Ansammlungen von Personen sein, z. Organisationen oder Produkte und Dienstleistungen. Mit dem Scoring verbindet das Unternehmen eine bestimmte Wahrscheinlichkeit mit einer Entität, z.B. Client, in Bezug auf bestimmte Aktion, zum Beispiel Kauf eines bestimmten Produkts. Es ist der Mechanismus, mit dem Unternehmen eine Vielzahl unterschiedlicher Vorhersagen treffen können:

  • Wie hoch ist das Kreditrisiko eines Kunden, der einen Kredit beantragt?
  • Wie hoch ist die Wahrscheinlichkeit, dass ein Mitarbeiter mit hohem Wert das Unternehmen verlässt?
  • Wie groß ist die Wahrscheinlichkeit, dass ein kritisches Bauteil ausfällt?
  • Wie hoch ist die Wahrscheinlichkeit, dass eine bestimmte gekennzeichnete Transaktion ein potenzieller Betrug ist?
  • Wie groß ist die Wahrscheinlichkeit, dass ein Kunde angesichts der jüngsten Suchanfragen und früheren Einkäufe an ausgewählten Produkten interessiert ist?
  • Wie groß ist die Wahrscheinlichkeit, dass ein bestimmter Sensor nicht richtig funktioniert?

Predictive Scoring wurde in die Geschäftstätigkeit vieler Branchen integriert – Fertigungs-, Finanz-, Gesundheits-, Marketing-, Öl- und Gasunternehmen, Einzelhändler, Sportteams, soziale Medien, E-Commerce und andere. Andere Organisationen, die Predictive Analytics einsetzen, sind Behörden und andere öffentliche Organisationen.

Predictive Analytics-Modelle

Eine der Aufgaben, mit denen Datenwissenschaftler bei einem Predictive Analytics-Projekt konfrontiert sind, ist die Auswahl des geeigneten Ansatzes für das jeweilige Projekt. Data Science verfügt über eine breite Palette potenzieller Methoden für die Modellierung der Predictive Analytics, und möglicherweise ist nicht jeder Ansatz für die jeweilige Aufgabe geeignet.

Im Allgemeinen sind einige der Modelle, die sich besonders für die prädiktive Analyse eignen :

  • Logistische Regression
  • Decision Trees
  • Random Forests
  • Support-Vektor-Maschinen
  • K-means Clustering
  • XGBoost
  • Neuronale Netze

Open Source Tools für Predictive Analytics

Zur Implementierung von Predictive Analytics-Lösungen kann eine Vielzahl von Programmier-Sprachen and Software für diese Art von Aufgaben verwendet werden.

Man kann Ansätze auf niedrigerer Ebene verwenden, z. Implementierung in Python-Programmiersprache mithilfe von Scikit-Learn und Numpy. Oder man kann andere Software verwenden wie:

Knime
R Software
Weka
Apache Spark

Eine Alternative zur firmeninternen Entwicklung von Predictive Analytics-Lösungen besteht darin, auf diesen Bereich spezialisierte Data Science-Beratungsunternehmen zu beschäftigen.

Stimmungsanalyse oder Sentiment-Analyse mit KI – benutzen Sie Opinion Mining um Ihre Geschäftsergebnisse zu verbessern

Einführung

Die Stimmungsanalyse ist in den letzten Jahren zu einer beliebten Methode geworden, um sich über die Meinungen von Kunden zu Produkten und Dienstleistungen zu informieren. Es wird sowohl für akademische Zwecke als auch im Handel eingesetzt.

Es geht im Wesentlichen um die Suche nach Daten, die dann auf subjektive Meinungen oder Gefühle hin ausgewertet werden.

Wertvolle Informationen können von Websites stammen, die Produkte und Dienstleistungen verkaufen, z. Bewertungen auf Amazon oder Tripadvisor. Noch größere Datensätze von Stimmungsdaten können aus der Analyse von Daten gewonnen werden, die auf Social-Media-Plattformen wie Twitter, Instagram und anderen erstellt wurden.

Historisch gesehen konzentrierte sich die erste Phase der Stimmungsanalyse-Entwicklung auf die Bestimmung der Gesamtstimmung oder Stimmungspolarität von Sätzen, Absätzen oder ganzen Dokumenten.

Unternehmen sind jedoch in der letzten Zeit anspruchsvoller geworden und interessieren sich nicht nur für die allgemeine Wahrnehmung von Texten über ihre Produkte und Dienstleistungen. Sie möchten mehr darüber erfahren, wovon die Kunden sprechen:

  • Welche spezifischen Produkte werden in der Kundenbewertung erwähnt?
  • Welche Aspekte von Produkten oder Dienstleistungen werden erwähnt (z. B. für das Hotel können Standort, Service und Preis in Betracht gezogen werden)
  • Was ist die Meinung zu diesen Aspekten aus Kundenrezensionen

 

Aspect Based Sentiment Analysis

Dieser Ansatz ist auch unter einem bestimmten Namen bekannt – Aspect Based Sentiment Analysis (ABSA).

ABSA ist im Wesentlichen daran interessiert, mehr über bestimmte Aspekte von Produkten oder Dienstleistungen zu erfahren. Aspect Based Sentiment Analysis besteht aus mehreren Methoden:

  • Identifizierung der relevanten Entitäten
  • Extraktion ihrer Merkmale und Aspekte (manchmal auch als Aspektextraktion bezeichnet)
  • Verwenden sogenannter Aspektbegriffe, um die Stimmung über ein bestimmtes Merkmal oder einen bestimmten Aspekt herauszufinden (die Stimmungspolaritäten sind positiv, neutral und negativ)

Wie bestimmen wir die Aspekte?

Man kann verschiedene Ansätze verwenden, vom tiefen Lernen bis zum Parsen von Abhängigkeiten. Eine großartige Bibliothek zum Parsen von Abhängigkeiten und zum Extrahieren von Aspekten ist spacy. Auch häufig verwendete Abhängigkeitsbibliothek ist Stanford CoreNLP.

Die Stimmungsanalyse, d. H. das Bestimmen der Stimmung von Aspekten oder ganzen Sätzen, kann durch Trainieren von maschinellem Lernen oder Tiefenlernmodellen durchgeführt werden. Ich werde Ihnen den Code zeigen, wie Sie selbst ein ziemlich großes und genaues Modell für die Klassifizierung von Stimmungen trainieren können.

Das Training von Sentiment Classifier mittels maschinellem Lernen beinhaltet:

  • Vorbereitung eines geeigneten Datensatzes (wir verwenden einen mit Stanford Datensatz von Tweets)
  • Verwenden eines spezifischen maschinellen Lernmodells (machine learning model), z. Support Vector Machines eignen sich sehr gut für diese Textklassifikation
  • Trainieren des Modells am Datensatz
  • Auswertung der Ergebnisse (Präzision, Recall, F1-Score und Genauigkeit überprüfen)
  • Verwenden Sie das Modell in der Produktion, um Erkenntnisse zu gewinnen

Die Stimmungsanalyse kann auf viele Arten von Texten angewendet werden

Mit der Stimmungsanalyse können Sie die Stimmung aus einer Vielzahl möglicher Texte extrahieren:

  • Tweets
  • Instagram Beiträge
  • Produktrezensionen
  • Restaurant Bewertungen
  • Hotelbewertungen
  • Umfragen
  • E-Mails
  • Tickets (Unterstützung)

Stimmungsanalyse oder Opinion Mining ist eine großartige Lösung für Unternehmen, die Big Data in Form von unstrukturierten Texten haben, z. E-Mail-Kommunikation mit Kunden. Es ist ein wicthiges Teil unter Data Science Methoden. Auf diese Weise können sie wertvolle Informationen und umsetzbare Erkenntnisse aus diesen Datenbeständen gewinnen.

Training eines Stimmungsklassifikators basierend auf SVM (Support Vector Machines) und unter Verwendung des Stanford 140-Datensatzes

Wir werden die Scikit-Learn bibliothek verwenden, um einen auf SVM basierenden Stimmungsklassifikator zu trainieren.

Wir werden den Stanford 140-Datensatz verwenden. Sie können es von dieser Website herunterladen:

http://help.sentiment140.com/for-students

Beachten Sie das Datenformat, es hat 6 Felder:

  • 0 – die Polarität des Tweets (0 = negativ, 2 = neutral, 4 = positiv)
  • 1 – die ID des Tweets
  • 2 – das Datum des Tweets
  • 3 – die Abfrage. Wenn keine Abfrage vorliegt, lautet dieser Wert NO_QUERY.
  • 4 – der Benutzer
  • 5 – der Text des Tweets

Erste Schritte:

Im nächsten Schritt werden die Daten aus dem Stanford 140-Datensatz geladen und vorverarbeitet:

Wir werden die TF-IDF-Darstellung von Tweets verwenden, bevor wir sie dem SVM-Modell zuführen:

Als nächstes trainieren wir das Modell mit der linearen SVM von scikit-learn:

Nach der Konvergenz können wir die Genauigkeit des Modells bewerten, indem wir Präzision, Rückruf und f1-Score berechnen:

Der auf den Stanford 140-Datensatz trainierte Stimmungsklassifikator weist eine gute Genauigkeit von 82% auf

Benötigen Sie Hilfe mit Code oder haben Sie eine Idee für ein Projekt? Sie können mich kontaktieren unter:

http://chxo.com/labelgen/labelgen.php?textval=info%40maschinelleslernen.org&font=ARIAL.TTF&size=12&bgcolor=%23ffffff&textcolor=%23000000&submit=create+image