Krypto Fear & Greed Index

Suchtrends für den Krypto-Markt

Wir glauben fest an die Macht der Suchtrends, um die Zukunft Ihrer Kryptowährungsinvestitionen zu gestalten.

Wenn Sie jemals eine große Suchmaschine wie Google, Yahoo! oder Bing verwendet haben, wissen Sie, dass sie die Trends der Suchanfragen ihrer Nutzer im Laufe der Zeit verfolgen und anzeigen. Diese Trends sind ein hervorragender Indikator für das allgemeine Interesse an einem bestimmten Thema, und wir bieten historische Diagramme der Suchtrends für jeden von uns behandelten Coin.

Wenn Sie diese Trends studieren, können Sie Marktbewegungen besser vorhersehen und fundiertere Investitionsentscheidungen treffen.

Krypto-Gespräch

Crypto Talk ist ein BittsAnalytics-Tool für Kryptowährungsinvestoren, das über API zeigt, wie positiv oder negativ die Stimmung der Münze in den jüngsten Tweets über jede Kryptowährung ist. Es zeigt auch, welche Themen als positiv oder negativ für jede Währung angesehen werden. Wir haben einige der Top-Kryptowährungen aufgelistet, aber Sie können dieses Tool auch nutzen, um die Stimmung und Trends für Ihre Lieblingsmünze zu sehen. Wir haben auch viele historical data gesammelt verfügbar über API endpoints.

Krypto Fear & Greed Index

Wir sind ständig auf der Suche nach neuen Indikatoren, die uns helfen, den Zustand des Kryptomarktes zu verfolgen. Der Crypto Fear & Greed Index ist eine wichtige neue Ergänzung zu unserer Reihe von Tools.

Unser Krypto Fear & Greed Index Tool erfasst die positiven und negativen Emotionen, die von den Nutzern in den sozialen Medien geäußert werden, und bietet einen nützlichen Einblick in die aktuelle Stimmung auf dem Kryptomarkt.

Der Crypto Fear & Greed Index ist ein Maß für die Stimmung der Krypto-Investoren, basierend auf den insgesamt positiven und negativen Emotionen, die in den sozialen Medien zum Ausdruck kommen. Er erfasst Angst und Gier, zwei der grundlegendsten menschlichen Emotionen, die für Investitionen in Kryptowährungen besonders relevant sind. Der Index wird erstellt, indem mehrere Quellen menschlicher Meinungen (aus Twitter), maschinelle Lernmodelle und ein Gewichtungsalgorithmus zusammengeführt werden, um eine einzige Zahl zu erhalten. Die Investorenindizes basieren auf den Social-Media-Meinungen von Händlern, Hedgefonds und anderen professionellen Anlegern. T

Die Indizes werden mithilfe von Modellen des maschinellen Lernens und eines Gewichtungsalgorithmus berechnet.

Unterstützungs- und Widerstandsniveaus

Wahrscheinlich sind Sie mit Unterstützungs- und Widerstandsniveaus vertraut, aber wenn nicht, machen Sie sich keine Sorgen. Wir haben alles für Sie. Beim Handel sind Unterstützungsniveaus die Stellen, an denen ein Kurs mit größerer Wahrscheinlichkeit nicht mehr fällt und wieder steigt. Bei Widerstandsniveaus hingegen ist es wahrscheinlicher, dass der Kurs nicht weiter steigt, sondern wieder fällt. Unterstützungs- und Widerstandsniveaus können Ihnen dabei helfen, sich für die Zukunft zu positionieren. Ein bullischer Händler könnte darauf achten, dass Unterstützungsniveaus durchbrochen werden, weil dies signalisiert, dass der Aktienkurs von dort aus steigen wird, während ein bärischer Händler darauf achten könnte, dass Widerstandsniveaus durchbrochen werden, weil dies signalisiert, dass der Aktienkurs von dort aus fallen wird.

All dies bedeutet, dass Sie beim Kauf oder Verkauf eines Wertpapiers oder eines anderen Wertpapiers, das im Wert gehandelt wird, mit Hilfe von Unterstützungs- und Widerstandsniveaus Ihre Kauf-/Verkaufsaufträge effektiver timen können. Wenn sich ein Wertpapier auf einem Unterstützungsniveau befindet, ist es wahrscheinlicher, dass es von dort aus weiter steigt!

Historische Simulation

Haben Sie sich jemals gefragt, wie viel Ihr aktuelles Portfolio in einem bestimmten Zeitraum gewonnen oder verloren hat? Nun, Sie können Ihr Portfolio auf unserer Plattform eingeben und eine historische Simulation der Performance Ihres Portfolios in der Vergangenheit erhalten.

 

Online shops und Produktkategorisierung

Wenn Sie ein physisches Geschäft betreten, finden Sie über den Gängen Tabellen, die die Kategorie der Produkte angeben, die in einem bestimmten Bereich verkauft werden.

Das Online-Äquivalent dazu sind die Produktpfade, die die Hauptkategorie, die Unterkategorie, die Kategorie der Ebene 3 und so weiter anzeigen. In den früheren Tagen des Internets wurden diese Kategorien manuell festgelegt, aber da Amazon inzwischen Millionen von Produkten verkauft, wurde die Produktkategorisierung inzwischen automatisiert, indem maschinelles Lernen und KI-Modelle zu diesem Zweck eingesetzt werden.

Alles, was man für das Training eines ML-Modells braucht, ist ein guter Trainingsdatensatz in Form von Produktname -> Kategorie und dann kann man ein entsprechendes Textklassifikationsmodell trainieren.

Was die möglichen Kategorien angeht, gibt es zwei Hauptoptionen. Die eine ist die Google Produkttaxonomie und die andere die IAB-Klassifizierung, beide haben Tier 1, Tier 2 und niedrigere Tiers von Kategorien.

Für die Kategorisierung von E-Commerce-Produkten ist die Google Product Taxonomy-Kategorisierung am besten geeignet, während die IAB-Kategorisierung allgemeiner ist und mehrere Überarbeitungen durchlaufen hat.

Eine ausgezeichnete Saas-Plattform, die Produktkategorisierung anbietet, ist Productcategorization.com. Sie können deren free API tool das Feature engineering and text vectorization benutzt hier ausprobieren.

 

Die Ausgabe erfolgt in Form eines schönen Diagramms und einer json-Datei, die auch exportiert werden kann.

Eine weitere wichtige Variante der Kategorisierung ist das Tagging von Produkten. Dies ist eine modernere Version des Versuchs, die Produkte zu klassifizieren, und hat den zusätzlichen Vorteil, dass es keine allgemeine Obergrenze für die Anzahl der Tags gibt, die den Produkten eines Online-E-Commerce-Shops zugewiesen werden können.

Eine Lösung, die Produkt-Tagging anbietet, ist unter producttagging.com verfügbar. Sie können eine Demo des Produkt-Taggings ausprobieren hier.

Ich habe Diamantenohrringe ausprobiert und diese Tags erhalten (mit Prozentangaben, die angeben, wie relevant der Tag für den Produktnamen ist):

Diamant
58 %
Ohrringe
33 %
Ohrring
22 %
Diamant-Ohrringe
7 %
Schmuck
6 %
Weißgold
6 %
Diamanten
6 %
Gelbgold
4 %
Reif
3 %
Brautschmuck

2 %

Produktkennzeichnung und -kategorisierung haben eine große Zukunft, da die Zahl der Online-Shops rapide zunimmt.

UnicornSEO – seo niches tool

UnicornSEO, ein Niche Research tool bietet Ihnen viele Funktionen – Automatisieren Sie Ihre SEO, analysieren Sie Ihre Konkurrenten, finden Sie vielversprechende Keywords, vergleichen Sie Nischen und sehen Sie trendige Keywords in Ihrer Nische.

UnicornSEO hilft Ihnen dabei, vielversprechende Keywords zu entdecken, die leistungsstärksten Inhalte Ihrer Konkurrenten zu verstehen, Ihre SEO-Arbeit zu automatisieren, steigende Keywords in Ihrer Nische (in Bezug auf das Suchvolumen) zu sehen, Hunderte von Nischen quantitativ zu vergleichen – und vieles mehr.

Schlüsselwörter finden
Entdecken Sie vielversprechende Keywords in Ihrer Nische, indem Sie Keywords anhand von mehr als 15 Faktoren vergleichen, von SEO-Schwierigkeiten bis zu ihren aktuellen Trends beim Suchvolumen.

Data visualization für UnicornSEO vorbereitet von https://datavisualizations.org/

Wettbewerber analysieren
Sehen Sie sich die leistungsstärksten Keywords Ihrer Mitbewerber an und ermitteln Sie, welche Inhalte für sie am besten geeignet sind.

Automatisieren Sie Ihre SEO mit SEO niches tool
Erhalten Sie sofort umsetzbare Ratschläge, wie Sie Ihre On-Page-Optimierung verbessern können, um Ihre Rankings zu verbessern.

Nischen vergleichen mit SEO niches tool
Vergleichen Sie Nischen anhand von mehr als 15 Faktoren und entdecken Sie einige der vielversprechendsten und am wenigsten schwierigen Nischen in Bezug auf den erforderlichen SEO-Aufwand.

SEO ist eine der wichtigsten Komponent für Marketing.

Ordnen Sie Keywords und finden Sie die vielversprechendsten.
Wir ordnen Stichwörter der Nische quantitativ in Bezug auf viele Faktoren. Wir berechnen das durchschnittliche Domain-Alter der bestplatzierten Seiten für jedes Keyword. Keywords, bei denen “junge” Domains zu den Top-Rankings gehören, sind ausgezeichnete Zielideen. Wir berechnen außerdem für jedes Keyword den Prozentsatz des geschätzten Suchverkehrs, der von den Top-Nischen-Domains ausgeführt wird. Konzentrieren Sie sich auf Schlüsselwörter, die “Top Dogs” vernachlässigt oder noch nicht gefunden haben. Sie können mit SEO niches tool auch pain points in marketing finden.

Lernen Sie von Ihren Mitbewerbern
Wir informieren Sie über leistungsstärkste Seiten in der Nische. Sie können auch sehen, wo Ihre Konkurrenten SE-Traffic erhalten und wie sich jede ihrer (und Ihre) Seiten gegen die Durchschnittswerte der Nische stapelt. So können Sie sofort erkennen, welche Bereiche die meiste Aufmerksamkeit benötigen.

Crypto Sentiment API von BittsAnalytics

Die Preise bestimmter Vermögenswerte werden maßgeblich von der Stimmung und dem Hype um sie bestimmt. Durch das Abonnieren von BittsAnalytics können Sie problemlos in Echtzeit und in historischen Diagrammen auf Stimmungsdaten für Kryptowährungen zugreifen. Wir stellen Ihnen den Bitcoin Sentiment Index, den Ethereum Sentiment Index und die Stimmungsindizes für alle anderen Kryptowährungen zur Verfügung.

Wir bieten Ihnen auch leistungsstarke Analysewerkzeuge, mit denen Sie auf einfache Weise wichtige Erkenntnisse aus unseren Stimmungsdaten gewinnen können. Beispiele dafür, wie Echtzeitstimmung als Handelssignale dienen kann (was wir “BittsSignals” nennen), finden Sie in unseren Blog-Posts über BittsSignals. Alle unsere Stimmungsdaten sind auch als Crypto Sentiment API verfügbar.

Einführung zu unserem API Dokumentation

Wir unterstützen über 200 Kryptowährungen. Wir sind spezialisiert auf die Bereitstellung von Datensätzen mit hohem Einfluss auf die Preise digitaler Assets: Social-Media-Stimmung und Social-Media-Erwähnungen. Unsere APIs werden von vielen Hedgefonds und einzelnen Kunden verwendet. BittsAnalytics war entwickelt vom Team Alpha Quantum, spezialisiert auf AI Consulting.

Authentifizierung
BittsAnalytics verwendet API-Schlüssel, um den Zugriff auf unsere API zu autorisieren. Um API-Schlüssel zu erhalten, müssen Sie unseren erweiterten Plan erwerben. Die Hauptmethode für die Übergabe des API-Schlüssels an uns ist die Verwendung eines benutzerdefinierten Autorisierungsheaders mit dem Namen X-api-key.

Angenommen, Ihr API-Schlüssel lautet b4dade2ce5fb2d0b189b5eb6f0cdd129, dann sieht der Autorisierungsheader, den Sie uns senden sollten, folgendermaßen aus:
X-API-Schlüssel: b4dade2ce5fb2d0b189b5eb6f0cdd129
HTTP-Erfolgsantwort
Erfolgreiche HTTP-Antworten haben den Statuscode 200 und die Antwort gemäß Spezifikation. Weitere Informationen finden Sie in unserer Dokumentation.
API-Anforderungslimits
API-Anforderungen sind auf 10 Anforderungen pro Intervall von 10 Sekunden begrenzt. Die Grenzwerte für API-Anforderungen werden entsprechend der Kombination Ihres IP- und API-Schlüssels festgelegt. Wenn Sie die API-Grenzwerte überschreiten, werden Sie mit der Meldung “Zu viele Anforderungen” benachrichtigt.
Ausgabeformat
Unsere Server geben standardmäßig API-Daten im JSON-Format zurück.

Team Alpha Quantum ist erreichbar auch auf Blog Machine Learning Consulting.

Erklärbare KI – Explainable AI (XAI)

Was ist eine erklärbare KI oder Explainable AI (XAI)?

Erklärbare Methoden der Künstlichen Intelligenz (XAI) ermöglichen es Datenwissenschaftlern und anderen Beteiligten, Entscheidungen über Modelle des maschinellen Lernens zu interpretieren. XAI liefert uns zwei Arten von Informationen, die globale Interpretierbarkeit oder welche Merkmale des Modells des maschinellen Lernens für seine Vorhersagen am wichtigsten sind. Und die lokale Interpretierbarkeit oder welche Merkmalswerte einer bestimmten Instanz das Ergebnis am meisten beeinflussten und in welcher Weise.

Warum brauchen wir erklärbare künstliche Intelligenz?

KI-basierte Entscheidungsfindung wird zunehmend in unserem Alltag eingesetzt. Wenn wir in einen Online-Shop gehen, werden die uns vorgeschlagenen Produkte durch ein KI-Modell bestimmt – höchstwahrscheinlich ein Hybrid aus inhaltsbasierter und kollaborativer Filtermethode. Die Krankheitsdiagnose ist ein weiterer Bereich, in dem auch die KI zunehmend eingesetzt wird. Ein weiterer Bereich ist das Finanzwesen, wo unser Kreditrisiko höchstwahrscheinlich durch ein maschinelles Lernmodell berechnet wird.

Allerdings sind maschinelle Lernmodelle oft eine Blackbox. Um dies mit dem Wunsch und den Anforderungen des Menschen, sich Entscheidungen erklären zu lassen, in Einklang zu bringen, hat sich innerhalb des KI-Bereichs ein neues Feld entwickelt – Explainable Artificial Intelligence oder XAI.

Wer treibt auch die Nachfrage nach XAI an?

Neben den Kunden sind die Regulierungsbehörden ein wichtiger Interessenvertreter, der XAI fordert. Einige der Vorschriften, die das “Recht auf Erklärung” in den Mittelpunkt gestellt haben, sind:

  • GDPR
  • Fair Credit Reporting Act
  • Equal Credit Opportunity Act (ECOA)

Die Bereiche, in denen die Regulierungsbehörden besonders daran interessiert sein werden, eine größere Transparenz der erklärbaren KI durchzusetzen, sind Finanzen und Gesundheit. Beide Sektoren können erhebliche Auswirkungen auf unser Leben haben und werden daher strenger reguliert als andere.

Welche sind die wichtigsten Methoden für XAI?

Die am besten fundierte Methode für XAI ist der SHAP. Es basiert auf Shapley-Werten, die die koalitionale Spieltheorie nutzen, um Auszahlungen aus einem Spiel zu verteilen.
Im Falle der Anwendung von Shapley-Werten auf das maschinelle Lernproblem ist das “Spiel” die Vorhersage des ML-Modells, die “Spieler” im Spiel sind Eingabevariablenwerte für eine bestimmte Instanz und die “Auszahlung” ist gleich der Vorhersage mit subtrahiertem Basiswert.

Die SHAP-Methode hat unter anderem mehrere hervorragende Eigenschaften:

  • lokale Genauigkeit
  • Konsistenz

Die SHAP, die den Shap-Ansatz implementiert, verfügt über mehrere sehr leistungsfähige Funktionen:

  • shap.summary_plot ist sehr nützlich, um die wichtigsten Funktionen eines maschinellen Lernmodells anzuzeigen.
  • shap.dependence_plot ist ähnlich wie die partielle Abhängigkeitsdiagramm und ermöglicht es Ihnen zu untersuchen, wie das Feature die Ergebnisvorhersage beeinflusst.
  • shap.force_plot ist der Schlüssel zur Gewinnung lokaler Interpretierbarkeitsinformationen, welche Merkmalswerte den größten Einfluss auf die Ergebniswahrscheinlichkeit hatten und in welche Richtung.

LIME
Erklärbare KI-Beratungsunternehmen verwenden oft einen anderen bekannten Ansatz für die lokale Interpretierbarkeit der Ergebnisse von KI-Modellen – LIME.
Im LIME Methode passt man ein lineares Modell auf den lokalen Datensatz um die Dateninstanz herum an. Die Koeffizienten dieses linearen Modells (das hochgradig interpretierbar ist) werden dann verwendet, um die Bedeutung verschiedener Merkmale für das Ergebnis in diesem Fall zu bewerten.

LIME-Methode sind weniger stabil als SHAP-Ansatz, wenn es um die Stabilität der Ergebnisse geht, definiert als die Änderungen in der Erklärung über kleine Änderungen der Eingangsvariablen.

ELI5
ELI5 ist eine weitere wertvolle Bibliothek. Es bietet sowohl eine globale Interpretation (man kann dafür z.B. die Methode der Wichtigkeit von Permutationsmerkmalen verwenden) als auch eine lokale Interpretation.

Partial Dependence Plot (PDP)
Der erste Schritt in der XAI-Analyse ist die Bestimmung der wichtigsten Merkmale, die die wichtigsten Merkmale zeigen. Im nächsten Schritt wollen wir dann nicht nur wissen, welche Merkmale am wichtigsten sind, sondern wie genau sie sich auf die Wahrscheinlichkeit eines bestimmten Ergebnisses auswirken. Erhöht oder fällt beispielsweise die Wahrscheinlichkeit für die Klasse 1 mit der Erhöhung der Variable 1.
Um diese Frage zu beantworten, kann man auf den PDP-Ansatz zurückgreifen, der ein Diagramm ausgibt, das zeigt, wie sich die Ergebniswahrscheinlichkeit mit einem bestimmten Merkmal ändert. PDPs werden in der Regel für 1 oder 2 Funktionen gleichzeitig erstellt. Eine nützliche Python-Bibliothek zur Generierung von PDP ist die PDPBOX.

Permutation Feature Importance
Eine der frühesten Methoden zur Bestimmung der Bedeutung von Merkmalen war die Bedeutung von Permutationsmerkmalen. In diesem Ansatz permutiert man die Werte eines einzelnen Merkmals und berechnet die Änderung des Fehlers des Modells. Merkmale, bei denen eine solche Permutation den ML-Modellfehler erhöht, gelten als wichtiger.
Ein wichtiger Nachteil der Bedeutung von Permutationsmerkmalen ist, dass die Ergebnisse irreführend sein können, wenn wir Merkmale mit hoher Korrelation verwenden.

Predictive Analytics – Methoden

Einführung

Mit Predictive Analytics können Einzelpersonen, Unternehmen, öffentliche Einrichtungen und viele andere Organisationen wertvolle Erkenntnisse aus ihren umfangreichen Datensammlungen gewinnen, um ihre Abläufe zu verbessern und ihren Kunden Vorteile zu verschaffen.

Predictive Analytics gewinnt mithilfe von Methoden aus einer Vielzahl von Bereichen Erkenntnisse aus Big Data, darunter:

  • Data Mining,
  • statistische Modellierung,
  • Maschinelles lernen,
  • Deep Learning,
  • andere künstliche Intelligenz (AI) Methoden

Das Hauptziel von Predictive Analytics-Beratern besteht darin, eine breite Palette von Methoden für Echtzeit- und historische Daten einzusetzen, um Vorhersagen und Prognosen über Kunden oder zukünftige Ereignisse zu treffen. Obwohl die Predictive Analytics häufig von einem Team aus Datenwissenschaftlern, Dateningenieuren und anderen Personen aus technischen Abteilungen implementiert wird, sind häufig andere Organisationsebenen beteiligt.

Der Erfolg bei der Implementierung von Data-Science-Produkten erfordert häufig ein tiefes Verständnis der Geschäftsprozesse in der Organisation. Daher ist es unerlässlich, dass auch die oberen Führungsebenen in die frühe Planung und spätere Überwachung der Predictive-Analytics-Projekte einbezogen werden.

Beispiele für Predictive Analytics im Marketing

Predictive Analytics wurde im letzten Jahrzehnt von fast allen Organisationsebenen übernommen. Einer der ersten Anwender von Predictive Analytics waren die Marketing- und Vertriebsabteilungen, die sie für eine Vielzahl von Zwecken im täglichen Betrieb einsetzen:

  • Vorhersagen des Customer Lifetime Value (CLV)
  • Lead Scoring
  • Optimierung der Verkaufstrichter (Leads Flow)
  • Kundenbindung
  • Identifizierung von Upselling- / Cross-Selling-Möglichkeiten
  • Kundensegmentierung
  • Betrugstransaktionen (Aufdeckung von Anomalien)
  • Umsatz- und Nachfrageprognose

Predictive Scoring

Auf technischer Ebene berechnet Predictive Analytics einen quantitativen Score, bei denen es sich um Personen wie Kunden oder Mitarbeiter handeln kann. Es können Ansammlungen von Personen sein, z. Organisationen oder Produkte und Dienstleistungen. Mit dem Scoring verbindet das Unternehmen eine bestimmte Wahrscheinlichkeit mit einer Entität, z.B. Client, in Bezug auf bestimmte Aktion, zum Beispiel Kauf eines bestimmten Produkts. Es ist der Mechanismus, mit dem Unternehmen eine Vielzahl unterschiedlicher Vorhersagen treffen können:

  • Wie hoch ist das Kreditrisiko eines Kunden, der einen Kredit beantragt?
  • Wie hoch ist die Wahrscheinlichkeit, dass ein Mitarbeiter mit hohem Wert das Unternehmen verlässt?
  • Wie groß ist die Wahrscheinlichkeit, dass ein kritisches Bauteil ausfällt?
  • Wie hoch ist die Wahrscheinlichkeit, dass eine bestimmte gekennzeichnete Transaktion ein potenzieller Betrug ist?
  • Wie groß ist die Wahrscheinlichkeit, dass ein Kunde angesichts der jüngsten Suchanfragen und früheren Einkäufe an ausgewählten Produkten interessiert ist?
  • Wie groß ist die Wahrscheinlichkeit, dass ein bestimmter Sensor nicht richtig funktioniert?

Predictive Scoring wurde in die Geschäftstätigkeit vieler Branchen integriert – Fertigungs-, Finanz-, Gesundheits-, Marketing-, Öl- und Gasunternehmen, Einzelhändler, Sportteams, soziale Medien, E-Commerce und andere. Andere Organisationen, die Predictive Analytics einsetzen, sind Behörden und andere öffentliche Organisationen.

Predictive Analytics-Modelle

Eine der Aufgaben, mit denen Datenwissenschaftler bei einem Predictive Analytics-Projekt konfrontiert sind, ist die Auswahl des geeigneten Ansatzes für das jeweilige Projekt. Data Science verfügt über eine breite Palette potenzieller Methoden für die Modellierung der Predictive Analytics, und möglicherweise ist nicht jeder Ansatz für die jeweilige Aufgabe geeignet.

Im Allgemeinen sind einige der Modelle, die sich besonders für die prädiktive Analyse eignen :

  • Logistische Regression
  • Decision Trees
  • Random Forests
  • Support-Vektor-Maschinen
  • K-means Clustering
  • XGBoost
  • Neuronale Netze

Open Source Tools für Predictive Analytics

Zur Implementierung von Predictive Analytics-Lösungen kann eine Vielzahl von Programmier-Sprachen and Software für diese Art von Aufgaben verwendet werden.

Man kann Ansätze auf niedrigerer Ebene verwenden, z. Implementierung in Python-Programmiersprache mithilfe von Scikit-Learn und Numpy. Oder man kann andere Software verwenden wie:

Knime
R Software
Weka
Apache Spark

Eine Alternative zur firmeninternen Entwicklung von Predictive Analytics-Lösungen besteht darin, auf diesen Bereich spezialisierte Data Science-Beratungsunternehmen zu beschäftigen.

Stimmungsanalyse oder Sentiment-Analyse mit KI – benutzen Sie Opinion Mining um Ihre Geschäftsergebnisse zu verbessern

Einführung

Die Stimmungsanalyse ist in den letzten Jahren zu einer beliebten Methode geworden, um sich über die Meinungen von Kunden zu Produkten und Dienstleistungen zu informieren. Es wird sowohl für akademische Zwecke als auch im Handel eingesetzt.

Es geht im Wesentlichen um die Suche nach Daten, die dann auf subjektive Meinungen oder Gefühle hin ausgewertet werden.

Wertvolle Informationen können von Websites stammen, die Produkte und Dienstleistungen verkaufen, z. Bewertungen auf Amazon oder Tripadvisor. Noch größere Datensätze von Stimmungsdaten können aus der Analyse von Daten gewonnen werden, die auf Social-Media-Plattformen wie Twitter, Instagram und anderen erstellt wurden.

Historisch gesehen konzentrierte sich die erste Phase der Stimmungsanalyse-Entwicklung auf die Bestimmung der Gesamtstimmung oder Stimmungspolarität von Sätzen, Absätzen oder ganzen Dokumenten.

Unternehmen sind jedoch in der letzten Zeit anspruchsvoller geworden und interessieren sich nicht nur für die allgemeine Wahrnehmung von Texten über ihre Produkte und Dienstleistungen. Sie möchten mehr darüber erfahren, wovon die Kunden sprechen:

  • Welche spezifischen Produkte werden in der Kundenbewertung erwähnt?
  • Welche Aspekte von Produkten oder Dienstleistungen werden erwähnt (z. B. für das Hotel können Standort, Service und Preis in Betracht gezogen werden)
  • Was ist die Meinung zu diesen Aspekten aus Kundenrezensionen

 

Aspect Based Sentiment Analysis

Dieser Ansatz ist auch unter einem bestimmten Namen bekannt – Aspect Based Sentiment Analysis (ABSA).

ABSA ist im Wesentlichen daran interessiert, mehr über bestimmte Aspekte von Produkten oder Dienstleistungen zu erfahren. Aspect Based Sentiment Analysis besteht aus mehreren Methoden:

  • Identifizierung der relevanten Entitäten
  • Extraktion ihrer Merkmale und Aspekte (manchmal auch als Aspektextraktion bezeichnet)
  • Verwenden sogenannter Aspektbegriffe, um die Stimmung über ein bestimmtes Merkmal oder einen bestimmten Aspekt herauszufinden (die Stimmungspolaritäten sind positiv, neutral und negativ)

Wie bestimmen wir die Aspekte?

Man kann verschiedene Ansätze verwenden, vom tiefen Lernen bis zum Parsen von Abhängigkeiten. Eine großartige Bibliothek zum Parsen von Abhängigkeiten und zum Extrahieren von Aspekten ist spacy. Auch häufig verwendete Abhängigkeitsbibliothek ist Stanford CoreNLP.

Die Stimmungsanalyse, d. H. das Bestimmen der Stimmung von Aspekten oder ganzen Sätzen, kann durch Trainieren von maschinellem Lernen oder Tiefenlernmodellen durchgeführt werden. Ich werde Ihnen den Code zeigen, wie Sie selbst ein ziemlich großes und genaues Modell für die Klassifizierung von Stimmungen trainieren können.

Das Training von Sentiment Classifier mittels maschinellem Lernen beinhaltet:

  • Vorbereitung eines geeigneten Datensatzes (wir verwenden einen mit Stanford Datensatz von Tweets)
  • Verwenden eines spezifischen maschinellen Lernmodells (machine learning model), z. Support Vector Machines eignen sich sehr gut für diese Textklassifikation
  • Trainieren des Modells am Datensatz
  • Auswertung der Ergebnisse (Präzision, Recall, F1-Score und Genauigkeit überprüfen)
  • Verwenden Sie das Modell in der Produktion, um Erkenntnisse zu gewinnen

Die Stimmungsanalyse kann auf viele Arten von Texten angewendet werden

Mit der Stimmungsanalyse können Sie die Stimmung aus einer Vielzahl möglicher Texte extrahieren:

  • Tweets
  • Instagram Beiträge
  • Produktrezensionen
  • Restaurant Bewertungen
  • Hotelbewertungen
  • Umfragen
  • E-Mails
  • Tickets (Unterstützung)

Stimmungsanalyse oder Opinion Mining ist eine großartige Lösung für Unternehmen, die Big Data in Form von unstrukturierten Texten haben, z. E-Mail-Kommunikation mit Kunden. Es ist ein wicthiges Teil unter Data Science Methoden. Auf diese Weise können sie wertvolle Informationen und umsetzbare Erkenntnisse aus diesen Datenbeständen gewinnen.

Training eines Stimmungsklassifikators basierend auf SVM (Support Vector Machines) und unter Verwendung des Stanford 140-Datensatzes

Wir werden die Scikit-Learn bibliothek verwenden, um einen auf SVM basierenden Stimmungsklassifikator zu trainieren.

Wir werden den Stanford 140-Datensatz verwenden. Sie können es von dieser Website herunterladen:

http://help.sentiment140.com/for-students

Beachten Sie das Datenformat, es hat 6 Felder:

  • 0 – die Polarität des Tweets (0 = negativ, 2 = neutral, 4 = positiv)
  • 1 – die ID des Tweets
  • 2 – das Datum des Tweets
  • 3 – die Abfrage. Wenn keine Abfrage vorliegt, lautet dieser Wert NO_QUERY.
  • 4 – der Benutzer
  • 5 – der Text des Tweets

Erste Schritte:

Im nächsten Schritt werden die Daten aus dem Stanford 140-Datensatz geladen und vorverarbeitet:

Wir werden die TF-IDF-Darstellung von Tweets verwenden, bevor wir sie dem SVM-Modell zuführen:

Als nächstes trainieren wir das Modell mit der linearen SVM von scikit-learn:

Nach der Konvergenz können wir die Genauigkeit des Modells bewerten, indem wir Präzision, Rückruf und f1-Score berechnen:

Der auf den Stanford 140-Datensatz trainierte Stimmungsklassifikator weist eine gute Genauigkeit von 82% auf

Benötigen Sie Hilfe mit Code oder haben Sie eine Idee für ein Projekt? Sie können mich kontaktieren unter:

http://chxo.com/labelgen/labelgen.php?textval=info%40maschinelleslernen.org&font=ARIAL.TTF&size=12&bgcolor=%23ffffff&textcolor=%23000000&submit=create+image