Die Social-Media-Monitoring-Disziplin ist im Wandel – aus der Sicht der Lösungsanbieter (Teil 1) #somofo18

In der weiteren Vorbereitung des Monitoring FORUMs haben wir ein paar Lösungsanbieter-Vertreter zu ihrer Sicht der Dinge und Marktentwicklung befragt. Die „Zweiteilung“ der Monitoring-Praxis haben wir da als „Arbeitshypothese“ vorgegeben und folgende Antworten erhalten:

Dr. Volker Meise (Linkfluence) erklärt die Zweiteilung entlang der unterschiedlichen Projektreife

Der Deutschland-Chef von Linkfluence, Dr. Volker Meise, sieht die „Trennung des Marktes“ in dem Reifegrad der Projekte begründet. Er sieht ebenfalls zwei Anwender- bzw. Projekttypen-Gruppen im Markt und beschreibt diese wie folgt:

1. Gruppe: Listening mit Ziel „Engagement“
Hier ist das Ziel, möglichst alle Nennungen zur Marke, zu den Produkten oder bestimmten Themen zu erfassen, um ggf. darauf reagieren zu können. Die Monitoring-Lösung muss daher „die Nadeln im Heuhaufen“ finden, also möglichst jede relevante Erwähnung in der Gesamtheit der Treffer. Monitoring wird dann häufig zusammen mit Engagement-Lösungen (Facelift, Hootsuite, Spredfast) kombiniert.

2. Gruppe: Listening mit Ziel „Insights“
Hier geht es weniger um die einzelnen Treffer, sondern um die Analyse von Trends und Themen. Letztendlich wird versucht, das Verhalten der Nutzer zu verstehen, um es in die Entscheidungsprozesse im Unternehmen (und zwar in allen Bereichen) einzubeziehen. Hier soll das Wissen über Zielgruppen und Märkte gehoben werden und in Vorteile fürs Unternehmen umgewandelt werden.

In der zweiten Gruppe sieht er klar die Stakeholder für das Angebot von Linkfluence. Darin begründet er dann auch die aktuellen Entwicklungen des Lösungsangebotes bei Linkfluence. Hier will Linkfluence mehr Erkenntnisse und Ergebnisse auf der Outcome-Ebene (nach dem Kommunikations-Controlling-Modell von Zerfass/Rolke) liefern, künstliche Intelligenz für das Filtern von Inhalten und die Entschlüsselung der visuellen Kommunikation nutzen sowie Zusammenhänge zwischen Social-Media-Buzz und konkreten Absatz- und Umsatzzahl ermitteln.

Peter Bernskötter (bc.lab) betont die hohe Bedeutung der Insight-Aufbereitung

Der Chef des Hamburger Social-Listening-Anbieters bc.lab, Peter Bernskötter, sieht nach wie vor, dass die Menge der verfügbaren Daten und Informationen aus dem Einsatz von Social Media Monitoring, Analysen und Reporting nur in wenigen Fällen voll ausgeschöpft wird:

In der Praxis heißt das oft, dass bestehende Daten gar nicht richtig genutzt werden. Deswegen treten immer häufiger Fragen in den Vordergrund, wie Daten besser dargestellt, gebündelt, zusammengeführt und vernetzt werden können. Welche Daten benötigen die einzelnen Bereiche? Wie müssen Informationen in die unterschiedlichen Abteilungen und Ebenen distribuiert werden? Wie können wir die Informationen im Unternehmensprozess sinnvoll nutzen?

Weiter sieht er, dass künstliche Intelligenz bei der Spracherkennung immer noch Grenzen hat:

Technisch tut sich eine Menge. Das ist eigentlich gar nichts Neues. Was aber zur Zeit im Zusammenhang mit dem Monitoring sehr stark überdehnt wird, ist der Begriff Artificial Intelligence (AI). Hier werden sehr hohe Erwartungen geweckt, die technisch auf absehbare Zeit nicht erfüllbar sind. Im Bereich der Spracherkennung, dem „Natural Language Processing“, geht es zwar voran. Aber von dem Punkt, an dem ein Computer Inhalte menschlicher Dialoge wirklich versteht, sind wir noch sehr weit entfernt. Hier hat sich unserer „Tech & Talent“-Prinzip – das Zusammenspiel von Technologie und menschlicher Intelligenz – bewährt. Intelligente Lösungen sind das A und O, um den wachsenden Datenstrom zu verstehen und nutzbar zu machen.

Thomas Reuter (Cogia) sieht noch viele Anwendungsfälle im klassischen Monitoring

Der Leiter Redation bei Cogia, Thomas Reuter, sieht die Einsatzschwerpunkte von Monitoring-Ansätzen „nach wie vor sowohl im klassischen Reputations- und Wettbewerbsmonitoring als auch im Kommunikationstracking“. Weiter ergänzt er, dass „die Verwendung derartiger Tools im Kundenzufriedenheitsmanagement“ zunimmt:

Die quantitative und qualitative Analyse von User-Meinungen zur Produkt- und Servicequalität ermöglicht nicht nur eine präzise Steuerung der Kundenkommunikation und des eigenen Qualitätsmanagements, sondern erzielt auch mit relativ geringem Ressourcen-Einsatz erhebliche Distinktionsgewinne gegenüber Wettbewerbern.

Als Herausforderungen sieht er zwei Aspekte:

Die eine ist die Integration von KI-basierten Verfahren in die Analyse-Tools mit dem Ziel, die Auswertung der vorhandenen Datenmengen (Stichwort: Big Data) nicht nur zu optimieren, sondern auch zu beschleunigen.

Die andere Herausforderung liegt in der Umsetzung der Europäischen Datenschutzrichtlinie. Gerade angesichts der jüngsten Datenschutz-Skandale müssen Monitoring- und Analyse-Tools höchste Sorgfalt walten lassen – im Umgang mit den Informationen, die sie sammeln und auswerten.

Christophe Folschette (Talkwalker) pocht auf die Zusammenführung von Social Media Daten mit Drittdaten

Auch Talkwalker’s Co-Founder & Frontman Christophe Folschette stellt heraus – dass es beim Social Media Listening & Analytics um die Herausarbeitung von „Insights“ (Erkenntnissen) geht, die Entscheidungen unterstützen. Für ihn unterteilen sich die Projektansätze in drei Gruppen:

  1. Social Insights für Strategieoptimierung: Hierbei wollen die Projektverantwortlichen Social Media Daten in der Tiefe analysieren und in der Regel mit weiteren Datenquellen anreichern (Google Trends, Umfragen). In diesen Projekten sind die analytischen Funktionen und die Integrationsfähigkeit sehr wichtig.
  2. Reputationsmanagement für Kommunikationsabteilungen: In diesen Projekten geht es um ein Realtime Monitoring von Social Media Diskussionen und Interaktion – mit der Möglichkeit um der Ergänzung von weitere Datenquellen wie Print oder TV/Radio.
  3. Social Media Montoring für Community Management oder Customer Service: Bei diesem Ansatz steht die Engagement-Lösung im Vordergrund – in Kombination mit einem Monitoring/Analytics-Werkzeug, um entsprechende Kommunikations- und Responseanlässe zu erfassen und abzuarbeiten.

Hieraus leitet er produktspezifische Anforderungen an die Lösungswelt ab:

Im Bereich Social Listening kommt es heutzutage darauf an, auf multiple Datenquellen, organisiert in einem Data Hub (‚One single source of truth‘), zu setzen. Da diese Sichtweise eine Herausforderung für die Datenverarbeitung darstellt, ist die Nutzung künstlicher Intelligenz für die Auswertung dieser Monitoring-Daten, sei es nun für die Bilderkennung, das Sentiment oder Predictive Analysis, mittlerweile unumgänglich.

Denn es gilt: Monitoring, dass ausschließlich auf Booleschen Operatoren fußt, ist anfällig für Fehler und hat somit auf kurz oder lang praktisch ausgedient. Eine AI Engine hingegen kann jede einfache Monitoring-Suchanfrage zu einer Ergebnisgenauigkeit von mehr als 99% führen, ohne manuelle Anpassung durch Filter. Starke Insights generiert man nur mit so einer hohen Datengenauigkeit. Und das geht nur über eine AI Engine.

Wir haben noch ein paar weitere Antworten, die wir in Kürze in einem weiteren Beitrag veröffentlichen wollen. Als Zwischenfazit ist aber festzuhalten, dass das Projektfeld „Social Media Monitoring & Analyse“ in einer fortgeschrittenen Reifephase ist. Dies hat auch zur Folge, dass sich auf der Lösungsseite eine zunehmende Spezialisierung der Angebot herauskristallisiert. (Für mehr Hintergrund-Wissen sei hier auf das Grundlagen-Seminar „Social Media Monitoring & Analyse“ von & mit Stefan Evertz im Rahmen des Monitoring FORUM am 04.12. verwiesen).