Martin Szugat: Unternehmen verwerten die Daten aus Social Media nicht systematisch und abteilungsübergreifend!

Im Vorlauf zum Monitoring FORUM am 02. Dezember publizieren wir hier in den kommenden Wochen wieder einige Interviews mit unseren Referenten. Den Start machen wir dabei mit den Antworten auf unsere Fragen an Martin Szugat, der uns schon seit Jahren sowohl beim Monitoring FORUM als auch D2M SUMMIT mit seiner Expertise zur Analyse von Social Data unterstützt – und sowohl als Referent als auch Workshop-Leiter beim Monitoring FORUM dabei ist.

Martin Szugat

1) Martin, Du wirst beim Social Media Monitoring FORUM in München einen der Einführungsvorträge halten. Mit welchen drei Stichworten können wir Ihren Beitrag “vertaggen”?

#PredictiveAnalytics, #SocialData und #StopThisBigDataBullshitBingo

2. Das Oberthema der diesjährigen Veranstaltung ist ja das neue Schlagwort “Social Media Intelligence”, worunter wir sowohl die Berücksichtigung von ergänzenden Datenquellen als auch prognostische Analyseverfahren verstehen. Zu Letzterem hälst Du Deinen Vortrag – ist das Thema “Predictive Analytics” bei den Social Media Verantwortlichen schon angekommen?

Nein. Nur sehr wenige Unternehmen wie beispielsweise die Telekom oder die GfK werten Daten aus sozialen Medien gezielt aus, um beispielsweise Krisen oder Trends frühzeitig zu erkennen. Die Gründe für die fehlenden Anwendungen von Predictive Analytics im Umfeld von Social Media sind Erstens die fehlende Kenntniss bei den Social Media-Verantwortlichen über die Möglichkeiten und Methoden von Predictive Analytics. Zweitens sammeln, verknüpfen und insbesondere verwerten die Unternehmen die Daten aus Social Media nicht systematisch und abteilungsübergreifend. Beispielsweise fließen Daten aus dem Community Management wie beispielsweise negative Facebook-Kommentare von Kunden nur selten in Vorhersagemodelle für Kündigungen ein. Den Social Media-Abteilungen fehlt oftmals eine klare Datenstrategie, welche zunächst feststellt, welche Daten zur Verfügung stehen, und anschließend festlegt, wie diese Daten für verschiedene Anwendungsfälle wie beispielsweise das Lead-Scoring genutzt werden können.

3. Was sind beispielhafte Anwendungsszenarien für solche Verfahren, die den Unternehmen einen unmittelbaren Nutzen bieten?

Prädikative Modelle können unter anderem helfen, Shitstorms vorherzusagen oder virale Posts zu detektieren noch bevor sie eine exponentielle Verbreitung erfahren. Maschinelle Lernverfahren lernen beispielsweise aus sozialen Daten den Erfolg von Kinofilmen oder den Abverkauf von DVDs zu prognostizieren. Sie ermöglichen Vorhersagen über das Kreditausfallrisiko anhand der persönlichen Facebook-Daten und erkennen Breaking News oder Trends in Tweets. Der Nutzen für das einzelne Unternehmen ist dabei sehr unterschiedlich und abhängig von der Branche sowie der Verfügbarkeit von konkreten Daten. Unternehmen sollten sich daher mit vielen Anwendungsszenarien beschäftigen und mit der Umsetzung des Szenarios beginnen, das einen schnellen Hebel verspricht – wie beispielsweise sehr unzufriedene Kunden mit einer hohen sozialen Reichweite zu erkennen und das Kundenproblem durch einen speziellen Kundendienst zu lösen, um eine Kündigung sowie negative Einflussnahme auf weitere Kunden zu vermeiden.

Wichtig ist es, konkrete Erfolge innerhalb des Unternehmens zu präsentieren, um das Thema verständlich zu machen und seine wirtschaftliche Relevanz zu belegen. Sowohl Social Media als auch Predictive Analytics sind einerseits für viele Mitarbeiter unbekannt und damit unverständlich. Anderseits erfordern gerade Predictive Analytics-Projekte eine fach- und abteilungsübergreifende Zusammenarbeit. Kleine Projekte mit schnellen (selbst kleinen) Erfolgen helfen Brücken zwischen den Abteilungen zu bauen.

4. Was sind die Herausforderungen für prognostische Verfahren mit Social Data?

Social Data ist ein klassisches Big Data-Problem im Sinne der „4 V“:

  • Volume: es sind oftmals riesige Datenmengen – beispielsweise alle Tweets zu einem populären Hashtag.
  • Velocity: die Daten müssen vielfach in Echtzeit verarbeitet werden, weil der Anwender eine unmittelbare Reaktion erwartet – beispielsweise bei einer Kundenbeschwerde per Tweet
  • Variety: die Daten sind meist unstrukturiert oder es ist ein Mischmasch aus verschiedenen Datenformaten – beispielsweise enthalten Wikipedia-Artikel Freitext, Tabellen, Fakten, Zahlen, Bilder und vieles mehr
  • Veracity: die Daten sind nicht verlässlich – beispielsweise stimmen die Geburtsdaten und Namen auf Facebook häufig nicht

Die Schwierigkeit von Predictive-Analytics-Projekten im Social Media-Umfeld liegt darin, diese Anforderungen so auszutarieren, dass trotz der immensen Datenmengen und unsicheren Datenlagen schnelle und verlässliche Vorhersagen möglich sind.

5. Welche Empfehlung kannst Du Projektverantwortlichen mit auf den Weg geben, die bei diesem Thema neu einsteigen?

Groß denken, klein anfangen. Es braucht zum Loslegen keine teure Big Data-Technologie. Es braucht aber einen schlauen und erfahrenen Datenanalysten im Team, der das Business-Problem versteht, eine fachliche Lösung konzipiert und technisch als Prototyp umsetzt. Wenn der Prototyp die gewünschten Resultate liefert, dann kann man sich Gedanken über Skalierbarkeit, Integration in bestehende Systeme und andere klassische IT-Projektfragen machen. Wenn der Prototyp nicht das Ergebnis bringt: weiter experimentieren – nicht entmutigen lassen! Darin gleichen sich Predictive Analytics und Social Media: sie erfordern beide einen iterativen Trial & Error-Ansatz mit einer klaren Strategie.

6. Welche Erwartungen hast Du an das Monitoring FORUM 2015?

Ich würde gerne von den Teilnehmern erfahren, an welche Anwendungsszenarien von Predictive Analytics in Social Media sie denken oder bereits arbeiten – und wenn nicht, warum nicht!

Sichern Sie sich jetzt Ihr Frühbucher-Ticket zum Monitoring FORUM