Social Media Monitoring – Reputation erfordert Reaktionsfähigkeit

Die Erkenntnis, dass Digital Storytelling mittlerweile nicht mehr zu umgehen ist, wenn es darum geht, eine nachhaltige Vermarktung zu erzeugen, habe ich durch den letzten Blogbeitrag besiegelt, oder? Auch wenn hinsichtlich der Transmedialität nach wie vor Unklarheiten bestehen, wissen wir, dass eine kanalübergreifende Contentverbreitung unabdingbar ist.

Doch all das nützt nichts, wenn wir die Themen nicht umfangreich recherchieren können – wenn uns entsprechender Contentinput fehlt. Oder wenn wir nicht wissen, welche Zielgruppen wir erreichen oder welche neuen Zielgruppen angesprochen werden. Was nützt uns anspruchsvoll umgesetztes Digital Storytelling, wenn unsere Zielgruppe eine ganz andere ist? Wie erfassen wir weiter, wer über uns berichtet, uns zitiert oder gar negative Kritik ausübt?

Hier kommt das Social Media Monitoring ins Spiel, das in Unternehmen eine noch viel zu selten genutzte Option der Trafficbeobachtung darstellt, obwohl mittlerweile sogar grundlegende Anleitungen im Web zu finden sind.

Björn hatte erst vor einigen Wochen berichtet, wie sich das Monitoring spezifizieren lässt. Schon für ihn stellte sich die Frage, ob sich das Monitoring nicht automatisieren lässt. Je umfangreicher die Quellenabdeckung verläuft, desto unmöglicher ist die Automatisierung, schloss er.

Stefanie Aßmann, Digital Consultant bei elbkind, bezeichnet sich auf Twitter selbst als Social Media Junkie. Sie ist in Deutschland bisher eine der wenigen Social Media Monitoring-Spezialisten, wird aber nicht ohne Grund als solche bezeichnet. Im Rahmen des Digital Marketing & Media SUMMIT 2012 hat Björn in einem Interview mehr über das Thema Monitoring und speziell über die angängige Automatisierung von ihr erfahren:

Social Media Monitoring

  • Bewusstsein in Deutschland ist gestiegen, es besteht aber noch Informationsbedarf
  • die meisten großen Unternehmen integrieren Social Media Monitoring mittlerweile
  • erfordert hohe Eigeninitiative, um individuellem Anforderungskatalog gerecht zu werden

Herausforderung, geeigneten Monitoring-Anbieter aus hoher Anbieterdichte herausfiltern

  • Tests durchführen
  • Anbieter entsprechend der eigenen Zielsetzung auswählen
  • Support?
  • Quellenabdeckung?
    • Tools haben verschiedene Stärken
    • Eigene Schwerpunkte setzen

Analyse-Fähigkeit

  • Tag Clouds, Trendbaromether zeigen häufig gesuchte/verwendete Themen, insb. ungewöhnliche Erwartungsabweichungen an
  • Influencer sind schwer zu ermitteln → Verschiedene Kanäle stellen verschiedene Faktoren zur Ermittlung bereit
  • Einfluss von Beiträgen durch mangelnden Überblick nicht messbar
  • Prozess nur beschränkt automatisierbar, Kenntnisgewinnung und Themenfindung nur durch aktives Einsehen und Analysieren von Beiträgen

Empfehlung an Unternehmen

  • Im Optimalfall eignen sich Unternehmen die Handhabung eigenständig an
  • Verschiedene Abteilungen haben unterschiedliche Intentionen hinsichtlich der Kundenmeinungen
  • Anbieter unterstützen fürs Erste, es wird aber langfristig die selbstständige Aneignung der Unternehmen erfordert

Kollaboratives Videowiki in Planung zur Vorstellung, Bewertung und Kategorisierung der verschiedenen Monitoring-Anbieter

 

Dass die Quellenabdeckung und Themenfindung nicht vollends automatisierbar ist, klingt zwar einleuchtend, birgt für mich nach wie vor aber den umständlichen Prozess der kontinuierlichen qualitativen Analyse und Recherche. Dass allein die qualitative Auswertung eines Unternehmens utopisch ist, schreibt auch der Blogger Bernhard Jodeleit, der in seinem Blog von einem sogenannten Themenradar spricht, welcher entsprechende Entlastung schaffen soll.  Läuft trotz vorläufiger Selektion relevanter Inhalte aus einer chaotischen Contentfülle die anschließende Festlegung nicht trotzdem auf einen enormen Zeitaufwand hinaus? Und bringt die tägliche Selektion relevanter Inhalte durch einen Themenradar-Verantwortlichen tatsächlich schnell genug Licht in das dunkle Rauschen?

Ist nicht das Reputationsmanagement auf die sofortige Benachrichtigung vorkommender Bemerkungen oder Kritiken von Kunden/Unternehmen angewiesen, um unmittelbar darauf reagieren zu können? Generell ist die schnelle Reaktion – sowohl auf Kunden- oder Konkurrenzbeiträge als auch gegenüber neuer potentieller Zielgruppen und Influencer – mittlerweile doch unerlässlich, wenn man Präsenz und gutes Image voraussetzt.

Eine Optimierung des Monitorings bleibt in meinen Augen deshalb unerlässlich.

Tatsächlich unmöglich? Was denkt Ihr?

 


  • Philipp

    Interessantes Interview, war leider nur etwas leise.

    Läuft trotz vorläufiger Selektion relevanter Inhalte aus einer chaotischen Contentfülle die anschließende Festlegung nicht trotzdem auf einen enormen Zeitaufwand hinaus?
    Jein. Wenn im Unternehmen dieser Prozess angesiedelt ist sicherlich. Man stelle sich nur vor der Monitorinverantwortliche muss ich sich jeden Tag alle Beiträge ansehen. Es gibt jedoch einige Anbieter die diesen Prozess der „manuellen“ Auswertung übernehmen. Dadurch erreichen die im Tool angezeigten Beiträge natürlich eine komplett andere Qualität und die Auswertung auf Kundenseite wird enorm vereinfacht.

    Den Punkt Quellenoptimierung finde ich bei Kunden immer besonders spannend, da sich oft erst nach einer gewissen Zeit herauskristallisiert auf welchen Spezialforen viel und inhaltlich wertvoll geschrieben wird. Und viel wichtiger: welche Quellen können auch vernachlässigt werden. Der Wunsch Twitter zu beobachten ist oft sehr groß, die Erkenntnisse die gezogen werden können sind jedoch meist minimal.

    • Ann-Kathrin Tegtmeier Post author

      Danke für den spannenden Kommentar!
      Aber garantiert die Selektion dieses Tools tatsächlich den Content mit persönlich gesetztem Schwerpunkt? Vereinfachen klingt gut, kann der Kunde aber sicher sein, dass nur relevanter Content erfasst wurde? Wäre nicht genau der von Dir genannte Punkt der Quellenoptimierung ein Problem dabei?

  • Jens

    Bezogen auf die letzten Absätze des Artikels:
    Ein redaktionell betreutes Monitoring für Issue & Reputationmanagement oder auch „Shitstorm-Frühwarner“ ist meiner Meinung nach nicht zielführend. Wenn der Analyst/Kundenbetreuer des Dienstleisters die Beiträge erst immer noch auf Relevanz screenen soll und dann erst alerted, kann Hopfen und Malz bereits verloren sein. Es sei denn, er kümmert sich von morgens bis abends nur um dieses eine Monitoring. Das wird dann aber eine recht teure Angelegenheit. Dann lieber automatisiertes Alerting und unrelevante Beiträge in Kauf nehmen. Gutes Suchtermmanagement und ein schlanker workflow sind ebenfalls wichtig.

    Um eine möglichst hohe Relevanz des gemonitorten Contents zu gewährleisten, ist ein genaues Briefing durch den Kunden, was er haben will und was nicht, unerlässlich. Und auch danach sollte mittels regelmäßiger Feedbackrunden „feinjustiert“ werden. Auch hilft hier eine vorherige Nullmessung weiter, wenn der Kunde selbst noch nicht genau weiß, wo Schwerpunkte zu setzen sind und worauf es zu Achten gilt.
    Beim Quellenmanagement stimme ich mit Philipp überein. Die guten in Töpfchen, die schlechten ins Kröpfchen ;) Gute Tools screenen Quellen, bei denen wenige bis keine relevanten Beiträge auflaufen, nachrangig in größeren Zyklen, während hochrelevante Quellen mit hoher Frequenz durchforstet werden.

    Sprich: Monitoring-Optimierung ist unersetzlich UND machbar.

  • Ann-Kathrin Tegtmeier Post author

    Wow, so viel Feedback, ich bin begeistert.
    Dass redaktionell betreutes Monitoring bei den täglichen Contentmassen nicht in Frage kommt, da stimme ich zu. Aber selbst automatisiert und mit „gutem Suchtermmanagement und schlankem Workflow“ ist der Zeitaufwand für die Selektion nicht zu unterschätzen.
    Mit guten Tools, wie Ihr sagt, und mit laufender Kundeninteraktion ist schon ein großer Schritt in die richtige Richtung getan, das klingt einleuchtend.
    Ich bin jedenfalls gespannt, wie sich die Optimierung des Monitorings entwickelt.