Die digitale Transformation im Marketing braucht ein Datenverständnis als Grundlage – Fazit zum factory42 Medien-Event

Diese Woche hatte ich die Chance bei einem Branchen-Event unseres CeBIT DMX-Partners factory42 als Moderator mitzuwirken. Es ging dabei um Erfahrungen mit Daten-getriebenen Ansätzen im Mediengeschäft u.a. mit Fallstudien von der Neuen Mediengesellschaft Ulm und der Neuen Osnabrücker Zeitung (NOZ). Im Mittelpunkt stand die Diskussion um das integrierte Datenmanagement über alle Kanäle und Abteilungen als Grundvoraussetzung für weitere digitale Kundenstrategien. Hierzu laufen gerade in vielen Medienunternehmen dedizierte Projekte, bei denen die verschiedenen Datentöpfe zu Abonnementen, Newsletter-Empfängern, Event-Veranstaltungen wie auch Werbekunden zusammengeführt und konsolidiert werden, um damit in Zukunft für den Leser relevantere und nutzenstiftendere Services bieten und neue Geschäftspotentiale erschliessen zu können.

Als Fazit zur Veranstaltung bin ich mit zwei Erkenntnissen nach Hause gegangen:

“Data as the new Oil” ist im Management noch nicht wirklich angekommen

Auch 10 Jahre nach Clive Humby’s Ausspruch “Data is the New Oil” ist die Bedeutung von Nutzungsdaten für die Aussteuerung und Chancennutzung von Geschäftsmodellen noch nicht endgültig als oberste Strategiemaxime in etablierten Firmen angekommen. Im Rahmen der factory42-Veranstaltung zeigten zwar Leuchtturm-Projekten wie die Neue Mediengesellschaft und die NOZ wie es gehen kann und welche neuen Möglichkeiten sich aufzeigen, wenn das Kundendaten-Konzept gerade gezogen ist. Die Diskussion mit den anwesenden Medienvertretern zeigte aber auch, dass dies nur die Speerspitze der Branche ist, wo das Management die Bedeutung dieses Ansatz dahingehend verstanden hat, als dass “bedingungslos” ein Investment für die Neustrukturierung der Daten freigegeben wird.

Die Realität kennzeichnet sich dann doch dahingehend, dass die Konsolidierung von Daten immer nur in Teilen stattfindet – sprich als Projektteil eines konkreten Business-Projektes (z.B. Aufbau eines neuen Newsletters, Umsetzung eines neuen Abo-Modells für Print und Digital). Dabei werden die Daten aber immer nur über einen Teil der Interaktionskanäle und des Geschäftsmodells gerade gezogen. Das ist sicherlich besser als nichts, aber diese inkrementelle Aufarbeitung der Daten über einzelne Bereiche hat zur Konsequenz, dass der Leser/Kunde evt. dann doch noch über andere Kanäle und Dienste vom gleichen Unternehmen für ihn irrelevante Inhalte bekommt, was natürlich zu Unzufriedenheit bzw. Desinteresse bezgl. aller Angebote des Medienunternehmens führt.

Das Verständnis – dass das zentrale Asset für Geschäftsmodelle im digitalen Zeitalter die konsolidierten Kundendaten sind, auf die alle Projekte, Prozesse und Strategien aufsetzen – fängt gemäß der Diskussionen bei der factory42-Veranstaltung bei den Top-Entscheidern erst in jüngster Zeit an zu reifen. Hier gibt es nun langsam ein Umdenken und verschiedene Aktivitäten – aber insgesamt steht man hier doch noch ganz am Anfang.

Marco Parrillo (Neue Mediengesellschaft Ulm) zum Data Platform Konzept der NMG Marco Parrillo (Neue Mediengesellschaft Ulm) zum Data Platform Konzept der NMG

Die Datenkonsolidierung kann weder komplett automatisiert noch in einem Schritt erfolgen

Auch wenn die 360° Sicht auf den Leser bzw. Kunden (denn dies gilt nicht nur für Medienunternehmen) das oberste taktische Ziel auf dem Weg ins Geschäftsmodell für das digitale Zeitalter sein muss und alle Anstrengungen in die zügige Konsolidierung der Daten laufen sollte, kann dies nicht über Nacht geschehen und erfordert auch immer einen zeitweisen Parallelbetrieb. Um diesen Weg zügig bestreiten zu können, gab es bei der factory42-Veranstaltung die Empfehlung für die erste Phase einen möglichst reduzierten Anspruch an das Datenmodell zu haben.

Je mehr Sonderwünsche aus den einzelnen Abteilungen und Projekten im Datenmodell Platz finden, je komplexer und aufwendiger wird die Konsolidierung. In der Diskussion gab es daher immer wieder die Empfehlung ein aktives Anspruchsmanagement zu betreiben – wonach zunächst einmal die Ansprüche bezüglich Sonderwünsche auf den kleinsten gemeinsamen Nenner reduziert werden.

Wichtiges Thema der Diskussion war auch die Deduplizierung – sprich die Bereinigung der Daten von Dubletten -, welche als wesentliche Grundvoraussetzung für weitere digitale Konzepte gesehen wurde. Aus Effizienzgründen wird hier ja immer wieder eine weitgehende Automatisierung angestrebt, die aber letztendlich bei Kundendaten nicht vollständig automatisierbar sind. So bieten sich verschiedene Tools (wie unter Salesforce die Apps Cloudingo oder Informatica Cloud Customer 360), letztendlich bieten die Werkzeuge aber immer nur eine Identifikation von Dupletten und verschiedene Anwendungsroutinen um Daten zusammenzuführen oder zu löschen. Die Zusammenführung von Datensätzen braucht aber nach wie vor eine manuelle Aktion.

Diskussion mit Jürgen Pötzl (Kirchner + Robrecht), Tobias Schwemmer (NZZ Management AG), Jürgen Pfister (grassgreenmedia) und Michael Frohn (factory42) Diskussion mit Jürgen Pötzl (Kirchner + Robrecht), Tobias Schwemmer (NZZ Management AG), Jürgen Pfister (grassgreenmedia) und Michael Frohn (factory42) (Bildquelle)

 

Als Fazit ist festzustellen, dass auch die Medienbranche bei dem Thema noch weitgehend am Anfang steht und alle nur mit Wasser kochen. Damit die “digitale Transformation” nicht nur “heiße Geschwätz” bleibt, braucht es hier auch viel Grundlagenarbeit an der Datenbasis und ein neues Verständnis für Kunden- bzw. hier Leserdaten.