Am 13.11. fand in Berlin zum zweiten Mal der Trendkongress des Verbandes der deutschen IT- und Telekommunikationsindustrie BITKOM statt. Fast 900 Gäste folgten dem Ruf in die trendige "STATION" in Berlin - und natürlich kann ein solches Event heutzutage nicht ohne Big Data auskommen. Doch vielleicht wurde hier wirklich ein Trend gesetzt: Der einschlägige Workshop, den ich zusammen mit Kollegen von Teradata und CRISP Research leitete, hatte den Begriff "Smart Data" in der Überschrift. Was hatte es damit auf sich?
Zunächst war festzustellen, dass der Publikumszuspruch sehr gut war: der Vortragsraum fasste etwa 60 Personen und war bei beiden inhaltsgleichen Durchläufen bis auf den letzten Platz gefüllt. Das alleine wäre schon Beleg für meine erste These.
Big Data betrifft jeden.
Ich bin fest davon überzeugt, dass in nicht allzu ferner Zukunft Unternehmen unterschiedlichster Art und Größe ganz selbstverständlich Big Data nutzen werden. Eine einfache Umfrage zu Beginn der Session ergab, dass es den allermeisten Anwesenden durchaus bewusst ist, dass bereits heute in ihren Unternehmen wertvolle Daten nicht genutzt werden. Und das scheint mir - jenseits aller Social Media Beispiele - der eigentliche Kern der Sache zu sein: Es geht um das Bewusstsein für den Wert von Daten, angefangen bei den eigenen, intern schon vorhandenen. Könnte man nicht zum Beispiel die Wetterabhängigkeit der Sendeleistung von Handyfunkmasten auswerten und als das dichteste Netz von Wetterstationen überhaupt betrachten?
Damit wäre auch gleich ein Beispiel benannt, das keine personenbezogenen Daten in Betracht zieht und damit auch nicht unter die Datenschutzrichtlinien fällt. Das war zumindest bei den Experten auch in anderen Vorträgen des Kongresses ebenfalls zu hören: Deutschland als Ausrüster der Welt mit Maschinen, Anlagen und Infrastruktur wird auch in der Datenanalyse viel mehr Chancen in diesen Bereichen, also mit Maschinen- und Sensordaten, haben, als mit anderen Datenquellen wie Facebook, Twitter & Co.
Was mich zu meiner zweiten These führt.
Datenschutz wird sich zum Wettbewerbsfaktor entwickeln.
Die Öffentlichkeit ist zu Recht sensibilisiert. Der Telekomvorstand Höttges sprach in seiner Keynote viel von Vertrauen. Und es gibt die ersten Beispiele, bei denen aus der vermeintlichen Not eines als zu streng empfundenen Datenschutzes eine Tugend wird. Sollte es zum Beispiel der Telekom gelingen, wirklich ein "deutsches" E-Mail-Angebot zu verwirklichen, also die Gewährleistung dafür anbieten, das elektronische Kommunikation ausnahmslos mit Servern auf dem Boden des deutschen Datenschutzes abgewickelt wird, dann wäre das sicherlich ein Wettbewerbsvorteil.
Auch gibt es die ersten Beispiele von verhaltensgesteuerten KFZ-Versicherungen. Gegen die Preisgabe des persönlichen Fahrverhaltens erhalten Kunden bei gefahrlosen Fahrgewohnheiten einen Rabatt auf die Prämie und zusätzliche Services wie ein persönliches Informationsportal. Wer dies rechtskonform, transparent und kundenfreundlich auf die Beine stellen kann, hat ein attraktives Angebot, das seine Kunden finden wird. Und solange es keinen Malus für Diejenigen gibt, die nicht mehr als nötig Daten preisgeben wollen, sollte auch die gesamtgesellschaftliche Akzeptanz gegeben sein.
Eine Herausforderung für das eben skizzierte Geschäftsmodell ist sicherlich, das innovative Partner zusammenfinden müssen und traditionelle Herangehensweisen diese Kreativität eher hindern. Meine dritte These bezieht sicher daher auf die Menschen, die einen Mehrwert aus Big Data gewinnen wollen.
Wir brauchen andere Fertigkeiten und Qualifikationen.
Big Data hat eine starke IT-Kompenente, das liegt auf der Hand. Typischerweise werden IT-Projekte in einem sehr formalisierten Prozess gehandhabt, vor allem um die knappen Ressourcen auf die am höchsten priorisierten Projekte zu verwenden. Die Priorisierung erfolgt im Normalfall anhand eines zuvor gerechneten Business Cases. Also entwickelt eine Fachabteilung ein umfangreiches Konzept, das in einem Pflichtenheft für die IT mündet. Die IT setzt um und übergibt eine neue Anwendung zurück an den Fachbereich, der sich dann häufig genug beklagt, die IT hätte ihn schon wieder nicht verstanden. Die erwartbare Replik der IT-Kollegen: Der Fachbereich weiß gar nicht was er will, und wenn, dann solle er es eben präziser formulieren.
Datengetriebene Unternehmen ticken anders. Ausgehend von einer Datenstrategie werden neue Rollen und Abläufe definiert. In einem gemeinsamen Ansatz finden IT und Fachbereich Datentöpfe, die möglicherweise in der Kombination wertvoll werden könnten. Dann erfolgt eher ein kontrolliertes Ausprobieren. Big Data verlangt nach explorativem Datenerkunden, dem Suchen von Zusammenhängen, die eben nicht vorher schon offenkundig sind. Dafür braucht es zumindest eine Handvoll neuer Experten, die in der Lage sind, die unterschiedlichen Qualifikationen, die es dafür braucht, zumindest zu orchestrieren.
Diese Data Scientists benötigen ein Verständnis sowohl für die strukturellen Eigenschaften von Daten, wie auch der wichtigen Geschäftsprozesse und am besten auf der Grundlage einer mathematisch-statistischen Expertenausbildung. Zudem sollen sie noch kreativ sein und gut kommunizieren können. Die Diskussion in Berlin einigte sich einigermaßen darauf, dass man nicht zu viele dieser Top-Leute finden wird und dass alternative Strategien nötig sind, etwa das Etablieren einer "Datenkultur", die Nutzung der richtigen Tools und das Verbinden von Kompetenzen in gemischten Teams.
Wenn man also das Thema Big Data smart genug angeht, stecken viele Chancen drin. Wer zu lange zögert, wird sich von schnelleren, nicht unbedingt größeren!, Kontrahenten überholen lassen müssen. Denn eines ist klar: Wir reden nicht von Übermorgen. Die Zukunft findet heute schon statt - nur noch nicht überall.