Unter dem Motto "Big Data - Einsatzerfahrungen, Entscheidungsprozesse, Effekte" trafen sich gestern 580 Big Data Verantwortliche und Interessierte aus allen Branchen in Hanau, um Erfahrungen auszutauschen und Impulse für Big Data Initiativen in dem eigenen Unternehmen mitzunehmen.
Ich möchte meine Erkenntnisse in diesem Blog weitergeben und diese insbesondere bezogen auf die 3 genannten Begriffe im Motto der Veranstaltung überprüfen.
Während vor einem Jahr auf demselben Kongress noch viel über den Begriff Big Data fabuliert wurde, war es gestern erfrischend zu sehen, dass heute konkrete Use Cases und Einsatzbeispiele im Vordergrund stehen und erste Erfahrungen hierzu ausgetauscht werden. Der Begriff Big Data tritt in den Hintergrund - vielmehr geht es um Themen wie digitale Transformation, Iot (internet of Things) und Customer Experience. Kurz: darum, mehr Wissen aus vorhandenen - aber auch zusätzlichen - Daten herauszuholen, um Prozesse effizienter zu machen, Kosten zu sparen oder besser den Kunden zu steuern.
Erkenntnis 1: Big Data ist in den Unternehmen angekommen
Wir haben auf dem Kongress aus allen Branchen interessante Projektumsetzungen gesehen. Hierbei kristallisieren sich 3 Schwerpunktbereiche heraus:
Kundendaten sind die Währung in der digitalen Welt
Durch die fortschreitende Digitalisierung ändert sich die Kundenerwartung dramatisch. Der Kunde erwartet personalisierte Services, auf seine Bedürfnisse zugeschnittene Angebote. Auf der Konferenz wurde von dem "Ich - Alles - Sofort - Überall - Prinzip" gesprochen. Ich: der Kunde will als der König behandelt werden - Alles: der Kunde will ein vollumfängliches Angebot mit der besten Qualität zum niedrigsten Preis - Sofort: Der Kunde erwartet sofortige Reaktion und schnelle Transaktionsabwicklung - Überall: das ganze unabhängig von Raum und Zeit. Diese Anforderungen können nur mit Daten als Grundlage für real-time Analysen zu den Kunden umgesetzt werden. Somit sind auch erfolgreiche Projekte diese, die alle Daten zu einem Kunden in einem zentralen Data Lake speichern und diesen mit real-time Informationen auch aus zusätzlichen Quellen versorgen. Als Beispiel kann man hier dm herausstellen, die diese Herausforderung gemeistert haben und somit für die Steuerung der Filialen die notwendige Entscheidungsbasis geschaffen haben, um die Kunden zielgerecht anzusprechen, u.a. mit dem Einsatz des SAS Customer Intelligence Lösung.
IoT-Daten sind die Währung von Industrie 4.0
Im Bereich Manufactoring und Automotive hat man den Wert von IoT erkannt. Neue Datenquellen - ermöglicht durch Sensortechnik und neue Messmöglichkeiten- sind als Datenschatz erkannt und werden in sehr interessanten Use Cases bereits produktiv genutzt. Es wurden verschiendene Projekte im Bereich Predictive Maintenance sowie Warranty Analysis und Field Quality Analysis vorgestellt. Alle Projekte zeigen, dass eine real-time Analyse von vielen Datenpunkten ein frühzeitiges Erkennen von Problemen in einem Produktionsprozess ermöglichen und dadurch die Kosten von teuren Folgeprozessen oder Ausschüssen vermieden werden können. Wenn auch konkrete Einsparungen oftmals mit dem Hinweis auf Firmengeheimnis nicht genannt wurden, so handelt es sich aus unserer Projekterfahrung oftmals um zweistellige Millionenbeträge. Auch hier sind die Daten bereits zu einem wertvollen Asset geworden. Der Wert der Daten wird hier in Zukunft noch über erweiterte Services gesteigert werden, wie das Beispiel Claas gezeigt hat. Claas ist in bezug auf Big Data sehr weit fortgeschritten. Die Daten optimieren nicht nur die eigenen Prozesse, sondern werden konsequent genutzt, um den Claas Kunden - i.W. also den Landwirten - Zusatzdienste anzubieten - Stichwort Farming 4.0.
Neue Technologien zur Optimierung und Kosteneinsparung
Bei der "Suche nach dem goldenen Use Case" wird oftmals das naheliegende vergessen. Mit umso mehr Freude habe ich gestern zwei Use Cases gesehen, die meine eigene Erfahrung bei meinen Kunden bestätigt: die neuen Technologien können signifikant Kosten sparen helfen und ermöglichen die Modernisierung einer in die Tage gekommenen IT Landschaft. Etwas überraschend finde ich, dass diese Beispiele aus der Bankenbranche kommen. Die BAWAG hat mit einem, Hadoop Cluster ihren Mainframe entlastet und erspart sich somit teure Betriebskosten bei gewonnener Elastizität und höherer Geschwindigkeit. In einem anderen Beispiel einer Internet Bank konnten die DWH Prozesse durch Hadoop deutlich beschleunigt werden, so dass nun Batch Fenster kein Thema mehr sind und deutlich mehr (=alle) granularen Daten geladen werden können.
Diese Beispiele bestätigen meine Empfehlung, mit dem naheliegenden anzufangen und somit Erfahrung und Kompetenzen für Big Data Projekte aufzubauen. Bei solchen Projekten lässt sich erfahrungsgemäß ein guter ROI nachweisen und führt dann konkret zu weiteren innovativen Ideen.
Die meisten der Kundenberichte haben eins gemeinsam: sie optimieren bestehende Prozesse. Mittel dieser Optimierung sind mehr Daten und die konsequente Anwendung von Advanced Analytics. Es gibt noch eher wenige Anwendungsfälle, bei denen mittels Daten und Analytics neue Geschäftsprozesse oder neue Einnahmequellen generiert wurden. Ansätze wie bei Claas zeigen aber, dass erfolgreiche Optimierungsprojekte weitere Innovationen in einem weiteren Schritt hervorbringen. Der Weg zu mehr Innovation führt also über das Optimieren von Prozessen mit Big Data Analytics.
Erkenntnis 2: Big Data startet mit Daten sammeln
Mit welchen Strategien können Unternehmen zur «Data-driven company» werden? Als eine wesentliche Erfolgskomponenten möchte ich Herrn Philip Vospeter von Claas zitieren: "Erstmal alle - und wirklich alle - Daten sammeln!".
Dies betrifft zwei wesentliche Fähigkeiten, die Voraussetzung für erfolgreiche Big Data Projekte sind:
- Silostrukturen überwinden: Historisch gewachsen schlummern die Datenschätze in den Unternehmen i.d.R. nahe an den operativen Prozessen in den entsprechenden Data Warehouses. Eine ganzheitliche Sicht auf alle Daten bspw. zu einem Kunden oder zu Produktdaten in allen Prozessen trifft man nur sehr selten an. Aber gerade die Zusammenführung und ganzheitliche Betrachtung mittels Advanced Analytics führt zu neuen Erkenntnissen. Hier bietet sich das Konzept des Data Lake an, der auf Basis bspw. von Hadoop auch kostengünstig realisiert werden kann. Die Hadoop Technologie ermöglicht eine kostengünstigere Umsetzung dieser Herausforderung, da bspw. durch den "Schema-on-read" Ansatz die aufwändige - und oftmals starre - Modellierung von DWH Struktuen vereinfacht wird. Somit kann man einfacher unterschiedliche Daten aus unterschiedlichen Gesichtspunkten miteinander kombinieren und dementsprechend schneller analysieren.
- Neue Daten nutzen: Mit der zunehmenden Digitalisierung entstehen rasend schnell neue Daten in einer neuen Dimension bzgl. Datenmenge und Geschwindigkeit (Volume, Variety und Velocity). Erfolgreiche Projekte zeigen, dass Fähigkeiten wie bspw. Infrastrukturen erweitert werden müssen, um diese Daten einzusammeln und zugreifbar zu machen. Technologisch geht es hier um Data Streaming, den Umgang mit diversesten Datenformaten, der Anwendung von real-time Data Quality Mechanismen etc.. Und natürlich geht es hier auch um die Nutzung der neuen Technologien wie Hadoop und in-memory Verarbeitung, um diese Datenmengen überhaupt sinnvoll nutzbar zu machen.
Erkenntnis 3: Experimentieren erlauben
Welche Erfolgsfaktoren gibt es für Big-Data-Projekte? Woran können Projekte im Unternehmensalltag scheitern?
Die einhellige Meinung auf dem Kongress war, dass das Erfolgsrezept für Big Data Projekte ein Kulturwandel in den Unternehmen voraussetzt. Diesen Kulturwandel möchte ich in drei Thesen zusammenfassen:
- Big Data ist kein IT Projekt
In vielen Unternehmen sehe ich aktuell "die Suche nach dem goldenen Use Case". Berater werden beauftragt, die Grundlage neuer Geschäftsmodelle mit Big Data zu suchen, die sich möglichst innerhalb eines Jahres rechnen. Mittlerweile breitet sich hierbei der Frust in den Unternehmen aus, da nach zahlreichen Workshops am Ende keine konkreten Ergebnisse herauskommen. Das geht auch anders, wie zahlreiche Beispiele auf dem Big Data Summit gezeigt haben. Das Wesentliche: Big Data ist in erster Linie kein Technologie-Thema ("die Technologie ist vorhanden"), sondern ein Thema der neuen Zusammenarbeit von IT und Fachbereich. Nur in dieser Kombination von Geschäftsprozesswissen und den technologisch Möglichem kann ein Big Data Projekt erfolgreich sein.
- Neue Fähigkeiten müssen erlangt werden
So wichtig die Daten sind und die Fähigkeiten, alle Daten verfügbar zu machen - das Entscheidende sind die Fähigkeiten, diese Daten mittels Advanced Analytics auswerten zu können. Und dies ist in erster Linie ein Skill-Thema. Einhellige Meinung auf dem Kongress war: die Unternehmen brauchen eine neue Rolle: den Data Scientist. Dieser ist eigentlich die eierlegende Wollmilchsau, eine Kreuzung aus IT-Nerd, mathematischem Experte und Business Versteher. Da dies oftmals in einer Person nicht geht, werden oftmals Data Scientist-Teams gebildet, die durch eine enge Zusammenarbeit genau diese Kombination kreieren können. Data Scientists sind in Deutschland rar gesäht. SAS bildet sie deshalb aus, mehr Infos finden Sie hier.
- Experimentieren erlauben
Der Kulturwandel drückt sich insbesondere in einem anderen Herangehen aus. Wie unter 1. erwähnt, finden sich in den seltensten Fällen direkt die goldenen Use Cases. Vielmehr gilt es, sich mit den vorhandenen Daten auseinander zu setzen und durch analytische Exploration erste Erkenntnisse zu sammeln. Wir benötigen hierzu die Mentalität in den Unternehmen, Dinge auszuprobieren, unbekannte Pfade zu beschreiten, bewusst auch mit der Möglichkeit, Fehler zu machen oder Sackgassen zu beschreiten. Kurz: wir müssen Experimentieren erlauben, um Innovation und neue Erkenntnisse zu finden. Dies ist sicherlich eine der größten Herausforderungen, haben wir doch in den letzten Jahren die Unternehmen auf Effizienz getrimmt. Ohne diese mentale Einstellung, ohne ein solches agiles Vorgehen - da waren sich die Teilnehmer des Kongresses m.E. einig - werden Big Data Projekte scheitern.
Mein Empfehlung ist hier: bauen Sie ein Labor auf. Dieses drückt quasi qua Begriff schon aus, dass es hier um etwas Neues geht, dass man hier andere Wege beschreitet. Schaffen Sie hier die Kultur des Experimentierens und ermuntern Sie die Data Scientists zum Fehler machen. Denken Sie aber auch strategisch daran, dass sie die Fähigkeit (auch technologisch) erwerben, die Erkenntnisse und Ergebnisse auch operativ im Unternehmen auszurollen. Sobald also aus dem Lab heraus analytische Use Cases entstanden sind, benötigen Sie Automatismen und Standards, diese in ihre Prozesse umzusetzen, um möglichst schnell weitere Use Cases auf die Straße zu bringen.
Erkenntnis 4: Voraussetzungen schaffen - Datenschutz und digitale Mündigkeit
Natürlich haben wir in Hanau auch über die Risiken und Hindernisse von Big Data gesprochen. Datenschutzthemen werden dann natürlich vor den aktuellen Themen NSA und Facebook gerne ins Feld geführt. Aber auch die Frage, wie weit wir uns in die Klauen von Algorithmen geben wollen und dürfen (bspw. wenn via Algorithmen automatisiert entschieden wird, ob man einen Kredit bekommt oder nicht), war Teil der Diskussionen. Hier möchte ich die Meinung der Experten auf der Abschluss-Podiumsdiskussion zusammenfassen. Wir müssen in Deutschland noch stärker an den Voraussetzungen für Big Data Innovationen arbeiten:
- Vertrauen in den Umgang mit Daten schaffen
Unternehmen müssen das Vertrauen ihrer Kunden in den Umgang mit ihren Daten herstellen. Hier sind transparente Selbstverpflichtungen und deren Kontrolle notwendig. Die Bestrebungen der Versicherungswirtschaft unter dem Titel "Code of Conduct" könnten hier ein Anfang sein.
- Datenschutz für die digitale Transformation definieren
Die Datenschutzgesetze in der heutigen Form sind für eine pre-Big Data Ära geschrieben und trage nicht mehr ausreichend. Das Prinzip, dass der Kunde sein Einverständnis erklärt, damit seine Daten zu einem bestimmten Zweck genutzt werden dürfen, ist international nicht wettbewerbsfähig. Zum Zeitpunkt der Erfassung der Daten kann man in der Big Data Ära noch nicht sagen, wofür die Daten in Zukunft genutzt werden. Umso wichtiger ist die Schaffung der Voraussetzungen dieser Nutzung im Sinne des einzelnen Kunden.
- Digitale Mündigkeit
Wir haben ein Bildungsdefizit in Deutschland zu den Themen der digitalen Transformation. Die Menschen müssen besser verstehen, was technologisch möglich ist und welche Folgen es hat, seine Daten preis zu geben oder auch nicht. Die wenigsten verstehen bspw. die konkrete Arbeitsweise der Google Suche - dies ist aber wichtig, um einordnen zu können, warum ich in welchem Kontext welche Suchergebisse präsentiert bekomme und warum das nicht unbedingt immer die absolute Wahrheit bzw. Vollständigkeit darstellt.
Gerne diskutiere ich mit Ihnen weitere Erkenntnisse oder Meinungen zu den oben Thesen. Eine rege Diskussion in diesem Blog würde mich freuen. Schauen Sie auch einmal hierein.
2 Comments
Danke für die Zusammenfassung!
Ist irgendwo nachzuvollziehen, was so im Bereich Öffentlicher Sektor präsentiert wurde?
Danke und mit freundlichen Grüßen,
Basanta Thapa
Hallo Herr Thapa,
SIe können das Programm und auch die meisten der Vorträge unter http://www.bitkom-bigdata.de/ einsehen. In der Tat erinner ich mich an keine Projekte/Vorträge aus dem Öffentlichen Sektor. Vielleicht hilft hier der neue Leitfaden des Bitkom zum Thema Praxisbeispiele von BigData: http://www.bitkom.org/de/publikationen/38337_73446.aspx.
Sehr wohl gibt es interessante Anwendungsbeispiele für BigData im Öffentlichen Sektor. Auf unserer Seite finden Sie beispielsweise Themen wie Betrugaserkennung oder Forderungsmanagement: http://www.sas.com/de_de/industry/government.html.
Beste Grüße,
Andreas Gödde