Big Data Governance: 5 Tipps für erfolgreiche Big-Data-Initiativen

0

Big Data Governance: 5 Tipps für erfolgreiche Big-Data-Initiativen

Das ist der dritte Beitrag zur Blog-Serie Big Data Governance. Bisher sind erschienen Wie Big Data Unternehmen durcheinanderwirbelt und Mit Data Governance gegen den Datensumpf. Zum Abschluss möchte ich 5 Tipps abgeben, die ich selbst von Pionieren in Sachen Big Data übernommen habe. Meine erste Empfehlung lautet, Data Governance bereits zu Beginn der Big-Data-Initative zum Thema zu machen. So wird sichergestellt, dass …

- alle wissen, welchen Mehrwert das Projekt bringt und was damit erreicht werden soll, - Privatsphären- und Datenschutz-Aspekte vorausschauend angegangen werden, - die Relevanz von Daten allgemein bekannt ist und Daten entsprechend gemanagt werden, - die Ergebnisse der Big-Data-Analysen für den vorgesehenen Einsatz geeignet sind und entsprechend genutzt werden

Fachabteilungen mit ins Boot holen und Data Stewarts ernennen

Viele Big-Data-Initiativen finden ihren Anfang in der IT-Abteilung, wo Big-Data-Fans es gar nicht abwarten können, mit der neuen Lösung zu experimentieren. Aber: Um alles aus Big Data herauszuholen und sinnvolle Regelungen für das ganze Unternehmen zu finden, muss der Fokus weggehen von den rein IT-getriebenen Spielereien hin zur handfesten Alltagsanwendung. Das sichert konkrete und messbare Ergebnisse und schafft gleichzeitig die Grundlage dafür, dass Governance-Prozesse etabliert werden können, die Fachabteilung und IT gleichermaßen einbeziehen.

In den meisten Unternehmen ist Data Governance ein junger Bereich, dessen Funktion und Zuständigkeiten noch nicht klar umrissen sind. Trotzdem braucht es jetzt schon einen durchdachten Ansatz, um mit den speziellen Anforderungen von Big-Data-Initiativen mitzuhalten. Unserer Erfahrung nach ist es am besten, das bestehende Data Governance Framework auszubauen und bereits vorhandene Verfahren wo immer möglich zu nutzen – aber nicht davon auszugehen, dass das gleiche Vorgehen immer auch für Big Data funktioniert. Big Data erfordert einen grundlegenden Wandel in der Unternehmenskultur und im Datenmanagement, deshalb ist es sinnvoll, neue Data Stewarts zu ernennen, die auf große Datenmengen spezialisiert sind.

Das Fehlen von Know-how und Kompetenzen hinsichtlich Big Data ist die wichtigste Hürde, die es bei der Integration von Big Data ins Unternehmen zu beseitigen gilt. Also ist es erfolgsentscheidend für Big-Data-Initiativen, intern die richtigen Skills zu mobilisieren oder sich Hilfe von außen zu holen.

Volle Konzentration auf die Meta-Daten

Manchmal sind die Meta-Daten ebenso wertvoll wie der Inhalt an sich. Wenn es schon nicht möglich ist, die gleiche Genauigkeit bei Big Data anzusetzen, ohne die Vorteile zu riskieren, dann ist es doch essenziell, die „Big Metadata“ in den Griff zu bekommen.

Traditionelles Metadatenmanagement besteht darin, ein logisches Datenmodell zu erstellen und darin zu beschreiben, wie die Datenbanken miteinander interagieren. Aber ein gutes Big-Data-Modell beschreibt darüber hinaus genau, wie das Mapping von Servern auf interne und externe Datenquellen funktioniert. Damit verhindert es, dass riesige Datenströme nutzlos hin- und herfließen, und verdichtet den Transfer auf nützliche und relevante Informationen.

Balance zwischen Geschwindigkeit und Kontrolle finden

Wie ich in Teil 2 schon bemerkt habe, muss es ein Gleichgewicht geben zwischen Datenqualität, Kontrolle über die Daten und der Geschwindigkeit, in der Daten verarbeitet werden. Denn Daten aus unterschiedlichen Quellen zu verarbeiten, zeitnah zum Zeitpunkt ihrer Entstehung, gehört zu einem der wichtigsten Vorteile von Big Data.

In manchen Fällen ist es vorzuziehen, Datenqualität erst zu dem Zeitpunkt zu managen, wenn die Daten genutzt werden, nicht bereits während des Konsolidierungsprozesses. Die einzelnen Anwender sollten die Kompetenz erhalten, einfache DQ-Bewertungs-Methoden und Data-Profiling-Services selbst anzuwenden, sodass sie bewerten können, ob Daten für ihre Zwecke geeignet sind.

Erst vorhandene Daten nutzen und erst danach neue Quellen erschließen

Der finale Tipp ist, zunächst die großen Mengen an Daten zu nutzen, die bereits vorhanden sind, ehe externe Datenquellen angezapft werden. Das könnte bedeuten, historische Daten heranzuziehen, deren Verwendung in einem herkömmlichen EDW zu teuer ist, etwa unstrukturierte Daten aus E-Mails, Gesprächsaufzeichnungen, Logfiles und so weiter. Es wird geschätzt, dass Unternehmen aus dem Finanzsektor gerade einmal ein Prozent ihrer Daten für analytische Zwecke nutzen! Den Rest bezeichnen manche Experten als „Dark Data”. Eigentlich entsprechen diese vernachlässigten Daten aber einer Schatzkammer, die es wert ist, erforscht zu werden. Das ist sehr viel einfacher und günstiger, als neue Datenströme einzubinden.

Share

About Author

Olivier Penel

Advisory Business Solutions Manager

With a long-lasting (and quite obsessive) passion for data, Olivier Penel strives to help organizations make the most of data, comply with data-driven regulations, fuel innovation with analytics, and create value from their most valuable asset: data. As a global leader at SAS for everything data management and privacy-related, Penel enjoys providing strategic guidance, and sharing best practices and experiences in using data governance and analytics as a catalyst for digital transformation.

Related Posts

Leave A Reply

Back to Top