Big Data Governance - ein Data Lake, kein Datensumpfgebiet

0

Dies ist der zweite Teil der Blog-Serie zu Big Data Governance. Beginnen Sie vorher am besten mit „Teil 1: Wie Big Data Unternehmen durcheinanderwirbelt”, wenn sie ihn noch nicht gelesen haben.Im zweiten Beitrag will ich erklären, warum Big Data die Ansprüche an Data Governance verändert und worin die großen Herausforderungen für Unternehmen liegen.

Mehr Daten garantieren nicht bessere Entscheidungen

Besonders spannend am Big-Data-Phänomen ist, dass alte Probleme wieder ins Rampenlicht gerückt werden. Bestes Beispiel:. Ohne ein verlässliches Data-Governance-Programm riskieren Sie, dass die zur Verfügung stehenden Daten völlig unpassend oder nicht zu gebrauchen sein. Schließlich sind Entscheidungen, die auf Petabytes von schlechten Daten beruhen, keinen Deut besser als solche, denen nur ein paar ungenaue Datensätze zugrunde liegen.

Big Data stellt neue Anforderungen an Data Governance

o_penel_data-lake_datensumpf_1Big Data bringt neue interne und externe Datenquellen ins Spiel. Diese finden Anwendung in neuen Business-Szenarien, die wiederum Unternehmen Wege aufzeigen, wie sie Daten als Wettbewerbsvorteil nutzen können.

 

 

Neue Datenquellen sind unter anderem:

  • Betriebsdaten aus ERP, CRM und Finanzwesen,
  • unstrukturierte Daten, beispielsweise aus Word-Dokumenten, E-Mails oder Gesprächsaufzeichnungen – also Informationen, die ein herkömmliches Enterprise Data Warehouse (EDW) nicht verarbeiten kann,
  • Datenströme aus dem Web und Social Media,
  • Datenströme aus dem Internet of Things, insbesondere Sensordaten.

Big-Data-Analyselösungen bringen all diese Daten zusammen. Unternehmen werden dadurch in die Lage versetzt, innovative Strategien und neue Anwendungsszenarien in der Praxis umzusetzen. Zum Beispiel:

  • EDW fit für Hadoop zu machen, um sich den günstigen Speicherplatz für Advanced Analytics zunutze zu machen,
  • Sentiment-Analysen: Kundenbindung und Produktentwicklung auf Basis von Kunden-Feedback,
  • bessere Kunden-Segmentierung, um die Bindung zu erhöhen und gezielte Marketing-Kampagnen zu starten,
  • in Echtzeit die Kunden mit dem größten Potenzial identifizieren; oder in Echtzeit ein Next-best-Offer realisieren; auf Basis von Standortdaten maßgeschneiderte Empfehlungen an mobile Geräte schicken,
  • Betrugserkennung und -prävention, um kriminelle Netzwerke und betrügerische Absichten zu erkennen und zweifelhafte Transaktionen zu stoppen,
  • Risikobewertung in Echtzeit oder zumindest die Möglichkeit, gesamte Risiko-Portfolios eher in Minuten als in Wochen neu zu berechnen,
  • und viele andere Szenarien wie Preis- und Lageroptimierung, Routenoptimierung, Predictive Asset Maintenance und Wettbewerbsanalyse.

Die neuen Datenquellen und neuen Anwendungsszenarien verändern die Arbeit der IT-Abteilung. Die allgemeinen Grundsätze sind zwar immer noch in Kraft, aber Big Data wirft neue Fragen auf, die die Data-Governance-Spezialisten beantworten müssen:

  • Wie lassen sich Datenqualität und Datenstandards gewährleisten, wenn die Daten aus neuen, zumeist externen Quellen stammen und in unstrukturierter Form vorliegen? Sie befinden sich dann außerhalb der Reichweite traditioneller Data-Governance-Programme.
  • Wie steht es um Privatsphäre und Datenschutz, wenn viele Daten in einem Data Lake gesammelt werden? Dürfen wir diese Daten überhaupt speichern? Für wie lange? Wer sollte darauf Zugriff haben? Wie dürfen wir sie nutzen?
  • Legt man an Big Data den gleichen Maßstab an wie an herkömmliche Daten, untergräbt man die Vorteile von Big-Data-Projekten: schnelle Datenintegration und Bearbeitung von Datenströmen in Echtzeit. Entscheidend ist ein Gleichgewicht von Qualitätsanspruch und Geschwindigkeit.Big Data sinnvoll zu steuern, stellt die IT vor neue Herausforderungen:

Big Data bereitet der Data Governance nachhaltiges Kopfzerbrechen

Es gibt nur minimale Standards für Datenstruktur, Definition, Datensemantik und Inhalt, weil die Quellen so unterschiedlich sind und extern entstehen oder unstrukturiert sind. Der Data-Governance-Verantwortliche muss zunächst mit der Qualität arbeiten, in der die Daten zu ihm kommen. Von unternehmensinternen Anwendungen ist er mehr Kontrolle gewohnt. Relevanz und Aussagekraft der Daten werden wichtiger; die Probleme rund um Zugriff und Speichern der Daten sind gelöst. Privatsphäre und Datenschutz müssen im Auge behalten werden: Die Speicherung und Verwendung der Daten muss den Bestimmungen des Datenschutzes entsprechen. Und letztendlich gibt es das Risiko von „Fast Trash”, das aus dem Wunsch nach Echtzeit-Analytics erwächst.

Fazit: Je mächtiger eine Technologie ist, umso mehr Wert müssen wir auf deren Steuerung legen!

Share

About Author

Olivier Penel

Advisory Business Solutions Manager

With a long-lasting (and quite obsessive) passion for data, Olivier Penel strives to help organizations make the most of data, comply with data-driven regulations, fuel innovation with analytics, and create value from their most valuable asset: data. As a global leader at SAS for everything data management and privacy-related, Penel enjoys providing strategic guidance, and sharing best practices and experiences in using data governance and analytics as a catalyst for digital transformation.

Related Posts

Leave A Reply

Back to Top