Datenqualität im Zeitalter der Digitalisierung

0

zahnrader-handDigitalisierung, Big Data, IoT, Smart Data – die Liste an Ansätzen, die den Klassiker „aus Daten mach Umsatz“ neu definieren wollen, wird länger und länger. An cleveren, schlüssigen und vielversprechenden Methoden mangelt es sicher nicht, ihnen allen gemein ist aber der mahnende Zeigefinger und ewige Spielverderber Datenqualität. Und wie das mit einem Spielverderber halt oft so ist, mag man ihn nicht wirklich. Denn er bedeutet Arbeit. 

Data as an Asset

So gut wie alle modernen Datenverarbeitungs-Initiativen sprechen vom Rohstoff "Daten", aus dem, wenn richtig bewirtschaftet, die Vermögenswerte nur so sprießen. Ein aus meiner Sicht durchaus legitimes Statement, doch was bedeutet das eigentlich? Kommen wir da mit einer rein technischen Abhandlung des Themas überhaupt noch aus? Werden aus den Bits und Bytes etwa nicht von selbst Umsätze und Gewinne? Bestimmt nicht. Weil sich ein Rohstoff leider nicht von selbst verarbeitet.

Ich versuche deshalb einmal eine rein ökonomische Betrachtung des Themas Datenverarbeitung und lehne mich hierzu frei - und soweit es mein Erinnerungsvermögen an die weit zurückliegende Studienzeit noch zulässt - an die Theorien eines der wichtigsten Vertretern dieser Disziplin.

Adam Smith nannte schon vor Jahrhunderten drei maßgebliche, allgemein gültige Produktionsfaktoren. Kapital, Boden und eben Arbeit. Umgemünzt auf unsere Datenwertschöpfungskette sprechen wir von Hardware und Software (Kapital), Daten (Boden) und Datenmanagement (Arbeit). Und zwar Datenmanagement als Tätigkeit, als Arbeitsprozess im Unternehmen. Der Outcome wird maßgeblich von allen drei Faktoren bestimmt - sobald ein Faktor ausfällt oder vernachlässigt wird, versagt der ganze Prozess. In Bezug auf Datenverarbeitung und dem mittlerweile allgegenwärtigen „Cutting-Edge“-Anspruch, den wir sowohl als Konsumenten als auch als Anbieter an moderne Technologien mitbringen, verlangt das aber nach Exzellenz in den Bereichen:

  • Data Quality & Integration,
  • Data Privacy/Security,
  • Data Governance und
  • Analytics

Dies sind die absoluten Grundlagen, sowohl bei der Infrastruktur (Hard- und Software) als auch bei der Umsetzung (Know-How, Methodik). Kapital und Arbeit eben, frei nach Adam Smith. Der Reifegrad dieser Schlüsselfaktoren diktiert den Erfolg. Schon immer. So auch jetzt in den Bereichen Data Warehouse, Big Data, Internet of Things oder Deep Learning.

Ohne Analytik geht nichts mehr

Zudem dürfen die einzelnen Themen auch keinesfalls isoliert betrachtet werden. Moderne Datenqualität, die den Anforderungen des Marktes und der Aufsicht entsprechen soll, kommt ohne Analytik nicht mehr aus, genauso wie umgekehrt selbstverständlich.

Dokumente und Datenbanken müssen automatisch durchsucht und klassifiziert, Ausreißer, Regelverstöße und verdächtige Transaktionen zeitnah erkannt und gemeldet werden. Das alles bei ständiger Einhaltung von externen und internen Datenschutzvorgaben. Zudem alles transparent, nachvollziehbar, wiederverwendbar, ausfallssicher, workflow-gestützt, dokumentationspflichtig und so weiter und so weiter.

Die Liste ließe sich noch ein ordentliches Stück fortsetzen. Das alles schafft kein Mitarbeiter mehr alleine. Auch keine Software. SQL schon gar nicht. Man benötigt zudem dringend eine Methodik, eine Route zum Ziel, ein Vorgehensmodell. Idealerweise eines, das auch direkt in die Software integriert ist. Und eines, das sich vor allem an Ihr Unternehmen anpasst - und nicht umgekehrt. Denn die anstehenden Daten-Hausaufgaben sind auch so schon umfangreich genug.

Eine erfolgreiche Datenwertschöpfung braucht also Menschen, Maschinen und einen Plan. Das ist die Datenmanagement Vision von SAS.

Share

About Author

Rainer Sternecker

Head of DACH Cloud Solutions, Customer Advisory

Rainer Sternecker is leading a team of customer advisory cloud architects in DACH driving cultural change for cloud adoption, developing cloud architecture and coordinating the adaptation process for SAS customers in DACH.

Related Posts

Leave A Reply

Back to Top