Big data is like teenage sex: everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it…” (Dan Ariely, Duke University, 2013)
Es ist unstrittig, dass Big Data heute bereits in vielen Bereichen eine enorme Bedeutung hat und zukünftig noch mehr haben wird. Immer mehr Geschäftsmodelle basieren auf Daten. Bei den großen Internetunternehmen (Facebook, Google, …) sollte dies mittlerweile eigentlich auch jedem Silver Surfer, Facebook-Kiddie und Twitter-Vögelchen klar sein. Die personenbezogenen Daten werden bei diesen Unternehmen als Aktivposten gesehen und stellen oftmals einen/den entscheidenden Vermögensgegenstand dar. Ist Big Data also das “neue Öl“? Vielleicht …
Interessant ist, dass mittlerweile auch viele Großkonzerne, die mit klassischen Produkten groß geworden sind, sich in diese Richtung entwickeln. Microsoft bietet bspw. das aktuelle Update auf Windows 10 wohl kaum aus Nächstenliebe an. Die Konsumenten bezahlen, wie so oft, auch hier mit ihren Daten. Die Datenschutzbestimmungen von Microsoft erstrecken sich mittlerweile auf 37 Seiten.
Doch was verbirgt sich hinter Big Data wirklich? Ist es einfach nur die Datensammelwut von großen Konzernen? Ist es die das Zusammenbringen und Speichern unterschiedlichster Datenquellen, oder ist es die tatsächliche Auswertung der Daten? Die Definitionen und Meinungen sind hier sehr unterschiedlich. Grund genug einmal genauer hinzusehen.
Das originäre Verständnis von Big Data ist im Wesentlichen technisch geprägt. Die beiden NASA Wissenschaftler Michael Cox und David Ellsworth erläutern Big Data 1997 wie folgt: “Visualization provides an interesting challenge for computer systems: data sets are generally quite large, taxing the capacities of main memory, local disk, and even remote disk. We call this the problem of big data. When data sets do not fit in main memory (in core), or when they do not fit even on local disk, the most common solution is to acquire more resources.” Ein Verständnis, welches den Aspekt “Volume” in den Vordergrund stellt und bis heute oftmals, insbesondere im IT-Umfeld, mit dem Terminus “Big Data” assoziiert wird.
Am weitesten verbreitet ist jedoch die Big Data Charakterisierung von Doug Laney (heute Analyst bei Gartner), mit den 3 Vs: Volume, Velocity, Variety. Natürlich sind diese 3 Aspekte auch heute noch von hoher Bedeutung, wenn es um Big Data geht. Durch die gesteigerten technischen Verarbeitungsmöglichkeiten und die fortschreitende Digitalisierung (Digitale Revolution) verschiedenster Bereiche, sind weitere Aspekte hinzugekommen. Hierbei sind insbesondere verschiedene Auswertungsformen und der damit verbundene Wert der Daten zu sehen. Häufig wird deshalb auch von weiteren „Vs“ wie bspw. Value oder Veracity gesprochen. Kirk Borne (Professor an der George Mason University) hat aus der Vielfalt der unterschiedlichen „Vs“ eine „Top 10“ Liste erstellt:
|
||||||||||||||||||||||||||||||||
FAZIT: Auch die Liste von Borne ist sicher nicht vollständig, kann hinterfragt, oder mit beliebigen „Vs“ erweitert werden. Das Entscheidende ist jedoch, dass das Spektrum von Big Data in der Praxis enorm vielseitig ist. Meine und die Erfahrung vieler Kollegen ist, dass Verantwortliche in Unternehmen häufig allerdings nur wenige von diesen Aspekten im Zusammenhang mit Big Data sehen. Man könnte dies nun als Nachlässigkeit oder Risiko werten. Ich sehe hier eher eine Chance. Eine Chance, Zusatznutzen oder Mehrwerte mit Big Data zu generieren. Um die Diskussion dabei nicht zu früh zu ersticken, empfiehlt es sich, den Aspekt Volume („… wir haben kein Big Data.“) manchmal einfach auszuklammern. |
|