In meinem Beitrag „Big Data Origins: Super Mario hat‘s vorgemacht“ habe ich Super Mario zur Big-Data-Applikation der ersten Stunde erkoren. Doch beinahe hätte diese niemals das Licht der Welt erblickt, denn die Entwickler von Nintendo hatten einiges um die Ohren. Gemessen an den heutigen Ressourcen und Möglichkeiten scheinen sie zwar lächerlich gering,
Tag: Big Data Lab
Anknüpfend an meinen Einstieg in die Big-Data-Welt und nach meiner Reise in die Vergangenheit mit „In-Memory“ hat mich die Neugier gepackt. Was hat es mit anderen Technologien auf sich, die gerade dabei sind, unsere Welt zu revolutionieren? Blicken wir zunächst einmal auf „Event Stream Processing“ (ESP). Ein Thema, das gerade
Big-Data-Definitionen und -Herleitungen à la drei, vier oder noch mehr „V”s gibt es zur Genüge, alle wohldurchdacht und stimmig. Ihnen allen gemein ist aber die generelle Einordnung des Themas als Zukunftsinitiative. Übertrieben gesagt: weg vom Rechenschieber hin zur künstlichen Intelligenz, die alles perfekt entscheidet und aus dem Nichts heraus neue
Liz Maria Muller Junior ist aktiv im Netz unterwegs, dort vernetzt und meinungsbildend. Ihre Meinungen schätzen ihre „Follower“; das hat „ihr Data Scientist“ schon rausgefunden und ihr das Attribut „Influencer“ verpasst. Nach vielem Abmühen in seiner neuen Hadoop-Sandbox macht das ihren Data Scientist ein bisschen stolz: Eine wertvolle Neukundin wäre
Wenn es einen Begriff gibt, der in den letzten Jahren die IT-Branche außergewöhnlich geprägt hat, dann lautet dieser bestimmt „Big Data“. Kaum jemand konnte sich den unzähligen Beiträgen entziehen, das Thema war und ist in aller Munde. Auch ich selbst durfte das eine oder andere Mal von den berühmten Big-Data-„V“s erzählen.
In der Vergangenheit hat sich die Agilität von BI-, Big Data- und Analytics- Anwendungen (Datenarchitekturen) als Erfolgsfaktor für Unternehmen aus unterschiedlichsten Branchen erwiesen. Gerade die Integration neuer Datenquellen in bestehende DWH-Architekturen und die daraus resultierenden Anpassungen resultieren in langwierigen Entwicklungsprozessen.
Das Big Data Lab ist der beste Weg hin zum innovativen und profitablen Umgang mit Big Data. Aber welche organisatorischen Weichenstellungen führen eigentlich zum Erfolg? In meinem letzten Blog habe ich die wichtigsten Erfolgsfaktoren eines Innovationslabors für datenbasierte Use Cases skizziert: Experimentieren erlauben, Agilität ermöglichen und schnelles Scheitern (als Chance!)
Die veränderten Marktanforderungen zwingen viele Organisationen zur digitalen Transformation bestehender Geschäftsprozesse und Geschäftsfelder. Einzelhandel, Medien, Versicherungs-, Reise- und Logistikbranche sind sicherlich Vorreiter. Aktuelle Studien, zum Beispiel von Roland Berger, zeigen aber auch sehr eindrucksvoll die dramatischen Implikationen der digitalen Transformation auf die Industrie, das Retail-Banking oder Versicherungen.
Angenommen, ein Chemiker hat eine riesige Menge verschiedener Rohstoffe zur Verfügung. Er hat die Aufgabe aus diesen Rohstoffen ein neues Medikament zu entwickeln. Der Chemiker weiß noch nicht wofür, aber mit Hilfe seines Fachwissens über chemische Stoffe macht er sich daran, kreativ Ideen zu entwickeln. Er fängt an, eine Auswahl