Die Ganesha-Strategie - Hadoop mit SAS

0

Sie kennen den kleinen gelben Elefanten schon? Hadoop verändert gerade die Welt – zumindest in der IT. Es gibt Experten, die prophezeien, dass bereits in den nächsten drei Jahren mehr als die Hälfte aller Daten der Welt in Hadoop gespeichert werden.

Ganesha - GaneshFakt ist: Bereits heute liegen die durchschnittlichen Kosten pro Terabyte Datenhaltung in einem Hadoop-Cluster bei 500 Dollar. Während bei einer relationalen Datenbank 10.000 Dollar oder gar noch mehr Kosten anfallen. CIOs unter Kostendruck – und wer ist das nicht? – prüfen deshalb sehr genau, wo und wie sie Hadoop in ihrem Unternehmen einsetzen können.

Zumal Hadoop auf einfaches Skalieren ausgelegt ist, indem einfach weitere (günstige) Knoten ergänzt werden – und eben keine teure Migration auf noch teurere größere Hardware erforderlich wird. Das Problem bei Hadoop ist: Es fehlt an Know-how an allen Ecken und Enden. Es gibt einfach viel mehr Programmierer, die SQL beherrschen, als solche, die mit Map/Reduce – dem Programmier-Paradigma von Hadoop – umgehen können. Hier ist noch nicht einmal die Rede von den vielbeschworenen Data Scientisten, die zur Programmierfertigkeit auch noch gute Mathematiker und gute Kommunikatoren sein müssten.

Data Discovery - Erkenne deine Daten!

Weil Hadoop so gut geeignet ist, große Mengen von Daten aufzunehmen, bietet es sich als Data Discovery-Plattform förmlich an. Data Discovery wird immer mehr als der eigentliche Kern von Big Data Analytics verstanden: Es geht eben nicht darum, VORHER zu wissen, was in einem Datentopf steckt und das über Datenmodellierung und Datawarehousing technisch abzubilden. Sondern es geht darum, EXPLORATIV eine Vielzahl unterschiedlichster Datenquellen miteinander zu kombinieren und eine Vielzahl von Analysen durchzuführen: von einfachen deskriptiven Statistiken (Mittelwerte, Grafen und Summen ) bis zu Machine Learning und Mustererkennung.

In der Vergangenheit haben einige wenige Spezialisten Data Discovery betrieben, meistens in analytischen „Sandboxen“. Der Unterschied: In den Sandkästen wurde auch nur mit Spielzeug gespielt: Auszüge, veraltete Schnappschüsse und bereinigte, strukturierte – besser gesagt: relationale - Daten. Im Hadoop-Zeitalter geht es aber um alle Daten, ob strukturiert oder nicht, die vollständig zur Verfügung stehen.

Nun, wenn jetzt so viele Daten so günstige gespeichert werden können, stellt sich die Frage: Wer soll das denn machen? Der Vorschlag von SAS ist: Lasst die Leute an die Daten ran, die Geschäftsprozesse verstehen und Ergebnisse interpretieren können. Und eben nicht (nur) die Data Scientiests oder mathematischen Experten oder Datenintegrationsspezialisten. Lassen wir die zehntausende SAS-User an die Daten in Hadoop heran – jeden nach seinem Kenntnisstand. Dazu bietet SAS bereits jetzt ein breites Spektrum von Werkzeugen rund um Hadoop an – vom Datenmanagement bis hin zu In-Memory-Statistics for Hadoop.

Und was ist jetzt die Ganesha-Strategie? Ganesha ist im Hinduismus der Beseitiger von Hindernissen, dargestellt als vierarmige Gottheit mit Elefantenkopf. In gewisser Weise könnte man sagen: SAS beseitigt die Hindernisse, die der kleine gelbe Elefant Hadoop mit sich bringt und verhilft ihrer Hadoop-Strategie zum Durchbruch.

Tags Hadoop
Share

About Author

Thomas Keil

Director Marketing

Dr. Thomas Keil is a specialist for the impact of technology on business models and on society in general. He covers topics like Digital transformation, Big Data, Artificial Intelligence & Ethics. Besides his work as Regional Marketing Director at SAS in Germany, Austria and Switzerland he regularly is invited to conferences, workshops and seminars. He serves as advisor to B2B marketing magazines and in program committees of AI-related conferences. Dr. Thomas Keil 2011 came to SAS. Previously, he worked for eight years for the software vendor zetVisions, most recently as Head of Marketing and Head of Channel Sales.

Leave A Reply

Back to Top