Open-Source - Werden alle Analytics-Projekte kleinteilig?

0

Happy male face, smile pop art retro vector illustration

Der Top-Manager sitzt uns gegenüber und prognostiziert, dass die „kleinen Schnellboote“ unter den IT-Projekten der kommenden Monate ein hohes Gut sein werden. Er ist CIO einer der fünf größten Versicherer in Deutschland und spricht von agilen Projekten mit agilen Teams. Voraussetzung: entsprechende Software, die eine solche Agilität ermöglicht. Und an dieser Stelle wird uns aktuell in allen Branchen über die exzessive Verwendung von Open-Source berichtet.

Agilität wird als Ziel ausgerufen: Großrechner und Betriebssysteme wie z/OS werden zurückgefahren oder abgebaut, schnell verfügbare Open-Source-Tools, die ich einfach mal so aus der Cloud abonniere und starte, sind sehr gefragt, und die Unternehmen erfinden ihre Vorgehensweisen in Bezug auf Analytik neu.

Ist das nur ein Hype? Oder ist das vielleicht ein komplettes Re-Design analytischer Herangehensweisen? In allen Branchen?

Die Wahrheit ist, dass die schnell zugänglichen Open-Source-Technologien wie zum Beispiel R die Analytik-Welt kaum verändern, es ist vielmehr der Umgang der Analytiker mit diesen ganz besonders schnell zugänglichen Software-Werkzeugen.

Kostenbetrachtung als Beginn der Lernkurve?

2015 hat einer der größten in Deutschland sitzenden Mobilfunkanbieter nicht nur Hadoop als produktive Plattform zur Speicherung von Verbrauchsdaten mobiler Endgeräte eingeführt. Er hat auch Analysen der entsprechenden Mobildaten auf der Basis vermeintlich kostenfreier Open-Source-Analytics-Werkzeuge auf den Weg gebracht.

Warum „vermeintlich“? Die IT-Abteilung stöhnt unter der Last und dem Aufwand hochfrequenter Release-Erneuerungen im Umfeld des Open-Source-Zoos. Was kostet dieser Mehraufwand?

So weit sind andere Branchen noch nicht – es ist kein Zufall, dass viele Banken aktuell ihre Chief Digital Officers aus der Telko-Branche rekrutieren. Dort sind die Herausforderungen im Umgang mit Massendaten und deren Analyse wohl ein wichtiger Treiber dafür gewesen, früher in die Digitalisierung einzusteigen, als es die Finanzbranche getan hat.

Offensichtlich – wie an den Vorreitern der Retail- und Telekommunikationsbranche zu sehen ist – hat die Mathematik oder die Analytik der Open-Source-Werkzeuge inzwischen zu den Lösungen etablierter Anbieter wie SAS oder IBM aufgeschlossen.

Und diese Branchen werden auch die ersten sein, die erkennen, wie die initiale Ersparnis in der Software-Anschaffung über die Zeit durch einen massiv höheren Bedarf an Pflege und eine deutlich aufwendigere Weiterentwicklung zunichtegemacht wird.

Wie eine Neu-Erfindung der mathematischen Software

Die Inhalte verraten mehr über die alte industrialisierte Welt der Software-Plattformen und den Wandel hin zu den kleinen Software-Schnellbooten und kurzfristigen analytischen Erfolgen. Sie bringen zum Vorschein: Die Oberflächen eines herkömmlichen Data-Mining-Werkzeugs – über 20 Jahre entwickelt, gewachsen und erprobt – und eines neuen Open-Source-Data-Mining-Werkzeugs sind fast nicht mehr zu unterscheiden. Wir sehen Point & Click-Oberflächen mit Knoten, die dezidierte Funktionalitäten über eine Maus bedienbar machen. Und wir sehen in der Open Source Community Programmieroberflächen wie den Editor VI, mit dem ich schnell in Sprachen wie Python entwickeln oder mathematische Funktionen einfach einmal testen und ausprobieren kann.

Ein Editor, eine Sprache, mathematische Funktionen, los geht‘s. Die schnell erzielten Ergebnisse kann ich in meinem Team diskutieren – und auch wieder ganz schnell von vorne beginnen.

Schnellboote funktionieren nur im reibungslosen Betrieb

Alle diese Facetten neuer fachlicher Analytik-Prozesse und Anwendungsszenarien haben eines gemeinsam: Die Operationalisierung spielt in allen neu entwickelten Algorithmen – sei es die selbstlernende Maschine oder einfach nur ein ordinäres Data Mining – eine Schlüsselrolle. Alle Erkenntnisse meiner Forschungen möchte ich auch verwenden. Als Manager muss ich beweisen, dass sie im Tagesgeschäft einen Nutzen stiften.

Was nutzen mir Dutzende Schnellboote, die mit unterschiedlichen hochintelligenten Data Scientists besetzt sind und sich im Weg herumfahren? Spätestens die IT-Verantwortlichen wollen die gewonnenen Erkenntnisse in die Realität eines nutzenstiftenden Prozesses gießen – sie also produktiv machen.

Und hier zählt Liefern, zeitgerecht, auf top Service-Level, fehlerfrei. Und damit schließt sich wieder der Kreis von Agilität und Industrialisierung, oder nennen wir es: Operationalisierung. Ich benötige ein professionelles Model-Management meiner mathematischen Funktionen, eine Nachvollziehbarkeit meiner durchgeführten Analysen und natürlich eine Verfügbarkeit der Informationsgewinne für die Fachbereiche – damit diese die in der agilen Anfangsphase des Projektes gewonnenen Erkenntnisse auch produktiv zum Nutzen des Unternehmens verwenden können.

Share

About Author

Christian Engel

Based in Germany, Christian Engel is a Head of Banking experts and advisors for SAS

Christian Engel has lead a group of strategic business analytics advisors for key SAS accounts since 2006. His academic background is in mathematics and he completed his Diploma degree with concentrations in Operations Research in 1996 in Darmstadt. His day-to-day work involves calculating the value contribution of analytics software, optimizing analytic platforms for departments, and innovation projects related to new software technologies.

Related Posts

Leave A Reply

Back to Top