Der Blockbuster Open Source: Die richtige Mischung macht’s

0

Open source concept image with business icons and

Offener Quelltext, freie Verfügbarkeit, Begeisterung und Engagement für eine Sache, einfach loslegen und mit der Umsetzung anfangen und die Weiterentwicklung durch viele Personen – das sind einige Punkte, die Open Source auszeichnen.

Linux ist ein gutes Beispiel, wie eine Idee und der initiale Funke zu einem weltweit verbreiteten Betriebssystem führte. Aus der Arbeit eines Einzelnen an einem Kernel wurde so eine Erfolgsgeschichte.

Dass es bei Open Source auch eine negative Seite gibt, hat 2014 die Sicherheitslücke „Heartbleed“ gezeigt: über Nacht war Open Source in allen Medien. Da aber Sicherheitslücken auch in kommerzieller Software vorkommen, ist dies kein Argument gegen den Einsatz von Open Source.

Open Source hat im Laufe der Zeit immer wieder große Innovationen hervorgebracht. Manches was auf den ersten Blick gut aussah, entpuppte sich auf den zweiten als Flop und verschwand wieder. Bis Open Source einen Reifegrad erreicht hat, vergeht schon mal eine Zeit. Diese Erfahrung mache ich im Umgang mit Open Source Software immer wieder, jedes Mal fühle ich mich in der Zeit zurück versetzt.

Da wird das längst vergessene Arbeiten auf Ebene einer Kommandozeile wieder zum Alltag. Etabliert sich ein Open Source Software Stack, entstehen Werkzeuge, die eine umfangreiche Nutzung ermöglichen, ohne das es tiefgehender Kenntnis Bedarf. Hier gibt es zwei Entwicklungsstränge, einen der weiterhin freie Software entwickelt und einen anderen bei dem kommerzielle Hersteller ergänzende Software für Open Source entwickeln.

Nehmen wir das Hadoop-Framework als Paradebeispiel für die nächste Open Source Innovation. Genießen in den USA die Hadoop-Cluster schon eine spürbare Verbreitung, sieht die Lage hierzulande noch anders aus.

Hadoop wird Thema und rückt bei Big Data in den Blickpunkt, auch als Change etwas anders zu machen und davon zu profitieren. Wer das Hadoop-Framework einsetzen möchte, sollte sich zuerst für eine Distribution entscheiden und nicht mit Hadoop-Core anfangen. Bei der Hadoop-Core Variante hat man nur eine Kommandozeile und HDFS und muss die Installation von Hive, Hue, YARN, Ranger, Zookeeperin Eigenregie durchführen, sowie die Release-Abhängigkeit und Kompatibilität selbst sicherstellen.

Dazu sind Distributionen die erste Wahl, da in diesen das Hadoop-Framework paketiert ist und den schnellen Einstieg ermöglichen. Um die Release Abhängigkeit und Kompatibilität innerhalb des Hadoop Zoos kümmert sich der Distributor. Es gibt Distributionen die komplett Open Source sind und welche, die eine Mischung aus Open und Closed Source darstellen.

Nur Open Source im Bereich Hadoop einzusetzen, kann eine Strategie sein, dafür bedarf es aber Spezialisten, welche die Open Source Komponenten bedienen können.

Nur wenn Fachbereiche Hadoop für Ihre Arbeit instrumentalisieren können, liefert die Technologie ihren Geschäftsbeitrag. Möchte man Hadoop an vielen Stellen im Unternehmen, mit einem großen Anwenderkreis nutzen, dann führt nur der Mix zum Ziel. Die Kombination von freier und kommerzieller Software, macht die Open Source Innovation Hadoop massentauglich und damit zum Blockbuster. Der Richtige Mix macht’s!

Warum unterstützt SAS Hadoop?

Die Zielsetzung ist, die verschiedenen Strategien der Kunden im Hadoop Umfeld zu unterstützen. Es kommt auf die richtige Mischung an. SAS bietet viele Möglichkeiten, sei es bei der Unterstützung der Frage: wie bekommen ich meine Daten aus verschiedenen Quelle nach Hadoop? Code Acceleratoren, welche das Hadoop-Cluster zum Arbeiten bringen, ohne dass programmiert werden muss (Hive, Java).

Open Source in Form von Hadoop wird sich ebenso etablieren wie Linux, der gelbe Elefant ist auf dem Weg. Noch ein Tipp: Wenn man sich auf den Weg des Abenteuers Hadoop macht, sollte man seine Werkzeuge sorgfältig auswählen, sonst hat man Hammer, Meißel und Steintafel zum Schreiben anstatt einer modernen grafischen Anwenderoberfläche, die experimentieren erst möglich macht. Hier können Sie es ausprobieren!

Share

About Author

Torsten Beck

Sr Solutions Architect

Torsten Beck arbeitet bei SAS als Senior Solutions Architect im Center of Excellence Data Management und ist in Deutschland, Österreich und Schweiz aktiv. Seit mehr als 15 Jahren ist er in der Informationstechnologie tätig, darunter mehrere Jahre als SAP-Berater. Zu seinen Arbeitsschwerpunkten gehören, die Integration von SAP-Systemen, Datenmanagement insbesondere Datenqualität sowie Themen im Zusammenspiel mit Hadoop.

Leave A Reply

Back to Top