Big Data? Ich kann es schon nicht mehr hören!

 „Wieder ein Berater, wieder ein Systemintegrator, wieder ein Outsourcer und wieder ein Software- oder Hardware-Hersteller, der mir erzählt, dass Big Data der Trend der Zukunft ist. Jeder erzählt mir, wie wichtig „Big Data“ für mein Unternehmen sind. Und wenn ich hier nicht zustimme, bin ich gleich ein Innovationsverweigerer. Die Nachfrage nach konkreten Anwendungsfällen führt mich immer zu denselben Fällen branchenfremder Unternehmen, die für mich nicht anwendbar sind. Oft wurden diese Beispiele auch schon realisiert, lange bevor der Begriff „Big Data“ durchs Feuilleton wandert, also was ist da neu?

So oder ähnlich berichten mir Kunden über ihre Erfahrungen und firmeninternen Diskussionen zu „Big Data“. Da die Berichterstattung über die "großen Daten" langsam eine Größenordnung erreicht, die selbst schon wieder Big Data ist, erreicht man schnell den Punkt, das man einfach nicht mehr mitdiskutieren will, sondern eben jetzt die PS auf die Straße bekommen will. Read More »

Post a Comment

Konrad Adenauer gegen Big Data?

Laut aktuellem Gartner Hype Cycle ist der Hype um Big Data verglüht und die Phase der Ernüchterung ist eingetreten. Da höre ich schon viele in den Unternehmen sagen: "Hab ich ja gleich gesagt", "Das war total überbewertet", "Wir haben bei uns im Unternehmen keine Big Data", "Wir dürfen aufgrund des Datenschutzes sowieso nichts mit den Daten machen". Oder mein Favoriten: "Wir von der IT würden ja gerne, aber der Fachbereich hat keine Anforderungen bzgl. BigData" und "Andere in unserer Branche machen auch noch nichts". Und man weiß auch direkt, woran es liegt: "Der Gesetzgeber muss erstmal seine Hausaufgaben machen und die Rahmenbedingungen setzen - da ist noch vieles ungeklärt".

Für mich, der ich mich seit mehr als 25 Jahren mit Daten und BI beschäftige, sind das alles Indikatoren, dass man entweder die Chance hinter Big Data noch nicht versteht oder einfach nicht den Mut und die Durchsetzungskraft aufbringt, etwas Neues zu wagen. Denn tatsächlich sehen wir weltweit sehr spannende Anwendungsfälle von Big Data, die nicht nur interessant zu erzählen sind, sondern die alle konkreten Nutzen stiften - sei es Kosten zu sparen, Prozesse effizienter zu machen oder Umsatzpotentiale über neue Business Modelle zu erschließen. Beispielsweise möchte ich dazu diese Seite mit Best Practice Beispielen erwähnen.

Was also hindert uns, die steigende Datenflut für neue Vorgehensmodelle zu nutzen, statt uns verdrossen hinter Schutzwällen aus Datenschutzgesetzen und anderen Hindernissen zu verstecken?

Quelle: Wikipedia

  1. Mentalität: Wir Deutschen sind neuen Dingen gegenüber prinzipiell erstmal sehr skeptisch. Insbesondere wenn es um neue Technologien geht. Ich habe oftmals den Eindruck, dass uns ein Wahlplakat aus den 60er Jahren noch heute tief im Kopf herumspukt: "Konrad Adenauer - keine Experimente". Dieses war ja, wie uns die Geschichte lehrt, eine sicherlich sinnvolle Strategie zum damaligen Zeitpunkt - zumindest für die politische Entwicklung von Deutschland. Dies ist jedoch in der heutigen schnelllebigen Zeit nicht mehr die richtige Strategie. Wir unterschätzen die Tragweite der digitalen Transformation und fühlen uns in vermeintlicher Sicherheit. Fälle wie Nokia sind für uns weit weg. Dabei finden diese Veränderungen, getrieben durch neue, sich schnell verändernde technologische Möglichkeiten jeden Tag statt. Seien es im B2C Bereich neue Nutzungsmöglichkeiten mobiler Endgeräten, die bestehende Prozesse wie bspw. Bezahlprozesse komplett verändern und möglicherweise große Auswirkungen auf ganze Branchen, das der Kreditkartenunternehmen, haben kann. Sei es die Nutzung von Sensordaten, um bspw. Wartungsprozesse oder Logistiksteuerungen komplett zu verändern. Wenn ich mir die BigData Anwendungsfälle anschaue, die wir bereits bei Kunden umgesetzt haben, gibt es auch keine Branche, die davon nicht betroffen ist. Und trotzdem: keine Experimente.
  2. "Sense of Urgency": Made in Germany hat sich noch immer durchgesetzt - kein Grund zur Panik. Keine Frage, wir Deutschen haben durch unsere Ingenieurskunst, durch solides Handwerken und durch strukturiertes strategisches Arbeiten einen weltweiten Ruf erarbeitet, der mit Qualität "made in Germany" unsere Volkswirtschaft zu einer der Führenden werden ließ. Qualität hat sich noch immer durchgesetzt. Selbst wenn andere billiger und schneller waren, haben wir immer am nachhaltigsten produziert. Aber: Die Produktwelt verändert sich. Einerseits steigt der Anteil von datenbasierten Produkten und Dienstleistungen im Anteil am Volkswirtschaftsvolumen. Andrerseits erwartet der Endverbraucher wie auch der Industriekunde entsprechend mit Datendiensten angereicherte Produkte und Dienstleistungen.
  3.  Fokus IT-Effizienz: Nach meiner Erfahrung haben sich viele IT Abteilungen in den letzten Jahren aufgrund von Kostendruck und entsprechender Sparziele maximal schlank aufgestellt. Projekte müssen einen klaren ROI in kurzer Zeit nachweisen. Prozesse wurden ausgelagert, Mitarbeiterabgänge oftmals nicht mit jungen Leuten nachbesetzt. Zwischen IT und Fachbereich wurden entsprechend auf Effizienz getrimmte Prozesse implementiert. Die unbeabsichtigte Nachricht an die IT und Fachbereiche dabei war jedoch: Für neue Ideen ist kein Platz. Ausprobieren und sich mit neuen Dingen beschäftigen ist ineffizient. Im Zweifel bleibt dafür eh keine Zeit. Wir haben also das Experimentieren verlernt bzw. es möglicherweise unbewusst verboten. s. Adenauer: "keine Experimente".

Aber es verändert sich etwas. Da keiner etwas verpassen will, sehe ich zunehmend Aktivitäten in den Unternehmen, die ich folgendermaßen überschreiben möchte.

Die Suche nach dem goldenen Big Data Use Case

Ich habe in den letzten 15 Monaten mit vielen Unternehmen - IT wie Fachbereich - zum Thema Big Data gesprochen. Alle denken über Big Data nach, einige können den Begriff schon nicht mehr hören, so viele interne Workshops wurden bereits dazu durchgeführt. Die meisten sind auf der Suche nach dem Use Case - dem Anwendungsfall, den das Unternehmen quasi in eine neue Ära führen soll. Es werden Personen definiert, die sich mit Big Data beschäftigen, einige Unternehmen haben Innovationsteams gegründet, einige CIOs haben ihre Architekten auf Hadoop-Kurse geschickt. Die IT fragt endlich den Fachbereich, was man mit mehr Daten machen würde. Keine Frage - alles sehr sinnvolle Dinge. Nur irgendwie scheint der geniale Use Case nicht gefunden. Viele sagen mir, sie werden erst investieren, wenn der Fachbereich mit konkreten Anforderungen kommt, wenn sich ein Business Case ergibt. Die IT könne ohne nicht investieren (s. Punkt 3 oben). Meine These: Diesen Use Case werden sie nicht finden. Jedenfalls nicht in kurzer Zeit. Und ich bin mit der Meinung nicht allein, wie sich im Rahmen des Big Data Forums 2014 gezeigt hat.

Warum einfach, wenn es auch kompliziert geht?

Der Hype um Big Data hat dazu geführt, dass man hiermit etwas innovativ neues verbindet, eine Anwendung, die das bisherige Geschäft verändert. Dies ist aber irreführend, weil der Weg dorthin meines Erachtens nur über Bekanntes führen kann. Natürlich ergeben sich neue Chancen, wenn man bisher unbekannte Daten in seine Datenwelt integrieren und analysieren kann, noch besser, wenn diese Daten einem bei dem Auffinden neuer Erkenntnisse und bei dem Beantworten bisher unbekannter Fragen helfen würden. Aber dies ist kein einfacher Weg und die meisten Unternehmen sind hierfür nicht ausgerichtet - weder von den Skills noch von den Prozessen her. Einfacher ist es, sich mit bekannten, bisher aber weitgehend ungenutzten Daten und bekannten Fragen auseinanderzusetzen und hier Vorteile der neuen Technologien zu nutzen. Hierüber wird dann schrittweise Wissen und Erfahrung aufgebaut und zunehmend weitere Potentiale erkannt.

Für diesen ersten Schritt - bekannte Daten, bekannte Fragen - sehe ich drei naheligende Szenarien:

1. Das DWH entlasten

2. Unstrukturierte Daten nutzen

3. In einer Sandbox experimentieren

Das DWH entlasten

Nahezu jedes DWH ist bereits in die Jahre gekommen und beginnt, unter den zunehmendes Anforderungen zu ächzen. Seien es mehr Daten aufgrund von erhöhten Anforderungen zu Historienbildung, erhöhter Detailtiefe der Daten oder aus vorausgegangenen Mergern. Oder aber kürzer werdende Batchfenster kombiniert mit steigender Menge an Data Marts. Hier können neue Technologien wie Hadoop eine gute Entlastung bieten und gleichzeitig den Kostendruck der IT adressieren. Aufwändige ETL Prozesse können in günstiger Hadoop Hardware gerechnet werden und skalieren aufgrund der verteilten Architektur wesentlich besser. Da die Daten weiterhin in das DWH geschrieben werden, ist dies kein revolutionärer Schritt für die Architektur und den Endanwender. Auf diese Weise kann aber sehr schnell und effizient gelernt werden, wie Hadoop das heutige Warehouse sinnvoll ergänzen kann. Mit diesem Wissen können dann leichter weitere Use Cases umgesetzt werden.

Unstrukturierte Daten nutzen

Jedes Unternehmen hat hinreichend viele Texte, die heute weitestgehend ungenutzt gespeichert werden. Zudem stehen viele textuelle externe Informationen den Unternehmen zur Verfügung, die aber in ihrer schieren Menge nicht konsistent im Unternehmen genutzt werden. Diese Texte automatisch und mit aktueller Analysetechnik zu verarbeiten, kann ein einfacher und logisch nächster Schritt sein. Anreicherung von Kundendaten, Analyse von Beschwerden, Analyse von Werkstattberichten zur frühzeitigen Identifikation von Garantiefällen, Analyse von Nachrichtentexten zur Identifikation von wirtschaftlichen Schwierigkeiten von Unternehmen bspw. im Zuge von Rating Prozessen oder zur Identifikation von Geschäftspotentialen für einen B2B Vertrieb.

In einer Sandbox experimentieren

Bisher stellen wir den Anwendern wohldefinierte Datentöpfe zur Verfügung, die in der Regel nur einen kleinen Ausschnitt aus der Gesamtheit der Daten bieten. Oftmals werden sogar Strukturen zur Analyse vorgedacht (klassisches OLAP). Dass aus diesen Datentöpfen keine neuen Erkenntnisse gewonnen werden, erscheint nicht überraschend. Was wäre aber, wenn man den Fachexperten alle für Ihr Sachgebiet relevanten Daten zur Verfügung stellen könnte und sie in diesen Daten frei nach Zusammenhängen und Trends suchen könnten. Dann würden sie mit der Zeit auch andere Fragen als die bisher vorgedachten stellen und somit auf Basis ihrer Big Data weitere Ideen und Ansätze für Analysen erkennen. Das Ergebnis sind dann neue Hypothesen und Erkenntnisse über die zukünftigen Gestaltung des Geschäfts - Dinge, die mit der Abfrage von vorstrukturierten Vergangenheitsdaten nicht möglich sind. Diesen Ansatz bezeichne ich als "explorative Sandbox" - einer Umgebung zur freien Analyse auf Detaildaten, mit analytischen Werkzeugen und in einer abgeschlossenen Umgebung, parallel zur heutigen BI Landschaft. Über einen solchen Sandbox Ansatz können Sie im Unternehmen Neugier und neue Idee erzeugen, die dann Grundlage für weitere Big Data Ansätze sein werden. Nach einiger Zeit werden Sie dann in einem zweiten Schritt weitere, dann eher unbekannte Daten analysieren und mit den bisher bekannten Daten kombinieren. Mit analytischen Werkzeugen können Sie dann auch zunehmend Modelle abbilden, die Antworten auf bisher unbekannte Fragen liefern können. Alle drei Ansätze haben eins gemeinsam: die Bereitschaft und die Kultur zum Experimentieren. Also vergessen sie endgültig Adenauer. Sie brauchen Experimente! Schaffen Sie Raum dafür. Möglicherweise ist dies für uns Deutsche anstrengend. Dass es sich lohnt, zeigen die vielen positiven und interessanten Anwendungsfälle aus allen Branchen. All diese haben mit ersten Experimenten angefangen. Also: Suchen Sie keinen goldenen Big Data Use Case, bei dem Sie erstmal richtig investieren müssen. Fangen Sie in einem kleinen Bereich an und schaffen sie hiermit schnelle Erfolge.

Mehr Informationen finden Sie auch in dieser Slideshare:

Slideshare

Post a Comment

Willlkommen zur SAP TechEd: Analytic Cloud Services ohne Schranken mit SAS und SAP Hana

Heute in Berlin: Die Welt der Cloud Services wird einer der Schwerpunkte der SAP TechEd und d-code und ist sicher auch für mich eines der spannendsten Themen in der IT. Sogar Fragestellungen, die den Einsatz analytischer Verfahren mit ansprechenden Namen wie Neuronale Netze oder Support Vector Machines voraussetzen, werden in Zukunft durch Applikationen in der Cloud beantwortet. Nicht von ungefähr steigt daher auch das Interesse in den Unternehmen an solchen Lösungen.

Um was geht es

Der Analytics-Softwaremarkt hat sich aus den Kinderschuhen der einfachen Abfragen stark weiterentwickelt und bietet viele Einsatzgebiete für die moderne Daten-Wissenschaft, die Data Science:

  • Telekomanbieter oder Händler suchen nach dem Next Best Offer,
  • Banken und Versicherungen nach dem optimalen Preis sowie der Erkennung von Betrugsfällen
  • und die Automobilindustrie bewegt sich mit dem Internet der Dinge auf neue Geschäftsmodelle zu, die uns bald integrierte Mobilitätskonzepte bringen werden.

Die Cloud Services der Zukunft werden viele dieser Anwendungsfelder als kleine, komponentisierte Apps anbieten. Umfangreiche Geschäftsprozesse wie das Order Management oder die Finanzbuchhaltung stückelt man ja bereits heute in Simple Finance Applikationen mit schicken Benutzeroberflächen in verdaubare Häppchen und bietet diese auf Wunsch in der Cloud an.

Auch analytische Fragestellungen lassen sich in verständliche Teilschritte unterteilen - der Anwender wird von der Komplexität der Berechnungen und der notwendigen Prozessor-Power verschont.

Nur am Rande: Die Konzepte dieser neuen Welt reichen bereits gut zehn Jahre in die Vergangenheit zurück, als mit der Service-orientierten Architektur das Mantra ausgerufen wurde, Komplexes in einfache Teile aufzubrechen und ein flexibles Geflecht zu bilden, über das sich die Angebote (Services) registrieren und zugänglich machen. Durch diese flexiblere Architektur wird es auch möglich, neben den intern vorhandenen Daten, auch externe Daten beizumischen. Diese Mashups werden neue Werte schaffen und ganz neue Geschäftsmodelle ermöglichen. Ich warte bereits darauf, dass beispielsweise Daten der Mautsysteme, mit den Bewegungsdaten unserer Mobilgeräte und den Stati der Baustellen verbunden und ein besserer Verkehrsfluss ermöglicht wird. Vielleicht können wir dann auch gleich die Auswirkungen der neuesten Streikmaßnahmen einpflegen und mir in Echtzeit den Weg zum Fußballspiel optimieren.

Technologische Ansätze

Mehrere technologische Ansätze lassen sich hierzu kombinieren. Zum einen stehen stabile und mächtige Infrastrukturen zur Verfügung, die von großen Anbietern wie Amazon, Google oder Microsoft einfach und schnell zur Verfügung gestellt werden. Möglich macht dieses Angebot die Weiterentwicklung des eCommerce Standards Hadoop, der dereinst Google und Yahoo zu schnellen Internetsuchen verhalf und heute auf Open-Source-Basis und angereichert durch wertsteigernde Produkte vieler Softwarehersteller veredelt wird. Dadurch können nun auch komplexeste Anwendungen des Data Mining, des Machine Learnings oder der Text-Analyse kostengünstig und pfeilschnell ausgeführt werden.

Kostengünstig ist hier das relevante Motiv.

Zum anderen geht es auch in der Cloud um Geschwindigkeit. Um dazu ein wenig auszuholen: Bei Big Data setzt sich die Klassifizierung auf Basis von kalten, warmen und heißen Daten durch. Diese gibt an, wie oft Daten genutzt werden und in welcher Geschwindigkeit sie daher zur Verarbeitung zur Verfügung stehen müssen. Während heiße Daten für Echtzeit-Anwendungen in In-Memory-Stores gehalten werden, sind disk-basierte Datenbank-Systeme für historisierte Daten und Hadoop als Data Lake für kalte Daten von steigernder Bedeutung.

SAS Analytics und SAP Hana stellen hier eine Plattform, die in der Lage ist,  alles bislang bekannte zu überbieten. Unsere Kollegin Nancy Bremmer wird dazu einen Vortrag halten zu dem ich Sie herzlich einlade.

Fazit

Es ist eine Welt, in der man von allem ein bisschen, auf flexiblen Plattformen, oft wechselnd und doch auf der sicheren Seite, das erhält, was der Konsument sich gerade aus dem verfügbaren Angebot aussucht.

Foto_SAP_new

Mehr Informationen: Besuchen Sie uns am SAS Stand (E2.11). In der kommenden Woche wird in diesem Blog der Beitrag meines Kollegen Guido Oswald erscheinen, der im Detail die Position von SAS zur Cloud und unser Offering vorstellt.

 

Post a Comment

Big Data Analytics Forum 2014: Vorteile im Wettbewerb suchen - oder es bleiben lassen.

Es scheint schon alles zu Big Data gesagt worden. Aber immer noch sind nur wenige gelungene Big Data-Projekte bekannt, wenn man mal von den üblichen Verdächtigen aus dem Silicon Valley absieht. Woran liegt das denn? Folgende Möglichkeiten:

1. Es gibt keine erfolgreichen Big Data Projekte
2. Es gibt überhaupt kein Big Data
3. Niemand will darüber sprechen
4. Unbekannte Gründe

Dem Skeptiker mag unvermittelt Option 2 als offenkundigste erscheinen. Bei Big Data handelt es sich um die (übliche) Verschwörung von Technologieanbietern, Journalisten und Analysten, deren Geschäft darauf beruht, immer wieder Neues zu (er)finden. Sicherlich rührt ein Teil des Hypes aus dieser Grundkonstellation. Aber wenn seriöse Analysten wie BARC behaupten, dass 30% aller Unternehmen bereits Big Data Projekte haben (Studie vom März 2014) und drei Viertel der Firmen immerhin Pläne in dieser Richtung haben: Da muss doch etwas dran sein. Wenn Sie das nicht glauben, dann fragen Sie doch Dr. Carsten Bange selbst, zum Beispiel auf dem „Big Data Analytics Forum by SAS“ am 4.11. in Frankfurt hat er gesagt:

Mehr Eindrücke vom Big Data Analytics Forum finden Sie hier.

Zurück zum Thema: Viele Unternehmen werden auf Option 2 tippen. Klar, jeder fängt an und sucht irgendetwas, nennt das Big Data-Projekt und bekommt deshalb auch die Finanzierung gestemmt. Nach einigen Anläufen mit dem pfiffigen Kollegen aus der internen IT, der auf einem ausrangierten Rechner mit Hadoop experimentiert hat und mit der Frage nach weiteren Daten bei den alten Hasen aus der Fachabteilungs-IT abgeblitzt ist, wird das aber häufig wieder eingestellt. Nein, wir haben zwar gesucht, aber nichts gefunden. War ja auch klar, denn bei unserem Geschäftsmodell geht es nun mal seit Jahrzehnten um Produktqualität, Servicequalität und so weiter. Hand aufs Herz: hören Sie da nicht die Schallplattenindustrie kurz vor der Erfindung der CD heraus? Oder die CD Industrie zwei Wochen vor Napster und iTunes?

Ich glaube ja, dass es eher an den generischen Eigenschaften von Big Data liegt. Damit wird analytisches, datengetriebenes Wirtschaften gefördert. Ganz neue Wertschöpfungsketten entstehen. Daten, die bisher als Abfallprodukt des einen Prozesses verworfen wurden, werden auf einmal zum Rohstoff für neue Geschäftsmodelle. Handypositionsdaten können auf einmal dazu verwendet werden, Zugfahrpläne zu optimieren. Und ich glaube, dass für jedes Unternehmen hier so viel an Möglichkeiten verborgen liegt, dass es geradezu fahrlässig wäre, sich nicht auf die Suche zu begeben. Es gibt zu viel zu gewinnen. Und auch zu viel zu verlieren. Nur mitspielen muss man.

Weil aber Big Data Analytics funktioniert und damit nicht als Sahnehäubchen in abgehangenen Prozessen lediglich das Berichtswesen beschleunigt, sondern geradezu zwangsläufig zum wettbewerbsunterscheidenden Faktor wird – weil das so ist, wären erfolgreiche Unternehmen schlecht beraten, allzuviel darüber zu verraten.

Umso besser, wenn uns das dann doch gelingt: Der Einblick in den Projektalltag erfolgreicher Big-Data-Analytics-Projekte. Zusätzlich zeigen wir Ihnen den Weg, wie Sie selbst aus einer Idee ein Projekt und aus einem Projekt die Zukunft Ihres Unternehmens ableiten können. Nun hätte ich Sie gerne auf unser Big Data Analytics Forum eingeladen, alleine: es war mit mehr als 300 Anmeldungen trotz Location-Wechsel bereits ausgebucht. Sie können aber trotzdem mit SAS in Ihre Big Data-Zukunft starten: mit zahlreichen Beispielen und Hintergründen auf unserem Themenportal, mit einzelnen Vorträgen in Form von Webinaren oder mit einem individuellen Workshop rund um Ihre Big-Data-Initiative. Ich freue mich auf Ihr Feedback!

Einstieg in den Big Data Lab Gedanken kann das Thema "Hadoop & Analytics" sein. Erfahren sie mehr über Hadoop im kostenlosen Webinar.

 

Post a Comment

Wie IT die Automobil-Branche verändert und welche Rolle Google dabei spielt

Wussten Sie schon: Für 13% der Autokäufer ist ein Neu-Fahrzeug ohne Internetzugang ein "no-go"! Dreizehn Prozent! Das bedeutet gleichzeitig 13% weniger Umsatz für den OEM. Die Unternehmensberatung Bain erwartet, dass diese sogenannten Connected Cars in nur wenigen Jahren die Regel und nicht mehr die Ausnahme sein werden.  

Dabei sind Connected Cars nur der Anfang: OEMs stehen jetzt vor der Herausforderung, ihr Portfolio noch einmal deutlich zu erweitern. Ziel ist es, eine breite Palette maßgeschneiderter Produkte anzubieten, um die immer unterschiedlicheren Erwartungen an Kundennutzen, Fahrerlebnis, Lebenszyklus und Garantie zu erfüllen.

Um all diese Angebote zu identifizieren, zu entwickeln und auch betriebswirtschaftlich tragbar zu machen, müssen Daten analysiert werden – viele Daten! 

Blogpost_new

Wir reden hier also über Big Data

Dabei hat diese Technologie nicht nur einen direkten Effekt für die Endverbraucher: Mit Connected Cars bekommen Automobilhersteller die Gelegenheit, mehr Daten zu analysieren, um den Straßenverkehr schneller, ressourcenschonender und sicherer zu machen, z.B. durch Telematik-Daten. Ein Anwendungsbeispiel für die Analyse dieser Daten kann die "Car-to-X" Kommunikation sein. Eine Lösung, die für eine bessere Zukunft auf unseren Straßen sorgen wird, wie in diesem Video beschrieben.

 

Durch die Analyse von Echtzeitdaten werden Autos in der Lage sein, sich gegenseitig über kommende Staus, Glatteis oder einem nahegelegenen Unfall zu warnen.

So weit, so gut. Allerdings bleiben die Fragen, wo, wann und wie solche enormen Datenmengen analysiert werden können. Die Deutsche Telekom geht davon aus, dass innerhalb der nächsten Jahre die pro Monat und Auto generierten Daten von 4MB auf 5GB steigen werden. Rund 80% aller neuen Autos bis 2016 werden Connected Cars sein, lautet das Fazit einer Studie einer anderen führenden Beratungsgesellschaft. Da heißt es, es werden ca. 210 Millionen Connected Cars auf unseren Autobahnen unterwegs sein und damit werden wir vor einer ernsthaft großen Datenwelle stehen. Oder in Daten: 1000GB von Daten pro Fahrzeug im Monat.

Jetzt gilt es für die Automobilindustrie, die relevanten Informationen aus ihren Daten zu filtern.  So dass man diese sinnvollen Anwendungsfällen zuordnen kann und mit weiteren Datenquellen, wie beispielsweise aus dem Fertigungsprozess, kombiniert.

Starten Sie die Motoren!

Haben Sie sich jemals gefragt, wie Google den Job macht? Sie haben sozusagen das gesamte Web in ihrer Datenbank. Die Frage: Wie gehen sie mit diesen Datenmengen um?

Die Lösung ist eine Open Source Datenbanktechnologie namens Hadoop. Sie ist für jeden direkt zugänglich und leicht skalierbar. Wir haben bereits darüber in unserem Blog geschrieben. Die Technologie gibt Unternehmen die Möglichkeit, größere Datenmengen als in der Vergangenheit zu speichern und zu verarbeiten. Sie kann bestehende IT-Infrastrukturen ersetzen - wahrscheinlicher ist jedoch , dass sie diese ergänzen wird. Hadoop hilft mehr PS auf die Straße zu bekommen, Sie machen also mehr aus ihren Daten. Trotzdem benötigen Sie immer noch Räder und ein Navigationssystem, um das Ziel tatsächlich zu erreichen.

Genau diese Rolle kann Analytics einnehmen.

Sie haben Ihr Ziel erreicht!

Das erste Problem ist also gelöst, mit Hadoop kann Ihr Unternehmen problemlos alle Arten von Daten erfassen und zwar nahezu kostenneutral. Die Möglichkeit mehr Daten zu speichern ist eine Sache. Aber herauszufinden, wie man werthaltige Informationen aus diesen Daten erhält eine andere.

An dieser Stelle kommt Analytics zum Einsatz: SAS-Technologie wie Event Stream Processing (ESP) kann verwendet werden, um relevante Daten zu filtern. Auch innerhalb eines Wagens kann ESP als Enabler und Filterfunktion arbeiten, um sich auf die richtigen Daten zu konzentrieren, die anfallenden Datenmengen auf das Benötigte zu reduzieren und während der Fahrt direkt in ein Hadoop-Cluster zu übertragen.

Durch den Einsatz solcher Technologien können beispielsweise Ausfälle von Bauteilen im Fahrzeug vorhergesagt werden und damit kann man Unfällen vorbeugen. Ebenso können Sie dazu beitragen, Kundenreparaturkosten zu reduzieren, Ausfälle von LKWs in ganzen Fahrzeugflotten vorzubeugen, die vorausschauende Qualitätskontrolle der Flotte zu verbessern und so die Kundenzufriedenheit im B2B und im B2C deutlich zu erhöhen. Es entsteht eine Echtzeit-Fehlerereignis-Vorhersage im Fahrzeug. Stellen Sie sich vor, wie viele Leben mit dieser Prognosefähigkeit gerettet werden könnten!

Warum Sie Hadoop ans Steuer lassen sollten!

Sie sind bereits ein Entscheider in der Automobilindustrie oder wollen es werden? Lassen Sie mich sagen: Big Data ist kein IT Problem, Hadoop ist die Lösung für Ihre Herausforderungen. Eines ist sicher, Sie brauchen mehr Know-how darüber, was Hadoop für Sie, Ihr Team oder Ihr Unternehmen bedeuten kann.

Jetzt informieren: Erfahren sie mehr über Hadoop im kostenlosen Webinar.

Post a Comment

Nationaler IT-Gipfel: Big Politics, Big Decisions, Big Data – unser Standpunkt

Schritt für Schritt: Big Data wandert langsam in den Zeitungen nach vorne. Gestartet ist das Thema im Wirtschaftsteil und kommt jetzt über den naturgemäß technikkritischen Feuilleton im Politikteil an.

Investitionsmittel stehen bereit

Die Europäische Union will den Aufbau der datengesteuerten Wirtschaft vorantreiben: 2,5 Mrd. Euro stehen bereit für die Investition in Big Data. Die Universität Duisburg/Essen erklärt auch warum:
„40 Millionen Terabyte Daten muss das Internet bald verwalten können, wenn 2020 voraussichtlich mehr als 24 Milliarden Sensoren und Geräte am Netz hängen werden.“

Die Frage ist: Reicht das viele Geld? Die Frage stellt der Journalist Thiemo Bräutigam im Rahmen des deutschen Innovationspreises. Dazu kommt einem weiteren Aspekt in diesem Rahmen besondere Bedeutung zu: Bundesforschungsministerin Wanka stellt diese Tage ein Projekt zum Thema Privatheit in der digitalen Welt vor, berichtet das Fraunhofer-Institut auf der eigenen Website.

IT-Gipfel wird sich damit auseinandersetzen

Über die Strategie der Europäischen Union, die Höhe des Budgets und jede Menge anderer digitalen Themen wird auch im Rahmen des Nationalen IT-Gipfel diskutiert werden. Gesche Jost, offizieller „Digital Champion“ der Bundesregierung bzw. die „Internet-Botschafterin Deutschlands“, stimmt schon in der vergangenen Woche mit verhaltender Kritik unter der Überschrift „Die Agenda ist zu wenig visionär“ in der Zeitung „Die Welt“ auf das Treffen ein. Dazu hat Thomas Jarzombek, Vorsitzender der Arbeitsgruppe Digitale Agenda, eine andere Meinung: Er sieht das Potenzial des aktuellen Entwurfs im Schaffen einer neuen Gründungskultur und einer stärkeren Europäischen Vernetzung. Weitere Details zu den Themen im Rahmen des Gipfels stellten Bundesminister Gabriel und BITKOM-Präsident Prof. Kempf bereits im Juli vor.

Welche Meinung Sie auch haben, in einem Punkt sind sich alle Beteiligten einig: Big Data muss zu einem Diskussionsthema werden. Der Nationale IT Gipfel arbeitet an einem Positionspapier, u.a. weil bereits im Koalitionsvertrag Big Data erwähnt wird.

Zu dieser Diskussion trägt SAS bei, u.a. mit dem „SAS Big Data Month“ und dem Big Data Analytics Forum. Unsere Position: Es darf nie nur um die Infrastruktur gehen. Die ist Mittel zum Zweck. Es gilt, frühzeitig zu definieren, was zu tun ist, bevor so eine Infrastruktur gelegt ist. Dabei kann es nicht um das reine Speichern von Daten geht, sondern die Diskussion - bereits jetzt - muss sich auf die Auswertung dieser Daten konzentrieren, auf die technischen, rechtlichen und personellen Rahmenbedingungen dieser Datenrevolution.

Mehr Informationen dazu gibt es auch im Vortrag zum Industrie 4.0 unseres Geschäftsführers Wolf Lichtenstein.

Slideshare

Post a Comment

In-Memory auch mal ganz klassisch mit In-Memory-Bibliotheken

Mit immer größeren Datenmengen, die es bei BI Reports und Analysen zu bewältigen gibt, sieht man sich immer öfter mit Performance-Engpässen konfrontiert. Nicht ohne Grund werden deshalb In-Memory-Lösungen, in denen ganze riesige Dateien in Arbeitsspeicherfarmen immer beliebter, die performanceoptimiert zusammenarbeiten und Techniken wie Load Balancing und Multi-Threading nutzen. Doch auch wenn die Daten nicht so groß sind, kann es sinnvoll sein, In-Memory-Techniken zu nutzen. Das kann man so ganz ohne High Performance Analytics mit klassischem SAS schon seit geraumer Zeit tun. Und das kann sogar ausgesprochen performant sein. Seit SAS Version 8.1 gibt es hierfür schon das SASFILE Statement, was aber selbst unter erfahrenen Programmierern oft wenig bekannt ist.

Etwas neuer ist die Möglichkeit mit sogenannten In-Memory-Bibliotheken zu arbeiten. Hierfür fügt man, wie im u.g. Beispiel demonstriert, einer Libname-Anweisung die Memlib-Option hinzu. Die entsprechenden Dateien werden dann direkt in den Arbeitsspeicher geladen und dort gehalten. Was das bringt? Der größte Engpass bei der Verarbeitung von Dateien, ist der Weg der Datei in den Arbeitsspeicher. Eine SAS Datei teilt sich in mehrere sogenannte Data Set Pages auf. Diese werden dann nach und nach in den Arbeitsspeicher des Computers geladen, verarbeitet und in die neu erstellte Datei ausgegeben. Ändert man dieses Verhalten und lädt die Datei in einem ersten Schritt schon mal komplett in den Arbeitsspeicher, spart man sich diese andauernden Input Output Operationen. Damit laufen dann die SAS Programme schneller. Aber Vorsicht! Die meisten unserer Kunden sind nicht ganz allein auf ihrem SAS-Server, d.h. bevor Sie die Memlib-Option verwenden, sollten Sie zunächst abklären, ob das in Ihrem Unternehmen und in Ihrer SAS-Umgebung überhaupt möglich ist. Außerdem müssen die Dateien Ihrer Memory Library natürlich auch in den Arbeitsspeicher passen. Man hat maximal die Hälfte des gesamten Arbeitsspeichers zu Verfügung, um dort Dateien abzulegen. Ich würde eher empfehlen, maximal ein Viertel des Arbeitsspeichers mit Dateien zu belegen.

Falls Ihre Daten also sehr groß sind und sie lange Wartezeiten haben, bis SAS Programme durchgelaufen sind, dann empfiehlt es sich vielleicht, sich mal die High Performance Lösungen von SAS anzuschauen. Nur am Rande: In 9.4 sind für alle Lizenznehmer von SAS-Statistikprodukten direkt die HPA-Prozeduren enthalten (die auch neu geschrieben sind, eben um die neuen Rechnerarchitekturen auszunutzen).

Für alles, was mit performantem Programmieren zu tun hat, können Sie meine Kollegen und mich ab dem 13. Oktober in verschiedenen Städte in Deutschland, Österreich und der Schweiz in unserem Education on Tour besuchen, wo neben dem Thema Performance, auch der Data Step 2, effektive Makroprogrammierung und der richtige Umgang mit SAS Datumswerten besprochen wird.

Nähere Infos hierzu, finden Sie hier:  http://www.sas.com/de_de/events/14/sas-education-on-tour-dach/overview.html

Und hier noch das versprochene SAS-Programm:

memlib_code

 

 

Post a Comment

Zukunft des Wissensmanagements: Was ändert sich mit Cognitive Computing?

Ein Beitrag für die Blogparade "Wissensmanagement in Zeiten von Cognitive Computing" zur knowtech 2014.

Mit Cognitive Computing wird erneut die Frage gestellt, was die Grenze zwischen Mensch und Maschine ist. Vor wenigen Jahren war der Turing-Test eine eher esoterische Angelegenheit und die Kenntnis dessen, was das überhaupt ist, kaum verbreitet. Eine Maschine, mit der man sich unterhalten kann? Bei der man erkennen soll, dass es eine Maschine und kein Mensch ist? Das schien doch zu einfach. Selbstverständlich würde es nie gelingen, so schnell und schlau wie ein menschliches Gehirn zu funktionieren und menschlich zu erscheinen.

robot android women and butterfly Read More »

Post a Comment

Fernseh-Werbung am Ende, wetten … ?

Als Kind bin ich aufgewachsen wie viele in meinem Alter: Samstagabend war Fernsehabend! Über die häusliche Leinwand flimmerten die großen Kisten wie „Der große Preis“, „Versteckte Kamera“ und viele mehr. Nicht dass mich dieser Samstagabend fasziniert hätte. Aber das war einfach so.

Nun die große Revolution: „Wetten dass“ wird nach über drei Jahrzehnten Ende dieses Jahres eingestellt. Am kommenden Wochenende wird eine der letzten Ausgaben gesendet. Ja, der Herr Lanz hat auch seinen Beitrag dazu geleistet. Aber was mit diesem Entscheid endlich einmal explizit erwähnt und sichtbar wird, ist die Verschiebung des Medienkonsums: Schon seit Jahren wird in der TV Reichweitenmessung die Ungenauigkeit der Internet-TV-Seher einfach negiert und unter „Unschärfe“ abgetan. Dem Lamentieren über sinkende Zuschauerzahlen hat dies allerdings keinen Abbruch getan. Read More »

Post a Comment

ISC Big Data – From Data to Knowledge

Thomas_MeuerIm Vorfeld des Kongresses “ISC Big Data” sprachen wir mit Thomas Meuer über die besondere Rolle, die eine Supercomputing-Community im Bereich Big Data spielt. Der Veranstalter der ISC Big Data spricht über die Trends im High-Performance Computing (HPC), die Arbeit im CERN und beschreibt was Unternehmen von der Erfahrung im Forschungsinstitut lernen können.

SAS: Herr Meuer, warum setzen Sie jetzt bereits zum zweiten Mal explizit auf Big Data als Thema Ihres Events?
Meuer: Weil es in der Natur der Sache liegt. Die Technologien und Methoden, die im HPC über viele Jahre entwickelt und angewendet wurden, finden nun ihren Weg in die Unternehmen. Das geschieht eindeutig unter dem Vorzeichen Big Data. Die Datenmengen, die in heutigen Unternehmen als sehr groß und kaum beherrschbar bezeichnet werden, sind im wissenschaftlichen Bereich schon vor Jahren erreicht worden. Entsprechend gibt es hier einen Vorsprung in der Verarbeitung dieser Daten. Read More »

Post a Comment