Wie IT die Automobil-Branche verändert und welche Rolle Google dabei spielt

Wussten Sie schon: Für 13% der Autokäufer ist ein Neu-Fahrzeug ohne Internetzugang ein "no-go"! Dreizehn Prozent! Das bedeutet gleichzeitig 13% weniger Umsatz für den OEM. Die Unternehmensberatung Bain erwartet, dass diese sogenannten Connected Cars in nur wenigen Jahren die Regel und nicht mehr die Ausnahme sein werden.  

Dabei sind Connected Cars nur der Anfang: OEMs stehen jetzt vor der Herausforderung, ihr Portfolio noch einmal deutlich zu erweitern. Ziel ist es, eine breite Palette maßgeschneiderter Produkte anzubieten, um die immer unterschiedlicheren Erwartungen an Kundennutzen, Fahrerlebnis, Lebenszyklus und Garantie zu erfüllen.

Um all diese Angebote zu identifizieren, zu entwickeln und auch betriebswirtschaftlich tragbar zu machen, müssen Daten analysiert werden – viele Daten! 

Blogpost_new

Wir reden hier also über Big Data

Dabei hat diese Technologie nicht nur einen direkten Effekt für die Endverbraucher: Mit Connected Cars bekommen Automobilhersteller die Gelegenheit, mehr Daten zu analysieren, um den Straßenverkehr schneller, ressourcenschonender und sicherer zu machen, z.B. durch Telematik-Daten. Ein Anwendungsbeispiel für die Analyse dieser Daten kann die "Car-to-X" Kommunikation sein. Eine Lösung, die für eine bessere Zukunft auf unseren Straßen sorgen wird, wie in diesem Video beschrieben.

 

Durch die Analyse von Echtzeitdaten werden Autos in der Lage sein, sich gegenseitig über kommende Staus, Glatteis oder einem nahegelegenen Unfall zu warnen.

So weit, so gut. Allerdings bleiben die Fragen, wo, wann und wie solche enormen Datenmengen analysiert werden können. Die Deutsche Telekom geht davon aus, dass innerhalb der nächsten Jahre die pro Monat und Auto generierten Daten von 4MB auf 5GB steigen werden. Rund 80% aller neuen Autos bis 2016 werden Connected Cars sein, lautet das Fazit einer Studie einer anderen führenden Beratungsgesellschaft. Da heißt es, es werden ca. 210 Millionen Connected Cars auf unseren Autobahnen unterwegs sein und damit werden wir vor einer ernsthaft großen Datenwelle stehen. Oder in Daten: 1000GB von Daten pro Fahrzeug im Monat.

Jetzt gilt es für die Automobilindustrie, die relevanten Informationen aus ihren Daten zu filtern.  So dass man diese sinnvollen Anwendungsfällen zuordnen kann und mit weiteren Datenquellen, wie beispielsweise aus dem Fertigungsprozess, kombiniert.

Starten Sie die Motoren!

Haben Sie sich jemals gefragt, wie Google den Job macht? Sie haben sozusagen das gesamte Web in ihrer Datenbank. Die Frage: Wie gehen sie mit diesen Datenmengen um?

Die Lösung ist eine Open Source Datenbanktechnologie namens Hadoop. Sie ist für jeden direkt zugänglich und leicht skalierbar. Wir haben bereits darüber in unserem Blog geschrieben. Die Technologie gibt Unternehmen die Möglichkeit, größere Datenmengen als in der Vergangenheit zu speichern und zu verarbeiten. Sie kann bestehende IT-Infrastrukturen ersetzen - wahrscheinlicher ist jedoch , dass sie diese ergänzen wird. Hadoop hilft mehr PS auf die Straße zu bekommen, Sie machen also mehr aus ihren Daten. Trotzdem benötigen Sie immer noch Räder und ein Navigationssystem, um das Ziel tatsächlich zu erreichen.

Genau diese Rolle kann Analytics einnehmen.

Sie haben Ihr Ziel erreicht!

Das erste Problem ist also gelöst, mit Hadoop kann Ihr Unternehmen problemlos alle Arten von Daten erfassen und zwar nahezu kostenneutral. Die Möglichkeit mehr Daten zu speichern ist eine Sache. Aber herauszufinden, wie man werthaltige Informationen aus diesen Daten erhält eine andere.

An dieser Stelle kommt Analytics zum Einsatz: SAS-Technologie wie Event Stream Processing (ESP) kann verwendet werden, um relevante Daten zu filtern. Auch innerhalb eines Wagens kann ESP als Enabler und Filterfunktion arbeiten, um sich auf die richtigen Daten zu konzentrieren, die anfallenden Datenmengen auf das Benötigte zu reduzieren und während der Fahrt direkt in ein Hadoop-Cluster zu übertragen.

Durch den Einsatz solcher Technologien können beispielsweise Ausfälle von Bauteilen im Fahrzeug vorhergesagt werden und damit kann man Unfällen vorbeugen. Ebenso können Sie dazu beitragen, Kundenreparaturkosten zu reduzieren, Ausfälle von LKWs in ganzen Fahrzeugflotten vorzubeugen, die vorausschauende Qualitätskontrolle der Flotte zu verbessern und so die Kundenzufriedenheit im B2B und im B2C deutlich zu erhöhen. Es entsteht eine Echtzeit-Fehlerereignis-Vorhersage im Fahrzeug. Stellen Sie sich vor, wie viele Leben mit dieser Prognosefähigkeit gerettet werden könnten!

Warum Sie Hadoop ans Steuer lassen sollten!

Sie sind bereits ein Entscheider in der Automobilindustrie oder wollen es werden? Lassen Sie mich sagen: Big Data ist kein IT Problem, Hadoop ist die Lösung für Ihre Herausforderungen. Eines ist sicher, Sie brauchen mehr Know-how darüber, was Hadoop für Sie, Ihr Team oder Ihr Unternehmen bedeuten kann.

Jetzt informieren: Erfahren sie mehr über Hadoop im kostenlosen Webinar.

Post a Comment

Nationaler IT-Gipfel: Big Politics, Big Decisions, Big Data – unser Standpunkt

Schritt für Schritt: Big Data wandert langsam in den Zeitungen nach vorne. Gestartet ist das Thema im Wirtschaftsteil und kommt jetzt über den naturgemäß technikkritischen Feuilleton im Politikteil an.

Investitionsmittel stehen bereit

Die Europäische Union will den Aufbau der datengesteuerten Wirtschaft vorantreiben: 2,5 Mrd. Euro stehen bereit für die Investition in Big Data. Die Universität Duisburg/Essen erklärt auch warum:
„40 Millionen Terabyte Daten muss das Internet bald verwalten können, wenn 2020 voraussichtlich mehr als 24 Milliarden Sensoren und Geräte am Netz hängen werden.“

Die Frage ist: Reicht das viele Geld? Die Frage stellt der Journalist Thiemo Bräutigam im Rahmen des deutschen Innovationspreises. Dazu kommt einem weiteren Aspekt in diesem Rahmen besondere Bedeutung zu: Bundesforschungsministerin Wanka stellt diese Tage ein Projekt zum Thema Privatheit in der digitalen Welt vor, berichtet das Fraunhofer-Institut auf der eigenen Website.

IT-Gipfel wird sich damit auseinandersetzen

Über die Strategie der Europäischen Union, die Höhe des Budgets und jede Menge anderer digitalen Themen wird auch im Rahmen des Nationalen IT-Gipfel diskutiert werden. Gesche Jost, offizieller „Digital Champion“ der Bundesregierung bzw. die „Internet-Botschafterin Deutschlands“, stimmt schon in der vergangenen Woche mit verhaltender Kritik unter der Überschrift „Die Agenda ist zu wenig visionär“ in der Zeitung „Die Welt“ auf das Treffen ein. Dazu hat Thomas Jarzombek, Vorsitzender der Arbeitsgruppe Digitale Agenda, eine andere Meinung: Er sieht das Potenzial des aktuellen Entwurfs im Schaffen einer neuen Gründungskultur und einer stärkeren Europäischen Vernetzung. Weitere Details zu den Themen im Rahmen des Gipfels stellten Bundesminister Gabriel und BITKOM-Präsident Prof. Kempf bereits im Juli vor.

Welche Meinung Sie auch haben, in einem Punkt sind sich alle Beteiligten einig: Big Data muss zu einem Diskussionsthema werden. Der Nationale IT Gipfel arbeitet an einem Positionspapier, u.a. weil bereits im Koalitionsvertrag Big Data erwähnt wird.

Zu dieser Diskussion trägt SAS bei, u.a. mit dem „SAS Big Data Month“ und dem Big Data Analytics Forum. Unsere Position: Es darf nie nur um die Infrastruktur gehen. Die ist Mittel zum Zweck. Es gilt, frühzeitig zu definieren, was zu tun ist, bevor so eine Infrastruktur gelegt ist. Dabei kann es nicht um das reine Speichern von Daten geht, sondern die Diskussion - bereits jetzt - muss sich auf die Auswertung dieser Daten konzentrieren, auf die technischen, rechtlichen und personellen Rahmenbedingungen dieser Datenrevolution.

Mehr Informationen dazu gibt es auch im Vortrag zum Industrie 4.0 unseres Geschäftsführers Wolf Lichtenstein.

Slideshare

Post a Comment

In-Memory auch mal ganz klassisch mit In-Memory-Bibliotheken

Mit immer größeren Datenmengen, die es bei BI Reports und Analysen zu bewältigen gibt, sieht man sich immer öfter mit Performance-Engpässen konfrontiert. Nicht ohne Grund werden deshalb In-Memory-Lösungen, in denen ganze riesige Dateien in Arbeitsspeicherfarmen immer beliebter, die performanceoptimiert zusammenarbeiten und Techniken wie Load Balancing und Multi-Threading nutzen. Doch auch wenn die Daten nicht so groß sind, kann es sinnvoll sein, In-Memory-Techniken zu nutzen. Das kann man so ganz ohne High Performance Analytics mit klassischem SAS schon seit geraumer Zeit tun. Und das kann sogar ausgesprochen performant sein. Seit SAS Version 8.1 gibt es hierfür schon das SASFILE Statement, was aber selbst unter erfahrenen Programmierern oft wenig bekannt ist.

Etwas neuer ist die Möglichkeit mit sogenannten In-Memory-Bibliotheken zu arbeiten. Hierfür fügt man, wie im u.g. Beispiel demonstriert, einer Libname-Anweisung die Memlib-Option hinzu. Die entsprechenden Dateien werden dann direkt in den Arbeitsspeicher geladen und dort gehalten. Was das bringt? Der größte Engpass bei der Verarbeitung von Dateien, ist der Weg der Datei in den Arbeitsspeicher. Eine SAS Datei teilt sich in mehrere sogenannte Data Set Pages auf. Diese werden dann nach und nach in den Arbeitsspeicher des Computers geladen, verarbeitet und in die neu erstellte Datei ausgegeben. Ändert man dieses Verhalten und lädt die Datei in einem ersten Schritt schon mal komplett in den Arbeitsspeicher, spart man sich diese andauernden Input Output Operationen. Damit laufen dann die SAS Programme schneller. Aber Vorsicht! Die meisten unserer Kunden sind nicht ganz allein auf ihrem SAS-Server, d.h. bevor Sie die Memlib-Option verwenden, sollten Sie zunächst abklären, ob das in Ihrem Unternehmen und in Ihrer SAS-Umgebung überhaupt möglich ist. Außerdem müssen die Dateien Ihrer Memory Library natürlich auch in den Arbeitsspeicher passen. Man hat maximal die Hälfte des gesamten Arbeitsspeichers zu Verfügung, um dort Dateien abzulegen. Ich würde eher empfehlen, maximal ein Viertel des Arbeitsspeichers mit Dateien zu belegen.

Falls Ihre Daten also sehr groß sind und sie lange Wartezeiten haben, bis SAS Programme durchgelaufen sind, dann empfiehlt es sich vielleicht, sich mal die High Performance Lösungen von SAS anzuschauen. Nur am Rande: In 9.4 sind für alle Lizenznehmer von SAS-Statistikprodukten direkt die HPA-Prozeduren enthalten (die auch neu geschrieben sind, eben um die neuen Rechnerarchitekturen auszunutzen).

Für alles, was mit performantem Programmieren zu tun hat, können Sie meine Kollegen und mich ab dem 13. Oktober in verschiedenen Städte in Deutschland, Österreich und der Schweiz in unserem Education on Tour besuchen, wo neben dem Thema Performance, auch der Data Step 2, effektive Makroprogrammierung und der richtige Umgang mit SAS Datumswerten besprochen wird.

Nähere Infos hierzu, finden Sie hier:  http://www.sas.com/de_de/events/14/sas-education-on-tour-dach/overview.html

Und hier noch das versprochene SAS-Programm:

memlib_code

 

 

Post a Comment

Zukunft des Wissensmanagements: Was ändert sich mit Cognitive Computing?

Ein Beitrag für die Blogparade "Wissensmanagement in Zeiten von Cognitive Computing" zur knowtech 2014.

Mit Cognitive Computing wird erneut die Frage gestellt, was die Grenze zwischen Mensch und Maschine ist. Vor wenigen Jahren war der Turing-Test eine eher esoterische Angelegenheit und die Kenntnis dessen, was das überhaupt ist, kaum verbreitet. Eine Maschine, mit der man sich unterhalten kann? Bei der man erkennen soll, dass es eine Maschine und kein Mensch ist? Das schien doch zu einfach. Selbstverständlich würde es nie gelingen, so schnell und schlau wie ein menschliches Gehirn zu funktionieren und menschlich zu erscheinen.

robot android women and butterfly Read More »

Post a Comment

Fernseh-Werbung am Ende, wetten … ?

Als Kind bin ich aufgewachsen wie viele in meinem Alter: Samstagabend war Fernsehabend! Über die häusliche Leinwand flimmerten die großen Kisten wie „Der große Preis“, „Versteckte Kamera“ und viele mehr. Nicht dass mich dieser Samstagabend fasziniert hätte. Aber das war einfach so.

Nun die große Revolution: „Wetten dass“ wird nach über drei Jahrzehnten Ende dieses Jahres eingestellt. Am kommenden Wochenende wird eine der letzten Ausgaben gesendet. Ja, der Herr Lanz hat auch seinen Beitrag dazu geleistet. Aber was mit diesem Entscheid endlich einmal explizit erwähnt und sichtbar wird, ist die Verschiebung des Medienkonsums: Schon seit Jahren wird in der TV Reichweitenmessung die Ungenauigkeit der Internet-TV-Seher einfach negiert und unter „Unschärfe“ abgetan. Dem Lamentieren über sinkende Zuschauerzahlen hat dies allerdings keinen Abbruch getan. Read More »

Post a Comment

ISC Big Data – From Data to Knowledge

Thomas_MeuerIm Vorfeld des Kongresses “ISC Big Data” sprachen wir mit Thomas Meuer über die besondere Rolle, die eine Supercomputing-Community im Bereich Big Data spielt. Der Veranstalter der ISC Big Data spricht über die Trends im High-Performance Computing (HPC), die Arbeit im CERN und beschreibt was Unternehmen von der Erfahrung im Forschungsinstitut lernen können.

SAS: Herr Meuer, warum setzen Sie jetzt bereits zum zweiten Mal explizit auf Big Data als Thema Ihres Events?
Meuer: Weil es in der Natur der Sache liegt. Die Technologien und Methoden, die im HPC über viele Jahre entwickelt und angewendet wurden, finden nun ihren Weg in die Unternehmen. Das geschieht eindeutig unter dem Vorzeichen Big Data. Die Datenmengen, die in heutigen Unternehmen als sehr groß und kaum beherrschbar bezeichnet werden, sind im wissenschaftlichen Bereich schon vor Jahren erreicht worden. Entsprechend gibt es hier einen Vorsprung in der Verarbeitung dieser Daten. Read More »

Post a Comment

Fjord-Kreuzfahrt ohne Fjorde – ad hoc Analytics für taktische CRM-Entscheidungen kann Leben retten

Autor: Dr. Michael Jungbluth, Project Manager und Analytics Experte bei SAS Deutschland

Norwegen-Kreuzfahrten befriedigen recht homogene Urlaubsbedürfnisse. Nicht selten werden diese offensiv nach außen getragen: Die Dichte an hochwertigen DSLR-Kameras und großen Teleobjektiven spricht dazu ihre eigene Sprache. Es handelt sich daher um keine wackelige Hypothese, dass für ein großes Urlaubersegment ambitionierte Aufnahmen der Fjordlandschaften ein Kernbedürfnis darstellen (s. Beweisstück A).

Norway Landscape panorama with ocean and mountain - Lofoten

Beweisstück A: Norwegische Fjordlandschaft im Sonnenuntergang

Read More »

Post a Comment

Die Ganesha-Strategie - Hadoop mit SAS

Sie kennen den kleinen gelben Elefanten schon? Hadoop verändert gerade die Welt – zumindest in der IT. Es gibt Experten, die prophezeien, dass bereits in den nächsten drei Jahren mehr als die Hälfte aller Daten der Welt in Hadoop gespeichert werden.

Ganesha - GaneshFakt ist: Bereits heute liegen die durchschnittlichen Kosten pro Terabyte Datenhaltung in einem Hadoop-Cluster bei 500 Dollar. Während bei einer relationalen Datenbank 10.000 Dollar oder gar noch mehr Kosten anfallen. CIOs unter Kostendruck – und wer ist das nicht? – prüfen deshalb sehr genau, wo und wie sie Hadoop in ihrem Unternehmen einsetzen können. Read More »

Post a Comment

Modernisierung der BI - Agile Business Intelligence

In den letzten Jahren hat sich einiges getan im Business Intelligence und Business Analytics Umfeld. Big Data - also der zeitnahe Umgang mit großen und polystrukturierten Daten - ist in aller Munde und zeigt vielen gewachsenen BI-Installationen die Grenzen auf. Aber auch die Art wie BI daher kommt hat sich dramatisch verändert! Read More »

Post a Comment

Buchempfehlung: Digitale Banken – das Geld steckt in den Daten

Ein Gastbeitrag von Anne Belder, SAS Niederlande.

„Die Zukunft der Banken ist digital.“ - Der unabhängige Autor und Finanzmarktanalyst Chris Skinner schreibt in seinem Buch "Digital Bank" über die radikale Veränderung im Banking. Viele Ansätze lassen sich daraus ableiten, die gerade aus Sicht eines Big Data Analytics Experten eine besondere Tragweite haben werden. Nachfolgend fasse ich die wichtigsten Punkte zusammen. 

digitalbanksWarum brauchen wir digitale Banken?

Chris schreibt: Wir leben in einer Welt, in der wir nicht bewusst über das Internet nachdenken; es ist einfach da. Also in einer Zeit, auf dem online oder mobil erreichbar zu sein zum Alltag gehört. Das Problem ist, dass die meisten Handelsbanken das digitale Leben noch nicht verinnerlicht haben, während es auf der Welt immer mehr Menschen gibt, die nur noch diese Sprache sprechen. Die Banken ziehen unsere neue und digitale Welt natürlich auch in Betracht, sehen sie aber nur als zusätzlichen Kanal in ihrem Portfolio. Die Herausforderung besteht darin, von dieser Denkweise weg zu kommen und das Bankwesen als digitales Netzwerk zu verstehen, auf das die physischen Kanäle wie Callcenter und Filialen aufbauen. Read More »

Post a Comment