Ein Balanceakt: Verbrauchsvorhersagen für Konsumgüter, Regelenergie und Fans der Eintracht

Donnerstagabend, Frankfurt a. M.: Nach der Arbeit noch zum Supermarkt, um mich für das anstehende Europapokalspiel der Frankfurter Eintracht auszurüsten. Schnell an den Chips vorbei, ich sammele Nachos mit Salsa und Käsedip ein. Danach geht‘s ans Getränkeregal. Eine Flasche Cola und ein Sixpack Bier landen im Einkaufswagen. Um die Ecke die Eistheke: Ben & Jerrys Peanutbuttercup Eiskrem. Gefühlte 4.000 Kalorien auf 40 gr. Eis. Check!

Jetzt nur noch schnell meine Lieblingspizza. Beim Blick auf das Pizzaangebot stockt mir der Atem. Über dem Schild „Heute im Angebot!“ der Cheese Peperoni prangert: AUSVERKAUFT! Die Verkäuferin weiß auch nur, dass die nächste Lieferung erst Samstag zu erwarten ist.

image001

Zuhause angekommen bunkere ich meine Einkäufe zunächst im Kühlschrank. Bis zum Anstoß dauert es nicht mehr lange. Wenn die Eintracht heute gewinnt, sind wir in der Gruppenphase und ich freute mich auf ein kaltes Bier und Nachos. Noch zehn Minuten bis zum Anstoß. Die Spannung steigt. Wie schön kann ein Donnerstagabend vor dem Fernseher sein – auch ohne Pizza.

KLONG!

Schlagartig wird es dunkel im Wohnzimmer. Erst denke ich noch, die Sicherung ist raus, aber dann wird schnell klar: Stromausfall. Spitze. Keine Pizza, kein Fußball, dafür warmes Bier mit flüssigem Eis.

Leider leider ist diese Geschichte wahr.

 Warum ich Ihnen diese Geschichte erzähle?

Weil beide Teile der Geschichte etwas gemeinsam haben: Die Balance war nicht vorhanden. Das Gleichgewicht zwischen Angebot und Nachfrage fehlte sowohl bei der Pizza im Supermarkt als auch beim Stromausfall.

Für Konsumgüterhersteller stellt das Thema Verbrauchsvorhersage eine der größten Herausforderungen dar. Es reicht heute nicht mehr, sich Vorjahreszahlen von verkauften Produkten über eine Zeitreihe anzusehen und diese zur Prognose der Zukunft zu nutzen. Stattdessen versuchen „best in class“ Unternehmen kausale Faktoren in den Forecast einzubeziehen, um den bestmöglichen Forecast zu prognostizieren. In meinem Fall hätte der Hersteller durch Einbeziehung der Faktoren „Fußballspiel einer Frankfurter Mannschaft“, „kühles Wetter“ und „Preispromotion“ mit Sicherheit besser vorhersagen und ausreichend Ware im Kühlregal zur Verfügung stellen können – einfach indem er diese Faktoren in seine Prognosemodelle integriert hätte. Die Nutzung solcher kausaler Faktoren wird von einigen großen Konsumgüterunternehmen wie Nestlé bereits genutzt.

Der Lieferant meiner Pizza sollte sich hier ein Beispiel nehmen!!!

Was hat warmes Bier mit fehlender Balance zu tun?

Vorausgestellt sei einfach einmal die Info, dass dieser Donnerstag wirklich ein Unglückstag war. Denn im Durchschnitt fallen pro Haushalt in Deutschland jährlich nur 17 min die Stromleitungen aus [2008], bei einer Gesamtnetzstabilität von 99,9%. Erklären lässt sich diese Stabilität vielleicht mit einem Vergleich: Die deutsche Gesamtregelleistung beträgt 6800 MW – der Hoover Dam am Colorado River nahe Las Vegas produziert 2080 MW, wenn alle 17 Turbinen laufen.

Es gibt allerdings eine andere Analogie zu Konsumgüterherstellern: Energieanbieter müssen eine Balance zwischen Einspeisung und Entnahme im Stromnetz sicherstellen. Sonst drohen Netzausfall und Blackouts durch Prognosefehler oder Fahrplannachlässigkeiten in Strombilanzkreisen. Ob mein Stromausfall nun durch einen Prognosefehler der anstehenden Lasten entstanden sind, vermag ich nicht zu sagen. Wichtiger ist für mich jedoch der Gedanke wie Energieanbieter solchen Differenzen zwischen Energieangebot und Angebotsnachfrage vorbeugen.

image002

In den meisten Fällen werden Reserveleistungen produziert, um in Echtzeit Abweichungen vom Fahrplan der prognostizierten Tageslast auszugleichen. Diese werden im Rahmen von Regelenergieauktionen angeboten. Aber wie kann ein Netzbetreiber den Netzzustand stabil halten? Nun, indem er Kraftwerke, die im nicht ihm gehören, per Fernbedienung hinzuschalten und drosseln kann. Das Recht fremde Anlagen zu aktivieren, erkauft er sich in täglichen Auktionen für Kraftwerksleistungen. Da es sich im Energiegeschäft, um ein nahezu Echtzeitgeschäft handelt, ist es für den „Vermieter“ der Energie extrem wichtig optimale d.h. profitable und wettbewerbsfähige Angebotspreise am Markt zu erzielen. Diese Regelenergieauktionen sind ein sich täglich wiederholendes Spiel mit Stromerzeugern, Stadtwerken, Industrieunternehmen und unabhängigen Anbietern als Teilnehmern. Im Rahmen dieser täglichen „Gamblings“ ist es extrem wichtig, Nachfrage erstens zu prognostizieren und zweitens darauf basierende Preisstrategien am Markt zu optimieren. Durch einen täglichen Zugriff auf alle Daten von regelleistung.net, Wetter.com, und anderen Datenquellen werden Massen an statistischen Kennzahlen aus Arbeits- und Leistungspreisen mit Prognosen für deutschlandweite Windprognosen verknüpft. Hochperformante Data Mining Prognosen können so eine Nachfrage prognostizieren und im Anschluss die optimale Preisstrategie ermitteln, um den Gewinn am Markt zu maximieren. So kann Data Mining in Kombination mit prediktiven Kausalmodellen einen Beitrag für einen ausgewogenen Energiemarkt bilden und dafür sorgen, dass die Wahrscheinlichkeit eines erneuten Stromausfall bei abendlichen Fußballspielen noch weiter reduziert wird.

Ich für meinen Teil habe den prozentualen Anteil an potentiellen Stromausfällen für die nächsten fünf Jahre ausgeschöpft! Wohlgemerkt zum schlechtesten Zeitpunkt aus Sicht eines Eintracht Frankfurt Fans.

 

 

 

Post a Comment

Zum Facebook Experiment: 5 Dinge für die Versuchsplanung, die Unternehmen lernen können

Facebook spielt mit den Gefühlen: Fast 700.000 Nutzer nahmen 2012 an einer psychologischen Studie teil. Unfreiwillig und unwissentlich. In diesem Facebook-Experiment wurde der Hälfte der Nutzer ein manipulierter Nachrichten-Feed angezeigt. Geprüft werden sollte, ob Themen und Tonalität der Fake-News die Stimmung der User beeinflusst.

Die Studie wurde Anfang Juni veröffentlicht. Die mit leichter Verspätung in dieser Woche aufflammende heftige Kritik an Facebook ist absolut nachvollziehbar und legitim - ein Unternehmen versucht sich an seinen Kunden, ohne deren vorherige Zustimmung. Aber deswegen sollte man die Praxis des Experimentierens nicht grundsätzlich verdammen.

Facebook

Read More »

Post a Comment

Präzise Unternehmensentscheidungen auf Basis Big Data

Wozu genau brauche ich eigentlich Big Data? Ach ja - stimmt - um meine Analysen zu verbessern.

Und warum mache ich nochmal Analytik auf Big Data (Big Data Analytics)?

Die Antwort ist noch viel einfacher: Von der akademischen Anwendungen vielleicht einmal abgesehen, ist das eigentliche Ziel die datenbasierte Entscheidungsfindung.

Young woman thinking with pie charts circulation around her head

Im privaten Umfeld z.B. vergleiche ich Preise von verschiedenen Anbietern und den Preisverlauf eines Produktes, um eine Kaufentscheidung zu treffen. Preissuchmaschinen helfen mir hier beim Sammeln der Daten und deren visueller Aufbereitung. Auf der anderen Seite beobachten natürlich auch die Anbieter ständig den Markt, ihre Mitbewerber und die Nachfrage nach ihren Produkten, um den optimalen Preis zu finden (bzw. eine Entscheidung zu treffen, ob dieser angepasst werden soll).

Entscheidungen wurden immer schon getroffen - aber eben jetzt zunehmend auf der Basis von Daten und deren Auswertung. Hintergrund ist wie so oft "Big Data": Die Datenmenge (ja, auch die anderen zwei V's) erlaubt immer bessere Modelle auf deren Basis immer bessere Entscheidung getroffen werden können. Daher wächst im täglichen Betrieb der Anteil der datengetriebenen Entscheidungsfindungen bei strategischen Entscheidungen sowohl im Management als auch in allen Fachbereichen.

Tools wie SAS Visual Analytics fördern diese Entwicklung indem sie ihren Nutzern immer mehr statistische und analytische Methoden zur Verfügung stellen. Mit solchen Tools können Fachanwender auch ohne tiefgreifendes statistisches Know-how - und ohne viel Aufwand in der Datenaufbereitung - Daten visualisieren, Zusammenhänge finden und letztendlich die Entscheidungen optimieren.

Die Unterstützung bei der Entscheidungsfindung im operativen Tagesgeschäft  bedarf aber einer gewissen Automation und Kontrolle, um ein möglichst hohes Maß an Konsistenz sicherzustellen. Unter dem Überbegriff "Enterprise Decision Management" unterstützt SAS hier mit Lösungen wie dem SAS Decision Manager.

Grafik2

Der Ansatz sowohl Analytische Modelle als auch Business Rules in einem wohldefinierten und überwachten Prozess zu vereinen, erlaubt es genau diese präzisen (und konsistenten) Unternehmensentscheidungen zu treffen, um die es eigentlich geht und die hoffentlich den entscheidenden Wettbewerbsvorteil verschaffen.

Anwendung finden diese Prozesse dann z.B. bei der (Vor-)Entscheidung zur Annahme eines Kreditantrages, bei der Entscheidung ob ein Kunde ein Up-sell / Cross-sell Angebot bekommen soll und welches, etc. Die Analytischen Modelle liefern üblicherweise eine Bewertung (z.B. die Wahrscheinlichkeit eines Kreditausfalles in %) und die Business Rules entscheiden dann, wie mit diesem Antrag weiter verfahren werden soll - Ablehnen, Annehmen oder ein manueller Prozess in dem ein Mitarbeiter noch einmal prüfen kann. Durch konsequente (automatisierte) Dokumentation und Historisierung wird ein Höchstmaß an Sicherheit und Nachvollziehbarkeit geschaffen und die Möglichkeit einer kontinuierlichen Verbesserung der Prozesse.

Mich würde brennend interessieren in wie weit bei Ihnen schon solche Automatismen implementiert oder in Planung sind. Über Kommentare hier im Blog oder per Email würde ich mich sehr freuen!

Post a Comment

Visualisierung von Produktionsdaten - auch das ist Industrie 4.0

Visualisierung von Daten ist nicht nur bei Business Analysten äußerst beliebt, auch Ingenieure und Wissenschaftler arbeiten mit Daten, die - interaktiv visualisiert - zum Beispiel Ingenieuren helfen können Produktionsprozesse zu optimieren. Read More »

Post a Comment

WM-Beitrag zu Predictive Analytics im Fußball - so kann es wirklich funktionieren

Die Fußball-Bundesliga Saison hier in Deutschland ist gerade vorbei - und das nächste Highlight steht bereits vor der Tür. Wir freuen uns heute auf den Start der WM in Brasilien.

Offen gesagt bin ich kein Fußball-Experte, verfolge aber die "schönste Nebensache der Welt" schon gern wie viele andere auch. Allerdings frage ich mich, warum der Einsatz von Predictive Analytics im Fußball - oder im Sport allgemein - nicht eine noch größere Rolle spielt. Dabei meine ich nicht so sehr die Möglichkeiten, einzelne Spielergebnisse oder Saison-Endstände vorherzusagen. Das ist sicher auch interessant - und für den jenigen, der es schafft, den Buchmacher zu schlagen - bestimmt eine lohnenswerte Sache. Dazu gibt es auch bereits jede Menge Blogs, Studien und sonstige Veröffentlichen, wie z.B. Sportwetten XXL oder Prosoccer, die übrigens beide mit neuronalen Netzen arbeiten. Aber nein, ich meine etwas anderes, eine unternehmerische Sicht auf Fußball.

football

 

Predictive Analytics - realistische Anwendungsszenarieren

Vielmehr meine ich den Einsatz von Prognoseverfahren zur Entscheidungsunterstützung bei Fragestellungen, die den Betrieb eines Profi-Vereins betreffen. Zwei mögliche Einsatzfelder wären etwa:

(1) Scoring-Modelle für die Zielgruppenselektion bei Ticket-Verkäufen oder der Verkmarktung von Merchandising-Artikeln oder Premium-Mitgliedschaften für Vereinsmitglieder. Hierin ähneln sich die Aufgaben eines Vereins vielleicht denjenigen, die ein Manager im Database-Marketing eines Dienstleistungsunternehmens (Medien, Einzelhandel) hat und die heute eben häufiger schon mit Hilfe von Predictive Analytics gelöst werden. Schließlich stellt ein (potenzielles) neues Mitglied vielleicht aus Sicht des Vereins auch einen möglichen Neukunden dar, den es gilt,  für sich zu gewinnen und durch geeignete Angebote zu binden gilt.

(2) Quantitative Modelle zur Bewertung von Spieler-Potenzialen, um die Lukrativität eines möglichen Transfers oder Spielerkaufs zu bewerten, also im betriebswirtschaftlichen Sinne Preisunter- und obergrenzen mit Hilfe mathematischer Verfahren auszuloten. Eigentlich müssten hier ideale Voraussetzungen vorliegen: Daten wie z.B. Transfer-Historie, Performance auf dem Spielfeld und medizinische Werte einerseits, fussballbegeisterte und damit motivierte Analysten andererseits. Trotzdem scheint es - zumindest in Europa - noch nicht weit verbreitet zu sein.

Dass es grundsätzlich geht, zeigt - wie in vielen Fällen - das Beispiel USA. Im Umfeld Baseball hat sich sogar eine eigene analytische Disziplin Sabermetrics dafür etabliert. Ein ganzer Kinofilm "Moneyball  - Die Kunst zu gewinnen" (mit Brad Pitt in der Hauptrolle) dreht sich sogar um dieses Thema. Auch im professionellen Basketball gibt es Ansätze. Das NBA-Team der Orlando Magic nutzt beispielsweise analytische Entscheidungsbaum-Algorithmen zur Klassifikation von Dauerkarten-Besitzern.

Immerhin, die englische Premier League macht es in Europa vor. Hier gibt es erste Ansätze von Fussball-Teams, sich mit dem Thema Analytics zu beschäftigen, wenngleich man offenbar noch nicht so weit ist, Prognosemodelle anzuwenden.  Der Blog-Beitrag The Winning Formula gibt aber bereits einen schönen Überblick.

Vielleicht tragen diese Beispiele ja dazu bei, das Thema "Predictive Analytics im Sport" mittelfristig aus der Abseitsfalle zu befreien. Für das kommende WM Turnier müssen wir wohl noch darauf verzichten. Es wird trotzdem hoffentlich spannend ...

 

 

 

 

Post a Comment

Gastbeitrag: "Being Data Driven with Hadoop"

We asked Lars George, EMEA Chief Architect at Cloudera, to share his opinion about Hadoop, Big Data and future market trends in Business Analytics.

The last few years have seen a rise of data in many forms and shapes, generated by humans in the ever growing social and business networks of vast Internet properties, but also by machines in the so called Internet of Things - meaning a proliferation of smart devices that report their status or interaction with humans or other machines at a very high rate. This is, for example, the now ubiquitous smart phone that we all like to use to surf the web, receive emails, and - if time permits - play games. Any of these activities creates a flurry of events that is reported and logged at the service provider to form a profile of user behaviour - usually not on the individual but group level. And would we not rather get offers from vendors that target my needs and wishes? The alternative is to be swamped with useless requests and seemingly (well, it is!) unrelated information.

All of this leads us the new age of data driven organisations, those that take this information to increase their service to its customers and eventually yield a better return on their investment, bolstering the bottom-line by better sales numbers and more revenue. It is in effect a win-win situation: customers are better served and feel like they are personally addressed, while businesses can sell more products and services. There is a new technology that drives this approach home, usually described as “big data”, though this is a ambiguous as “cloud”, or any other such buzzwords. There is more to being data driven than handling a lot of data, more aptly described using the “three V’s of Big Data”.

The Three V’s of Being Data Driven

Note that I am refraining from using “big data” in the section title, as it is implying only one part of the equation. The ultimate goal is to be data driven, and that means to be able to process data that can be described with the following features:

Volume - This is the “big” in big data technology. You may have accumulated Terabytes, Petabytes, or even Exabytes of data and need to process it efficiently. It is not enough to move this data on cheaper, long-term storage as it would not be accessible. Here we rather talk about data that is available for analysis without any further preparation. It requires a storage system that can handle the amount of data while being able to process it.

Velocity - Switch on the Large Hadron Collider and you may have to collect one Petabyte per second (source: http://www.lhc-closer.es/1/3/12/0)! Obviously this is an extreme example, but recent users report they have to store 150TB per day, or 1.7GB per second listening to the above mentioned Internet of Things. These are events generated by smart devices with their many users employing them. How can you keep up with such an influx of raw data that needs to be preprocessed and prepared for subsequent analysis?

Variety - The third major aspect of the new age of data is its nature, or structure, type, form. Here we often hear the term “unstructured data”. I like to describe this as: “Not my data.”. It really says that the data arrives in formats that might be structured, just not in a way that suits my current setup or relational schemas. An elaborate and time consuming ETL processing would have to force the data into whatever is needed before moving on. It is the difference between “schema on read” vs. “schema on write”. The latter is often expensive and requires to have the questions ready that are asked from the data.

There are further V’s that have been added over time (and by different vendors), mostly aiming at explaining what the purposes of all of this is. The most suitable one here might be Value. Overall the new approach and technology around big data is just about that: driving the increase of value per stored byte (sometimes referred to a “cost per byte”) by being able to analyse the data over and over again, asking new questions as they arise, while still being able to access the data in full fidelity.

Hadoop - An Ecosystem

Existing technologies - especially around the traditional Enterprise Data Warehouse - have started to show limitations to handle one or more of the V’s of big data so smart companies in the late nineties set out to overcome those boundaries. One approach was to scale up existing technologies even further, changing storage layouts to speed up analytical workloads or increase hardware I/O channels to faster move data within the infrastructure. The majority is akin to increasing the complexity of the system and comes at a cost - usually price. Google set out on a different route, implementing a scalable, reliable, fail-safe alternative based on commodity hardware: 19” rack servers with standard CPUs, disks, and memory. The driving force was Moore’s law, finally providing powerful yet affordable computing hardware that could be used to build something new. Releasing technical publications explaining the technology on a higher level led to the ideas being picked up by a single open-source developer, namely Doug Cutting.

Doug started the Hadoop project in the mid 2000’s out of the need to store web crawl data, just as what Google did. Named after a toy elephant his son owned, he set out to replicate the same ideas, building a file system that is “web scale” and using the given CPUs per machine to run distributed computing as MapReduce jobs. Other large engineering companies such as Yahoo! and Facebook helped further the cause and today we have an entire ecosystem representing the Hadoop idea.

Many auxiliary projects joined over time helping ingest data from various sources (Sqoop for relational data, Flume for event data), process it in many ways (Hive and Impala for SQL access, Pig for imperative scripting, Spark for programmatic access), have a visual interface (Hue), enable random access (HBase), as well as define complex workflows (Oozie). Over time there will be parts waning to be eventually replaced with other, newer and more flexible or powerful abstractions. This is all part of a healthy ecosystem, which develops and flourishes over time.

Interesting fact though is that there is literally no competition to Hadoop. Pretty much every vendor has adopted the standard and those few attempts to later on compete with it have been abandoned since. What is also normal these days is that you do not install Hadoop as a collection of source code packages, trying to make them work in tandem - something that is quite a challenge. Like in the Linux world, today there are distributions available that help you install Hadoop from scratch in a very short amount of time and providing you with proven, tested, and carefully selected components working out of the box. One such distribution is Cloudera’s CDH (link: http://www.cloudera.com), which includes all of the above components and more.

Analytics

Part of the evolution of Hadoop is its recent move from being purely batch driven - which is part of the original design - to something more timely. As it is with all data processing technology, in the end it is all just physics. In other words, to improve performance you have to reduce the amount of data being transferred and handled to as few as possible: the best I/O is the one you don’t do. For that matter, data is laid out in better file formats that follow columnar approaches, reducing the scanned data to just the project columns (Parquet), or data is cached in memory for iterative processing (Spark) - which is difficult to handle with the original MapReduce approach as introduced by Google and Hadoop in succession.

Also Search has been added to CDH as “savvy people know SQL, but everyone knows search”. This enables exploration of data by the entire organisation who then ask new questions, out of which some are then implemented in SQL for more specific processing, or in a native API language (Java or Scala) to gain ultimate control. Automated ingestion allows to keep search indexes in sync as data arrives and reduces the wait time to mere moments.

What is also exciting is how the world of data analysis is opening up their tools to the data stored in Hadoop. SAS, the leading force in analytics, is working closely with the Hadoop community, and Cloudera as a partner to bring their expertise to the ecosystem (link http://www.sas.com/en_us/software/hadoop-big-data.html). New developments enable long term SAS users to run their existing algorithms on this new source of data and eventually deploy the very same into the Hadoop framework to run close to where the data resides.

Other open-source choices are still in flux, starting new efforts and/or merging with others, while slowly converging to more powerful libraries. Especially in the world of predictive analytics there is still a lot of development going on, but stable algorithms have been identified and tried, which make their way into tools like Oryx as well as Spark MLlib. Processing abstractions such as Crunch have been ported from plain MapReduce front-ends to also run atop of emerging (though yet not fully matured) in-memory processing frameworks (Spark).

Big Data Engineering

Another important part in this new world of Hadoop is the automation of data processing, or productionizing workflows. This is an exercise that can be described as the core of “big data engineering”. There is an inherent need to first identify the actual use-case, prototype and approve it. Usually that is part of a proof-of-concept project that comprises decision makers from the organisation with domain knowledge and optionally (though ideally) external experts with experience in the technology (link http://www.cloudera.com/content/cloudera/en/products-and-services/professional-services.html). But once the approach is chosen and the data pipeline components selected, the crucial part is to move this idea into production. This requires building the workflows and automate them in an “information architecture” (IA) that describes not only the current use-case, but an overall approach of sharing the Hadoop cluster resources across many users and organisational units. Again, you can reach out to experienced service providers in this space to solve the technology part, though it is advisable for any truly data driven organisation to build out this knowledge in-house to guarantee success with Hadoop long term.

Times are exciting and Hadoop is the clear leader in the new field of big data, aka being data driven. The platform offers many tried and tested components and with the integration of established solutions from companies like SAS the opportunities are aplenty. While parts of the technology still develops it is now the best time to start and gain more insight from your data, by using the proper big data architecture as well as the exploratory and operational analytics offered by SAS and Cloudera as strong partners in this space. Live long and prosper!

Links

•" Building a Hadoop Data Warehouse: Hadoop 101 for EDW Professionals” by Dr Ralph Kimball (http://www.cloudera.com/content/cloudera/en/resources/library/recordedwebinar/building-a-hadoop-data-warehouse-video.html)

Post a Comment

Data Day Zürich - wir laden herzlich ein!

DataDay_LOGO

Da war doch mal was, Sie erinnern sich, Hoodiejournalismus?! In dieser Diskussion über Digital gegen Print, jung gegen alteingessen, #hoodie vs. #schlipsy, über was ist Premium oder was ist hautnah dabei, über was erscheint modern, zeitgemäß und innovativ oder was bezahlt die Miete am Ende des Monats, ist ein Punkt ziemlich kurz gekommen. Oder vielleicht habe ich es überlesen – Entschuldigung dafür! Aber ich glaube fast nicht. Auf was ich raus will: Die #Hoodies liefern Daten und damit Fakten. Read More »

Post a Comment

Mit Visual Analytics: Eigene Produkte bei Amazon, Ebay und Co. suchen

Lesen Sie jetzt exklusiv: Die Geheimnisse von Visual Analytics - Teil 1: die eigenen Produkte bei Amazon, Ebay und Co. suchen mit VA.

Ich war schon immer ein Spielkind. Vielleicht lag es daran, dass mein Opa Automechaniker war und ich schon als 3-Jähriger wusste, was ein 17er Schlüssel ist. Vielleicht ist es mir einfach angeboren: Als Jugendlicher brauchte ich nur ein Schweizer Taschenmesser, eine Kaugummiverpackung und … Moment, ich drifte ab. Zurück zum Thema: Ich war schon immer ein Spielkind. Mit Visual Analytics hab ich seit zwei Jahren ein Werkzeug gefunden, und möchte Sie, liebe Leser, gelegentlich in diesem Blog an einer kleinen Entdeckung teilhaben lassen. Heute zeige ich Ihnen, wie Sie Diagramme im Visual Analytics Designer ganz einfach so verändern können, dass z.B. ein Klick auf einen Balken eines Balkendiagrammes eine Amazonsuche auslöst. Read More »

Post a Comment

Zur re:publica: das Big Picture zum Vortrag von Viktor Mayer-Schönberger

Was gibt es zu „Big Data“, das nicht schon „big-time-häufig“ gesagt, geschrieben, irgendwo kopiert und wieder niedergeschrieben wurde? Und damit Big Data erst möglich macht? Eine ganze Menge! Professor Viktor Mayer-Schönberger eröffnete den zweiten Tag der re:publica auf der großen Bühne mit diesem Thema. Nachfolgend fasse ich den Vortrag zusammen – mit Hilfe der ca. 75 Twitterer, die im Raum waren und zitiert, zusammengefasst und kommentiert haben. Wer sich mehr für die Thesen von Viktor Mayer-Schönberger interessiert, dem sei gleich hier sein Interview empfohlen und der Hinweis gestattet, dass man hier auch direkt sein aktuelles Buch gewinnen kann.

Mir ging es ähnlich. Der Vortrag wurde direkt mit Stern versehen und unter den Favoriten in der App gespeichert bereits Wochen vor der re:publica. Nicht nur, weil ich bei SAS das Interesse an dem Thema sozusagen im Arbeitsvertrag stehen habe: Mayer-Schönberger ist jemand, der einen direkten Einfluss auf den Umgang mit Big Data hat. Auf globaler Ebene. Es ging mir also ein wenig um das Thema, aber eben auch um die Person, die dort auf der Bühne stand. Wenig verwunderlich, dass ich mit meinem Interesse nicht allein war: Read More »

Post a Comment

Interview zur re:publica mit Professor Mayer-Schönberger: „Es muss sichergestellt werden, dass ich mich gegen die Maschine entscheiden kann!“

Viktor Mayer-Schönberger ist Oxford-Professor, Berater internationaler Organisationen sowie einer der Keynote-Speaker der re:publica 2014. In seinem Bestseller „Big Data: Eine Revolution, die unser Leben verändern wird" wirft er ein kritisches Licht auf Big Data Analytics – zeichnet aber auch positive Szenarien auf. Wir haben ihn gefragt zu seinen Forderungen an die Politik, zu seiner Einschätzung der Nutzung durch Unternehmen und zum Know-how, das jeder Einzelne seiner Meinung nach mitbringen sollte. Und nach seiner Botschaft für die digitale Szene in Deutschland, wenn er im Mai die Bühne im STATION-Berlin betritt.   Read More »

Post a Comment