ISC Big Data – From Data to Knowledge

Thomas_MeuerIm Vorfeld des Kongresses “ISC Big Data” sprachen wir mit Thomas Meuer über die besondere Rolle, die eine Supercomputing-Community im Bereich Big Data spielt. Der Veranstalter der ISC Big Data spricht über die Trends im High-Performance Computing (HPC), die Arbeit im CERN und beschreibt was Unternehmen von der Erfahrung im Forschungsinstitut lernen können.

SAS: Herr Meuer, warum setzen Sie jetzt bereits zum zweiten Mal explizit auf Big Data als Thema Ihres Events?
Meuer: Weil es in der Natur der Sache liegt. Die Technologien und Methoden, die im HPC über viele Jahre entwickelt und angewendet wurden, finden nun ihren Weg in die Unternehmen. Das geschieht eindeutig unter dem Vorzeichen Big Data. Die Datenmengen, die in heutigen Unternehmen als sehr groß und kaum beherrschbar bezeichnet werden, sind im wissenschaftlichen Bereich schon vor Jahren erreicht worden. Entsprechend gibt es hier einen Vorsprung in der Verarbeitung dieser Daten.

SAS: Sie meinen also, dass Big Data eigentlich in der Wissenschaft seinen Ursprung hat?
Meuer: Ich erinnere nur an das Cover einer Nature-Ausgabe im Jahr 2008, die unter der Überschrift „Big Data“ von der Wissenschaft im Petabyte-Zeitalter berichtete. Mit Sverre Jarp, unserem Programmverantwortlichen, haben wir zudem einen Vertreter der Institution, die wie kaum eine zweite für Datenexplosionen, aber auch Innovationen im Bereich der Datenverarbeitung steht: nämlich das CERN. Immerhin wurde durch das World-Wide-Web erfunden.

SAS: Was können Unternehmen nun von diesen Erfahrungen lernen?
Meuer: Angesichts des Hypes um Big Data vielleicht eines am allermeisten: Gelassenheit. Auch das größte Experiment und die schwierigsten Probleme werden nicht durch Technologien gelöst, sondern durch die beste Antwort auf die richtige Frage. Aber sicherlich ist es nötig, sich mit den Möglichkeiten zu beschäftigen, die heutige Technologien bieten – sonst traut man sich vielleicht gar nicht, die passende Frage zu stellen.

SAS: Können Sie das an einem Beispiel erläutern?
Meuer: Denken Sie an große Konzerne mit vielen Millionen Kunden. Vor nicht allzu langer Zeit musste sehr genau überlegt werden, welche Daten man zu diesen Kunden erfassen und aufbewahren will. Auch war der Zugang zu vertieften Analysen stark reglementiert: eine falsche Abfragelogik konnte schließlich für Stunden eine Datenbank lahm legen. Heute gibt es skalierbare In-Memory-Architekturen, die noch dazu kostengünstig aufgebaut und betrieben werden können. Jetzt lohnt es sich, so viel wie möglich zu sammeln und auch iterativ-spielerisch Fragen an die Daten zu stellen. Die Technologie macht’s möglich.

SAS: Und ein bisschen konkreter ...
Während unserer Konferenz werden wir einige solche Technologien vorstellen. So wird Ted Willke von Intel erläutern, wie das Hadoop-Ökosystem neu definiert und somit leistungsfähiger gemacht wird. Genauso wird Mark Torr aus Ihrem eigenen Unternehmen über Technologies sprechen, die Industrieunternehmen nutzen, um ihre Big-Data-Projekte voranzutreiben. Daneben werden verschiedene Anwendungsbeispiele aus den Sektoren Finanzen und Telekommunikation sowie aus dem wissenschaftlichen Bereich vorgestellt.

SAS: Was ist Ihr persönlicher Tipp für die Konferenzbesucher?
Meuer: Aus langer Konferenzerfahrung kann ich nur sagen, dass man auf keinen Fall die Keynote Speeches verpassen sollte, die dank unseres Program Chairs und des Steering Committee eine sehr ausgewogene Mischung aus wissenschaftlichen und kommerziellen Themen repräsentieren: Dirk Slama von Bosch Software Innovations wird sich in seiner Eröffnungsrede auf das Internet der Dinge konzentrieren, während Allen Priestly und Stephan Gillich von Intel die Konvergenz von Big-Data-Analysen und HPC thematisieren werden. Abschließend wird Stefan Wrobel vom Frauenhofer Institut Case-Studies vorstellen, um das Thema Big Data in den gesamtgesellschaftlichen Kontext zu stellen.

Vielen Dank für das Interview! Die international ausgelegte Konferenz ISC Big Data findet vom 1. bis zum 2. Oktober in Heidelberg statt.

 

Post a Comment

Fjord-Kreuzfahrt ohne Fjorde – ad hoc Analytics für taktische CRM-Entscheidungen kann Leben retten

Autor: Dr. Michael Jungbluth, Project Manager und Analytics Experte bei SAS Deutschland

Norwegen-Kreuzfahrten befriedigen recht homogene Urlaubsbedürfnisse. Nicht selten werden diese offensiv nach außen getragen: Die Dichte an hochwertigen DSLR-Kameras und großen Teleobjektiven spricht dazu ihre eigene Sprache. Es handelt sich daher um keine wackelige Hypothese, dass für ein großes Urlaubersegment ambitionierte Aufnahmen der Fjordlandschaften ein Kernbedürfnis darstellen (s. Beweisstück A).

Norway Landscape panorama with ocean and mountain - Lofoten

Beweisstück A: Norwegische Fjordlandschaft im Sonnenuntergang

Wird diesem Segment von jetzt auf gleich die Chance auf die Befriedigung dieses Bedürfnisses genommen, z.B. durch eine Schlechtwetterlage und 11 Meter hohe Wellen, die anstelle des Schiffs in den Fjord drängen, dann klaffen erwartete und tatsächliche Urlaubserlebnisse schnell auseinander. Abweichungen zwischen erwarteten und tatsächlichen Erlebnissen (Soll vs. Ist) sind bekannte Treiber der Kundenzufriedenheit. Dazu muss man noch wissen: Änderungen der Kundenzufriedenheit äußern sich je nach kulturellem Wertesystem, Erfahrungen und Einstellungen der Urlauber unterschiedlich. Der eine Urlauber ärgert und beschwert sich schriftlich am „Customer Relations Desk“. Ein anderer Urlauber erhebt die Stimme direkt am „Excursion Desk“, so dass schon mal die Schiffs-Security zu Hilfe gerufen wird.

Insofern ist der Titel dieses Blogbeitrags zwar im Sinne einer gewissen Effekthascherei mit Absicht überspitzt gewählt, gleichzeitig jedoch nicht völlig abwegig.

Customer Experience Management im Tiefdruckgebiet

Kreuzfahrten sind Paradebeispiele für Anwendungsfelder des sogenannten „Customer Experience Management“.

  • Es gibt sehr viele Kunden-/Serviceinteraktionen in einem relativ kurzen Zeitraum.
  • Es herrscht ein eher hochpreisiges Urlaubssetting und somit eine hohe Aufmerksamkeitsspanne des Urlaubers, was die qualitative Erfüllung erwarteter Serviceaspekte der Reise angeht.
  • Ein selbstbestimmter Abbruch des Urlaubs oder ein Wahrnehmen von Alternativen ist schwer möglich bzw. dann noch einmal richtig kostspielig.

Ergo, eine Kreuzfahrt bietet viel Potential. Sie birgt aber auch viel Risiko mit Blick auf die Ausgestaltung profitabler langfristiger Kundenbeziehungen im „Customer Experience Management“. [1]

Grundsätzlich ist dabei zwischen strategischen und taktischen (also eher operativen) Anwendungsfällen zu differenzieren.

Strategischer Blick auf die Kundenbeziehungen an Bord

Strategisch gesehen handelt es sich bei Kundenbeziehungen um immaterielle Vermögensgegenstände  für den Kreuzschifffahrtsanbieter. Kundenbeziehungen müssen somit als bedeutsame Assets im Rahmen des „Customer Experience Managements“ gemanaged werden. Eine monetäre Bewertung von Kundenbeziehungen sollte stets eine strategische Steuerungsgröße im Kundenmanagement darstellen, als solche auch gemessen und in Form von  Daten vorgehalten werden. D.h. Kunden, die bereits auf ihrer 5. Kreuzfahrt beim gleichen Anbieter sind, und vielleicht auch noch regelmäßig die teuersten Exkursionen buchen, haben einen höheren „Customer Lifetime Value“. Sie sollten grundsätzlich anders gemanaged werden, denn sie nehmen Services anders als Erstbucher wahr und verhalten sich anders.

Von diesen grundsätzlichen strategischen Überlegungen sind die ad-hoc auftretenden operativen Fragestellungen im „Customer Experience Management“ zu differenzieren. Es kommt gerade auf einem Kreuzfahrtschiff häufig zu notwendigen taktischen, d.h. kurzfristigen Entscheidungen mit Auswirkungen auf die Kundenzufriedenheit (z.B. bei einer notwendigen Kursänderung aufgrund einer Schlechtwetterlage). Eine negative (positive) Kundenzufriedenheit führt zu einer geringen (hohen) Wiederbuchungswahrscheinlichkeit und hat somit einen direkten Einfluss auf den „Customer Lifetime Value“.

Die folgende Abbildung beschreibt einen schematischen Zusammenhang zwischen kumulierter Serviceerfahrung und Kundenzufriedenheit für verschiedene Wahrnehmungstypen von Kunden.

KundenzufriedenheitEin Kunde, der sich beispielsweise gemäß der roten Linie verhält, reagiert sehr drastisch auf kumulierte Serviceerfahrungen mit negativem Vorzeichen und erreicht im negativen Bereich sehr schnell den Entschluss, nie wieder zu buchen. Kumulieren sich für diesen Kunden die Serviceerlebnisse auf einen positiven Wert, so gibt es einen Sattelpunkt mit keinerlei Änderungen der Kundenzufriedenheit – weitere positive Erfahrungen führen dann jedoch deutlich schneller zur Buchung einer Anschlusskreuzfahrt als bei Kunden, die sich gemäß der andersfarbigen Verläufe verhalten. [2]

Kundenzufriedenheit ist ein kumulatives Konstrukt, d.h. mehrere zeitlich aufeinander folgende Serviceerfahrungen werden im Aggregat und nicht isoliert betrachtet. Kommt es an Bord zu zwei negativen Erfahrungen, dann stützt sich der Zufriedenheitseffekt der zweiten Erfahrung auch auf die Abweichung von erwarteter und tatsächlicher Servicequalität der ersten Erfahrung. Die Entwicklung der Kundenzufriedenheit hat quasi „ein Gedächtnis und vergisst nichts“. Gerade an Bord eines Kreuzfahrtschiffes mit der inhärent hohen Taktung von Serviceerfahrungen ist demzufolge ein schnelles (kundenwertorientiertes) Reagieren bzw. ein funktionierendes Beschwerdemanagement von großer Bedeutung.

Grau is alle Theorie – entscheidend is auf'm Platz

Genug zur theoretischen Motivation, sich an einem Kreuzfahrtschiff analytisch, strategisch und taktisch mit „Customer Experience Management“ auseinanderzusetzen. Im Kontext der 11 Meter hohen Wellen und einer kurzfristiger Absage der einzigen zwei Fjord-Highlights jeweils am Vorabend spielen die taktischen Aspekte die größere Rolle. Auch Analytics kann kein Tiefdruckgebiet verschwinden lassen und führt auch im Zweifel nicht dazu, dass sich kein Gast lautstark über die Reduktion einer Fjord-Kreuzfahrt zu einem skandinavischen Städtetrip beschwert. Was allerdings antizipiert werden kann ist, wie viele Gäste negativ auf die Organisation einer „Ersatz-Fjord-Exkursion“ reagieren werden, die bereits nach 10 Minuten ausverkauft sein soll. Als verstärkendes Element herrschte an diesem Tag – trotz im Jahresmittel 242 Regentagen – ein blauer Himmel und Sonnenschein. Dies ist gerade für das Segment der DSLR-Kamera-Freunde ein nicht zu vernachlässigender Aspekt. Viele Gäste finden sich von jetzt auf gleich in der „nie wieder-Zone“ der obigen Abbildung wieder und reagieren ungehalten. Aber wie kann ad-hoc Analytics nun „Leben retten“?

Die Buchungsdaten zu den zwei geplanten und ausgefallenen Fjord-Exkursionen liegen bereits vor und diese könnten zusätzlich mit dem Buchungsdatum und weiteren CRM-Stammdaten – wie beispielsweise dem „Customer Lifetime Value“ – angereichert werden.

  • Welche Kunden haben die umfangreichsten Fjord-Exkursionen zu einem sehr frühen Zeitpunkt gebucht?
  • Welche Kunden besitzen grundsätzlich einen hohen „Customer Lifetime Value“?
  • Welche Kunden befinden sich in der kritischen Schnittmenge „hoher Customer Lifetime Value bei Buchung der teuersten Fjord-Exkursionen unmittelbar nach der Einschiffung“?

Neben einem guten Schätzer und Priorisierungshinweisen für notwendige Kapazitäten der ungeplanten Fjord-Exkursion, könnte man sehr schnell diejenigen Kunden identifizieren, denen man bevorzugte Buchungsmöglichkeiten oder sogar Preisvorteile personalisiert auf die Kabine zukommen lassen sollte. D.h. analytische Insights können konkrete Prozesse/Reaktionen an Bord auslösen, die unmittelbar auf eine positive „Customer Experience“ einzahlen.

OsloDass solche Maßnahmen auch operativ eingesetzt werden können, bedingt einer leichten Zugänglichkeit von ad-hoc auftretenden analytischen Fragestellungen sowie einer entsprechenden Datenbasis. SAS Visual Analytics eröffnet solche Auswertungsmöglichkeiten auch für User, die keine analytische Vorbildung haben. Intuitives Datenhandling in Form einer Drag-and-Drop-Exploration aber auch vordefinierte Reports ermöglichen eine leichte organisatorische Einbettung in operativen Entscheidungssituationen. SAS Visual Analytics auf dem iPad liefert unkompliziert mobile BI und Analytics für „Customer Experience Management-Prozesse“, die gerade auf einem Kreuzfahrtschiff eine große Rolle spielen. Machen Sie selbst Ihre Erfahrungen und probieren Sie SAS Visual Analytics oder buchen Sie noch heute Ihre Norwegen-Kreuzfahrt.

 


[1] Dieser Blogbeitrag hat explizit keinen Anspruch auf eine umfassende Sicht auf Kosten- und Erlöstreiber von Kreuzfahrten. Beim „Customer Experience Management“ bzw. dem Fokus auf Kundenzufriedenheit handelt es sich um einen kleinen Ausschnitt auf der Erlösseite dessen finanzielle Bedeutung nicht abschließend gewürdigt werden kann. Beispielsweise werden kapazitätsgesteuerte Verkaufsprozesse sowie das Management von operativen Kosten an Board mit hoher Wahrscheinlichkeit von größerer Tragweite für das Kreuzfahrtunternehmen sein.

[2] Die grafischen Verläufe können sich durchaus im negativen und positiven Wahrnehmungsbereich unterscheiden, ganz unterschiedliche Verläufe haben und stellen lediglich eine schematische Darstellung des Zusammenhangs dar.

Post a Comment

Die Ganesha-Strategie - Hadoop mit SAS

Sie kennen den kleinen gelben Elefanten schon? Hadoop verändert gerade die Welt – zumindest in der IT. Es gibt Experten, die prophezeien, dass bereits in den nächsten drei Jahren mehr als die Hälfte aller Daten der Welt in Hadoop gespeichert werden.

Ganesha - GaneshFakt ist: Bereits heute liegen die durchschnittlichen Kosten pro Terabyte Datenhaltung in einem Hadoop-Cluster bei 500 Dollar. Während bei einer relationalen Datenbank 10.000 Dollar oder gar noch mehr Kosten anfallen. CIOs unter Kostendruck – und wer ist das nicht? – prüfen deshalb sehr genau, wo und wie sie Hadoop in ihrem Unternehmen einsetzen können.

Zumal Hadoop auf einfaches Skalieren ausgelegt ist, indem einfach weitere (günstige) Knoten ergänzt werden – und eben keine teure Migration auf noch teurere größere Hardware erforderlich wird. Das Problem bei Hadoop ist: Es fehlt an Know-how an allen Ecken und Enden. Es gibt einfach viel mehr Programmierer, die SQL beherrschen, als solche, die mit Map/Reduce – dem Programmier-Paradigma von Hadoop – umgehen können. Hier ist noch nicht einmal die Rede von den vielbeschworenen Data Scientisten, die zur Programmierfertigkeit auch noch gute Mathematiker und gute Kommunikatoren sein müssten.

Data Discovery - Erkenne deine Daten!

Weil Hadoop so gut geeignet ist, große Mengen von Daten aufzunehmen, bietet es sich als Data Discovery-Plattform förmlich an. Data Discovery wird immer mehr als der eigentliche Kern von Big Data Analytics verstanden: Es geht eben nicht darum, VORHER zu wissen, was in einem Datentopf steckt und das über Datenmodellierung und Datawarehousing technisch abzubilden. Sondern es geht darum, EXPLORATIV eine Vielzahl unterschiedlichster Datenquellen miteinander zu kombinieren und eine Vielzahl von Analysen durchzuführen: von einfachen deskriptiven Statistiken (Mittelwerte, Grafen und Summen ) bis zu Machine Learning und Mustererkennung.

In der Vergangenheit haben einige wenige Spezialisten Data Discovery betrieben, meistens in analytischen „Sandboxen“. Der Unterschied: In den Sandkästen wurde auch nur mit Spielzeug gespielt: Auszüge, veraltete Schnappschüsse und bereinigte, strukturierte – besser gesagt: relationale - Daten. Im Hadoop-Zeitalter geht es aber um alle Daten, ob strukturiert oder nicht, die vollständig zur Verfügung stehen.

Nun, wenn jetzt so viele Daten so günstige gespeichert werden können, stellt sich die Frage: Wer soll das denn machen? Der Vorschlag von SAS ist: Lasst die Leute an die Daten ran, die Geschäftsprozesse verstehen und Ergebnisse interpretieren können. Und eben nicht (nur) die Data Scientiests oder mathematischen Experten oder Datenintegrationsspezialisten. Lassen wir die zehntausende SAS-User an die Daten in Hadoop heran – jeden nach seinem Kenntnisstand. Dazu bietet SAS bereits jetzt ein breites Spektrum von Werkzeugen rund um Hadoop an – vom Datenmanagement bis hin zu In-Memory-Statistics for Hadoop.

Und was ist jetzt die Ganesha-Strategie? Ganesha ist im Hinduismus der Beseitiger von Hindernissen, dargestellt als vierarmige Gottheit mit Elefantenkopf. In gewisser Weise könnte man sagen: SAS beseitigt die Hindernisse, die der kleine gelbe Elefant Hadoop mit sich bringt und verhilft ihrer Hadoop-Strategie zum Durchbruch.

Post a Comment

Modernisierung der BI - Agile Business Intelligence

In den letzten Jahren hat sich einiges getan im Business Intelligence und Business Analytics Umfeld. Big Data - also der zeitnahe Umgang mit großen und polystrukturierten Daten - ist in aller Munde und zeigt vielen gewachsenen BI-Installationen die Grenzen auf. Aber auch die Art wie BI daher kommt hat sich dramatisch verändert!

Visualisierungen

Vorbei ist die Zeit da BI hauptsächlich aus Balkendiagrammen, Tabellen und Liniendiagrammen bestand. Neue Visualisierungsmethoden erleichtern den Konsumenten das Verstehen der Reports und den Erstellern das Vermitteln des Sachverhaltes. Mit jeder Software-Generation kommen neue Möglichkeiten hinzu und eröffnen sich neue Möglichkeiten - das Ende der Fahnenstange ist da noch lange nicht erreicht.

Interessanterweise geht der Trend aber weg von den verspielten, reflektierenden und dreidimensionalen Objekten, hin zu schlichten, flachen, nur so bunt wie nötig und somit optisch aufgeräumten Visualisierungen, die vom Betrachter viel schneller erfasst werden können. Man hat hier erkannt, das die Aussage der Grafik wichtiger ist, als zu zeigen, das die Software 4 Millionen Farben und 3D beherrscht.

Interaktivität

Interaktivität im Zusammenhang mit Business Analytics bedeutet letztendlich eine Benutzeroberfläche, die ohne lange Wartezeiten auf meine Benutzereingaben reagiert. Speziell wenn es um große Datenmengen, komplexe analytische Algorithmen und viele Benutzer geht, wird das schnell zu einer Herausforderung.

Moderne Architekturen (wie z.B. der SAS LASR Analytic Server auf Basis Hadoop) wachsen praktisch beliebig mit den Anforderungen. Bei Verwendung von preiswerter Standard-Server-Hardware halten sich auch die Kosten im Rahmen.

Pull statt Push (Self-Service BI)

Viele Reports in klassischen BI-Umgebungen sind bereits kurz nach deren Erstellung veraltet. Abgesehen von der Archivierung, ist es natürlich viel sinnvoller, die Berichte dynamisch zu rechnen, sobald sie angefragt werden. Mit einer verteilten In-Memory Architektur sind wir heute in der Lage genau das ohne Wartezeiten zu tun - dank iPad (und Android Tablets) gibt es auch die Möglichkeit die Berichte ohne das Drucken auf Papier überall mit hinzunehmen.

Self-Service setzt dann noch einen drauf und erlaubt das manipulieren der Reports in Echtzeit (s.o. Interaktivität). Die schicke Grafik kann ich so z.B. in meiner PowerPoint Präsentation noch zurecht filtern und bei Bedarf mit den neusten Daten aus dem Datawarehouse (DWH) aktualisieren.

OLAP ist tot!

Eigentlich ist OLAP ja nur eine Krücke, um die Rechenzeit durch eine Vorverdichtung zu reduzieren. Was aber, wenn ich dank In-Memory Technologie in (nahe) Echtzeit rechnen kann und der Preis für den Hauptspeicher so gesunken ist, dass dies auch ohne super teure Hardware möglich ist?

SAS Visual Analytics und SAS Visual Statistics beweisen das so etwas geht! Der umständliche und oftmals langwierige Umweg über OLAP (und lange Wartezeiten bei den IT Abteilungen) gehört somit der Vergangenheit an - ein großer Schritt Richtung Agile BI !

Präzise Unternehmensentscheidungen

In meinem vorherigen Post hatte ich das Thema ja schon einmal angeschnitten. Am Ende will ich bessere Entscheidungen für mein Unternehmen treffen - mit agiler BI mache ich auch einen großen Schritt zu einem agilen Unternehmen, welches am Markt einen nicht zu unterschätzenden Wettbewerbsvorteil hat - hierzu gibt es viele Studien, die dies belegen.

Auch der Forrester Analyst Boris Evelson hat diesen Trend erkannt und mit seinen Kollegen den Markt für "Agile Business Intelligence Platforms" untersucht - ein lesenswerter Bericht, nicht nur weil SAS hier mehr als gut abschneidet.

Forrester

Forrester Wave™: Agile Business Intelligence, Q2 ‘14

The Forrester Wave™ is copyrighted by Forrester Research, Inc. Forrester and Forrester Wave™ are trademarks of Forrester Research, Inc. The Forrester Wave™ is a graphical representation of Forrester's call on a market and is plotted using a detailed spreadsheet with exposed scores, weightings, and comments. Forrester does not endorse any vendor, product, or service depicted in the Forrester Wave. Information is based on best available resources. Opinions reflect judgment at the time and are subject to change.

Post a Comment

Buchempfehlung: Digitale Banken – das Geld steckt in den Daten

Ein Gastbeitrag  von Anne Belder, SAS Niederlande.

„Die Zukunft der Banken ist digital.“ - Der unabhängige Autor und Finanzmarktanalyst Chris Skinner schreibt in seinem Buch "Digital Bank" über die radikale Veränderung im Banking. Viele Ansätze lassen sich daraus ableiten, die gerade aus Sicht eines Big Data Analytics Experten eine besondere Tragweite haben werden. Nachfolgend fasse ich die wichtigsten Punkte zusammen. 

digitalbanksWarum brauchen wir digitale Banken?

Chris schreibt: Wir leben in einer Welt, in der wir nicht bewusst über das Internet nachdenken; es ist einfach da. Also in einer Zeit, auf dem online oder mobil erreichbar zu sein zum Alltag gehört. Das Problem ist, dass die meisten Handelsbanken das digitale Leben noch nicht verinnerlicht haben, während es auf der Welt immer mehr Menschen gibt, die nur noch diese Sprache sprechen. Die Banken ziehen unsere neue und digitale Welt natürlich auch in Betracht, sehen sie aber nur als zusätzlichen Kanal in ihrem Portfolio. Die Herausforderung besteht darin, von dieser Denkweise weg zu kommen und das Bankwesen als digitales Netzwerk zu verstehen, auf das die physischen Kanäle wie Callcenter und Filialen aufbauen.

Aber wie schaffen es Banken das zu erreichen?

Der Ausgangspunkt sind die Kunden und Mitarbeiter. Es muss darüber nachgedacht werden, wie die Organisationsstruktur und die Prozesse optimiert werden können, um sie in ihrer digitalen Welt zu erreichen und zu unterstützen. Banken haben aus der Historie heraus physische Strukturen gebaut, die sie nun versuchen mit digitalen Angeboten zu verbinden. Skinner verdeutlicht in seinem, dass es so nicht funktionieren kann. Banken müssen ihr Denken auf „Restart“ setzen und alles auf den einen, den wahren, den elektronischen Kanal aufbauen.

Das Geheimnis dabei …

ist, dass Kunden nicht länger nach Digitalen Banken suchen werden, sondern erwarten, dass die Bank sie in ihrem individuellen, digitalen Umfeld anspricht. Diese Tatsache wird das Customer Relationship Management dramatisch verändern – denn trotz der Digitalisierung muss der Service auch eine gewisse Personalisierung beibehalten. Um hier erfolgreich zu sein, müssen Banken enorm viele Kundendaten auswerten und einsetzen.

Datenanalysen als Erfolgsgeheimnis

Momentan wütet ein Sturm der technischen Innovationen in der Welt der Banken. Mobiles Networking, soziale Technologien, Datenanalysen und unbegrenzte Netzwerkspeicher entwickeln sich sehr schnell. Laut Skinner sind die Daten darin der wichtigste Vermögenswert. Das Geld steckt in den Daten. Eine effektive Methode um hieraus Informationen zu ziehen, ist das „Data Mining“, das Skinner als die Zukunft der Digitalen Banken sieht.

Die Möglichkeit relevante Informationen aus Daten zu schöpfen, ist der Schlüssel zum Erfolg, mit dem sich Banken von ihrem Wettbewerb abheben können.

Unsere Kollegin Anne Belder liefert uns in ihrem Beitrag Einblicke und Handlungsempfehlungen. Der komplette Beitrag ist in englischer Sprache unter diesem Link zu finden.

gastautor

Post a Comment

Fit und gesund durch die Nutzung von Daten

„Bluthochdruck, der leise Killer“, so lautete die knappe und ernüchternde Diagnose des Arztes. Gewiss, Bluthochdruck ist die häufigste Volkskrankheit in Deutschland. Die letzte Zeit war stressig, an Sport war schon lange nicht mehr zu denken - aber warum musste gerade mich das Schicksal dieser Krankheit treffen? Unter dem Eindruck möglicher Folgen, wie z.B. Herzinfarkt und Schlaganfall, gewann das Thema Gesundheit plötzlich eine hohe Priorität. Ein erster Schritt im Sinne von „Gefahr erkannt, Gefahr gebannt“ sollte mehr Bewegung, sowie eine Gewichtsreduktion sein. Aber was kann mich nachhaltig dazu motivieren?

Doctor holding a red heart

Spaß und Geselligkeit sind die wichtigsten Motive zum Sporttreiben. Eine Mitgliedschaft im Verein oder Fitnessstudio ließ sich zeitlich aus verschiedenen Gründen nicht einrichten. Spaß versprach aber eine technische Innovation von Nike. Das Armband Nike Plus (Nike+) zeichnet die körperlichen Aktivitäten ihres Trägers auf und soll so zu mehr Bewegung und einer gesünderen Lebensweise motivieren. Nike+ misst die Zahl der Schritte, sowie die Zeit der Aktivität und ermittelt daraus Distanz, Geschwindigkeit und Kalorienverbrauch. Die Ergebnisse des Trainings können auf einen Computer oder ein Smartphone übertragen und dort mit einem Programm bzw. einer App ausgewertet und visualisiert werden. Nike ist schon früh noch einen weiteren Schritt gegangen: unter nikeplus.com hat Nike eine große Community mit der Möglichkeit des Vergleichs und der Interaktion zwischen den Nutzern aufgebaut. Das Armband Nike+ wird nicht mehr angeboten - Nike+ Fuelband SE ist das aktuelle Nachfolgeprodukt.

Pulsuhren mit integriertem GPS-Empfänger  werden von ambitionierten Läufern, Walkern oder Fahrradfahrern genutzt. Diese Trainingsgeräte messen die zurückgelegte Distanz, sowie die Höhenmeter per GPS, registrieren die Herzfrequenz und berechnen die verbrauchten Kalorien, woraufhin High-End-Geräte die Ergebnisse per WLAN an die Community senden. Trotz ihrer kompakten Bauform vereinen sie mehrere Sensoren, deren Daten bereits in der Uhr weiterverarbeitet werden können.

GPS-Uhren sind nicht zu verwechseln mit den Fitness-Armbändern Jawbone Up, Fitbit Flex oder Samsung Gear Fit, um nur einige zu nennen. Die Fitness-Armbänder, Fitness-Tracker oder auch „Smart Wearables“ liegen voll im Trend und sollen ihren Träger im Alltag mit Informationen unterstützen, die helfen gesünder zu leben. Apple-Fans müssen sich wohl noch bis Ende des Jahres gedulden. Beobachter erwarten, dass Apple dann mit einer "iWatch" in den Markt einsteigt. Wearables (zu denen auch Brillen oder Kleidungsstücke, in die elektronische Hilfsmittel eingearbeitet sind, gehören) zeichnen verschiedene Körper-, Bewegungs- und Standort-Daten auf. Auf dieser Datenbasis erstellen die Nutzer ihren ganz persönlichen Trainingsplan, zeichnen ihre sportlichen Erfolge auf oder analysieren ihren Schlafrhythmus. Allen ist eins gemein: Ihr wahres Potenzial zeigt sich erst in Verbindung mit den jeweiligen Auswertungs-Apps auf Smartphones, Tablets oder Computern, sowie deren Verbindung mit dem Internet. Daraus entwickelt sich dann „Big Data“ für das Handgelenk.

In Kliniken wird diese Form von „Big Data“ bereits experimentell genutzt. Alle Lebenszeichen, die an Neugeborenen gemessen werden, laufen in einer Datenbank zusammen und werden automatisch von einem Frühwarnsystem analysiert. Das Ziel der Analyse: Früher erkennen, ob sich der Zustand eines Babys verschlechtert, damit Ärzte ggf. schneller reagieren können.

Krankenkassen, die bisher auf die Abrechnung von Leistungen zur Behandlung von Krankheiten fokussiert waren, besitzen einen großen Datenschatz. Sie haben eine Vielzahl von Daten über Tausende von Krankheitsverläufen gespeichert. Diese Daten werden jedoch kaum für die Gesundheitsvorsorge genutzt. Das Bundesdatenschutzgesetz und das Sozialgesetzbuch setzen enge Grenzen für die Verarbeitung von personenbezogenen Daten bzw. Sozialdaten.

Einige Krankenkassen haben den Trend der Fitness-Armbänder oder „Wearables“ erkannt. Die 10.000 Schritte-Aktion der SBK zum Beispiel motiviert zu mehr Bewegung und ist sehr gut angenommen worden. Andere Krankenkassen bieten Apps zur Motivation und Selbstkontrolle an. Damit kann der Kunde seine Körperdaten protokollieren und die Krankenkasse gesundheitsbewusstes Verhalten prämieren. Auf diese Weise wollen die Kassen vor allem bewegungsarme Patienten motivieren, um spätere Behandlungskosten zu sparen. Die Mehrheit der Krankenversicherer hält sich jedoch noch zurück und setzt stattdessen weiter auf die Mitgliedschaft in Vereinen oder den Besuch von Fitnesskursen.

Viele Menschen haben Spaß daran, Daten über ihre Fitness zu sammeln. Sie haben ihren eigenen Körper als Datenquelle entdeckt und sammeln Werte von Blutdruck, Gewicht, Ernährung, Alkoholkonsum und mehr. Mit Health und HealthKit hat Apple bereits eine Software-Plattform für Fitness- und Gesundheitsdaten vorgestellt. Health ist eine neue App, die Gesundheits- und Fitnessdaten übersichtlich darstellt und mit HealthKit steht für die Entwickler ein neues Tool zur Verfügung, mit dem Gesundheits- und Fitnessapps besser zusammenarbeiten sollen.

smart watchesAußerhalb des Geltungsbereichs von Bundesdatenschutz und Sozialgesetzbuch werden große Mengen von Körper- und Gesundheitsdaten gesammelt und eine Vielzahl von Entwicklern wird mit großer Kreativität Apps zur Analyse dieser Daten programmieren. Aber auch Pharmaindustrie, Arbeitgeber, Versicherungen und Banken haben Interesse an den selbst erhobenen Daten. Damit können sie beispielsweise abschätzen, wie wahrscheinlich es ist, dass ein Mitarbeiter oder Kunde erkrankt. In der FAS vom 29. Juni 2014 wurde die Brisanz der Thematik provokant adressiert. Sollen Bewerber mit Gewichtsproblemen von der Beamtenlaufbahn ausgeschlossen werden? „Schließlich haben fettleibige Menschen ein höheres Risiko krank zu werden: Diabetes, Herzinfarkt, Schlaganfall – wer sich damit  in die soziale Hängematte des üppigen Beamtenapparates legen kann, wird für den Staat zum Kostenproblem. Big Data durchdringt alle Lebensbereiche und eröffnet vielfältige Chancen. Aber Big Data fordert uns auch heraus, Antworten für den Schutz der Privatsphäre zu finden.

537 Läufe sind unter meinem Account bei nikeplus.com registriert. Wesentlich sind für mich jedoch nur zwei Zahlen: 127 und 83, die Werte der aktuellen Messung des Blutdrucks. „Gefahr erkannt, Gefahr gebannt“.  Auch der Arzt ist zufrieden. Richtig eingesetzt ist der Nutzen der Analyse von Gesundheitsdaten unbezahlbar.

Post a Comment

Von der Regatta zur intuitiv richtigen Verwendung von Forecasts

Es ist ein lauer Sommerabend im Juli am Neusiedler See. Die Teilnehmer der traditionellen YES-Cup Regatta sitzen bei Bier und Grillkotelette auf der Terrasse unseres Clubhauses. Die Stimmung ist ausgelassen, jeder hat nach zwei ereignisreichen Wettfahrten seine Geschichte zu erzählen.

Eine Unterhaltung am Ende unseres Tisches zieht meine Aufmerksamkeit auf sich, denn es geht um Forecasting, genauer gesagt um die Verwendbarkeit und Treffsicherheit von Wetter- und Windprognosen. Die Meinungen gehen erwartungsgemäß stark auseinander. Von „Meistens falsch“, über „Sind wir froh, dass wir sie haben - hat es früher in dem Detailgrad nicht gegeben“ bis hin zu „Ich richte mich nur nach den Wolkenbildern.“ Dass man die Windverhältnisse vor der Regatta kennt ist wichtig, um Entscheidungen wie. „Mit welcher Größe der Segel gehe ich ins Rennen, damit ich während der Regatta nicht wechseln muss“ oder „Welche Windrichtung wird sich durchsetzen und welche Bereiche des Sees werden daher begünstigt sein?“ besser treffen zu können.

Marc, ein alter Regattahase, erklärt seinen Umgang mit den Windprognosen wie folgt:

Ich sehe mir immer mehrere verfügbaren Prognosen auf Windguru, Windfinder, Otto Lustyk, swz.at und ORF Burgenland an. So bekomme ich ein Bild über die Vielfalt oder die Einheitlichkeit der möglichen Windszenarien - denn offensichtlich verwenden die einzelnen Stationen unterschiedliche Wettermodelle. So kann ich auch abschätzen, ob sich Wetter und Wind für das Regattawochenende gut oder schlecht vorhersagen lassen und wie sehr ich den Prognosen generell vertrauen kann. Außerdem beobachte ich auch, wie sehr sich die Prognosen im Verlauf der Woche verändern. Bleiben sie die ganze Woche über stabil, so scheint die Wetterlage eine klare Vorhersage zuzulassen, verändern sich die Prognosen täglich, so scheinen hier sehr unsichere Wetterverhältnisse auf uns zuzukommen.  Am Regattatag selbst ist die Beobachtung der Wolken und des Himmels sehr wichtig. Diese kurzfristigen und lokalen Fakten können in diese Modelle gar nicht einfließen und geben mir aufgrund meiner Erfahrung zusätzliche Informationen, wie sich der Wind entwickeln wird.“

Wind 2     Wind 1

Auf meinem Gesicht breitet sich ein Schmunzeln aus und ich beteilige mich bewusst nicht an der Unterhaltung, da ich nicht als Statistiker gesehen werden will, der "alles ja nur mathematisch sieht". Viel wichtiger: Es gibt dem Statement von Marc nichts hinzuzufügen. Ohne dass es ihm bewusst ist, hat er gerade wichtige Prinzipien des Business Forecastings zusammengefasst und über den adäquaten Umgang mit statistischen Forecasts gesprochen. Und das obwohl sein beruflicher Background definitiv nicht im Umgang mit Daten, Prognosen oder Dingen wie „Business Intelligence“ liegt. Auf der nächsten Analytics Konferenz kann Marc gerne mit mir die Demo-Station zu „Forecasting“ betreuen, dann das was er erzählt hat, sind wichtige Features in unserem SAS Forecast Server.

  • Kombinierte Modelle für stabilere Forecasts: "Ich sehe mir immer mehrere verfügbare Prognosen“
  • Segmentierung der Zeitreihen - manche Wetterlagen lassen sich besser vorhersagen, manche schlechter: "Ob sich Wetter und Wind für das Regattawochenende gut oder schlecht vorhersagen lassen“
  • Konfidenzbereiche für die Vorhersagen: „In welchem Bereich sich die Windverhältnisse vermutlich bewegen werden“
  • Forecast Stabilitätsanalysen und rollierende Simulationen: „Kann ich auch abschätzen, wie sehr sich die Prognosen im Verlauf der Woche für das Wochenende verändern“
  • Berücksichtigung kurzfristiger oder lokaler Ereignisse durch Overwrites und Judgemental Forecasts: "Geben mir aufgrund meiner Erfahrung zusätzliche Information, wie sich der Wind entwickeln wird"

Forecast

Freuen wir uns also darüber, dass unsere Software offenbar das bietet, was wir Menschen als intuitiv richtig und wichtig betrachten und steuern zufrieden lächelnd den Zapfhahn für ein weiteres Bier an.

Post a Comment

Betrug im Handel oder: Wer den Pfennig nicht ehrt, ist des Talers nicht wert!

Mein Vater hat mir einmal beigebracht, dass der Handel sein Geld im Einkauf verdient. Er muss es wissen, habe ich mir damals gedacht. Schließlich war mein Vater jahrelang bei einem Kölner Handelskonzern als Vorstandsassistent beschäftigt. Besonders in Erinnerung geblieben ist mir die Geschichte, dass der Vorstandsvorsitzende – so wurde erzählt – mit der Straßenbahn ins Büro fuhr, während der Einkaufsvorstand von einem Fahrer mit Dienstwagen abgeholt wurde.

Damals hat mich die Aussage irritiert. Konnte ich mir doch nicht vorstellen dass der Handel mit irgendetwas anderem als dem Verkauf von Waren Geld verdienen könne. Daher doch auch die ganze Prävention – Detektive, Kameras, Überwachung, Kontrolle!

Heute, durch jahrelange Betrugsermittlungsprojekte geläutert, ist mir klar, dass der gewöhnliche Ladendieb, der Süßwaren, Spirituosen und vielleicht 2 Pfund Kaffee klaut, sicherlich nicht die Insolvenz eines Handelskonzerns herbeiführen kann.

Deshalb merke: Wenn Du richtig und nachhaltig in die Kasse greifen willst, tue es im Einkauf!

Nirgendwo sonst werden derartige Finanzmittel bewegt, nirgendwo sonst ist die Geschwindigkeit der Warenumschläge auch nur annähernd gleich hoch und nirgendwo sonst werden in integrierten Lieferketten immer mehr manuelle Kontrollen durch technische Prüfungen ersetzt. Dies bedingt, dass auch die jahrzehntelange Erfahrung des Kaufmanns durch Maschinen ersetzt wird, die – je einfacher gestrickt, desto leichter – recht einfach zu überlisten sind.

 

Utilize the moment

In der Vergangenheit haben wir immer wieder gesehen, wie fiktive Lieferanten, fiktive Waren oder doppelte Rechnungen in den Rechnungs- und Zahlungslauf eingebracht und auf diesem Wege Millionenbeträge innerhalb kürzester Zeit erbeutet wurden. In vielen Fällen konnten wir die Täter nicht mehr persönlich zu ihrem Vorgehen befragen, da sie sich mit den erbeuteten Millionenbeträgen bereits ins Ausland abgesetzt hatten. In einem der wenigen Fälle, in denen uns ein solches persönliches Gespräch vergönnt war, mussten wir allerdings den Weg in die Psychiatrie antreten, da der Versuch das Land zu verlassen aufgrund der Verhaltensauffälligkeiten des Täters bereits am Flughafen gestoppt wurde.

Interessant ist allerdings, dass es nahezu unmöglich ist, diese Betrügereien durch eine Person alleine zu begehen. Häufig ist ein ganzes Netzwerk von Beteiligten notwendig, um Wareneingangskontrollen, Stammdatenkontrollen, technische Kontrollen im Bereich der Waren-Qualitätsprüfung sowie der integrierten Logistiksysteme zu überlisten.

Stellen Sie sich nur einmal vor, wie viel Geld gespart werden könnte, wenn all diese großen und kleinen Betrügereien, die tagtäglich in der Beschaffung, der Logistik und im Warenhandel erfolgen und erfolgreich sind, gestoppt werden könnten. Kennen Sie eine Software, die diese Netzwerke aufdecken kann? Ich schon! Und stellen Sie sich nur mal vor, wie viel Geld im Einkauf dann verdient werden kann!

Ich habe meinem Vater nach all den Jahren die Möglichkeiten der Netzwerkanalyse gezeigt und ihm erläutert, wie wir mit diesen Tools erfolgreich Betrug bekämpfen. Er war sichtlich beeindruckt und meinte, dann könne sich garantiert auch der Vorstandsvorsitzende endlich einen Wagen mit Fahrer leisten.

Post a Comment

Ein Balanceakt: Verbrauchsvorhersagen für Konsumgüter, Regelenergie und Fans der Eintracht

Donnerstagabend, Frankfurt a. M.: Nach der Arbeit noch zum Supermarkt, um mich für das anstehende Europapokalspiel der Frankfurter Eintracht auszurüsten. Schnell an den Chips vorbei, ich sammele Nachos mit Salsa und Käsedip ein. Danach geht‘s ans Getränkeregal. Eine Flasche Cola und ein Sixpack Bier landen im Einkaufswagen. Um die Ecke die Eistheke: Ben & Jerrys Peanutbuttercup Eiskrem. Gefühlte 4.000 Kalorien auf 40 gr. Eis. Check!

Jetzt nur noch schnell meine Lieblingspizza. Beim Blick auf das Pizzaangebot stockt mir der Atem. Über dem Schild „Heute im Angebot!“ der Cheese Peperoni prangert: AUSVERKAUFT! Die Verkäuferin weiß auch nur, dass die nächste Lieferung erst Samstag zu erwarten ist.

image001

Zuhause angekommen bunkere ich meine Einkäufe zunächst im Kühlschrank. Bis zum Anstoß dauert es nicht mehr lange. Wenn die Eintracht heute gewinnt, sind wir in der Gruppenphase und ich freute mich auf ein kaltes Bier und Nachos. Noch zehn Minuten bis zum Anstoß. Die Spannung steigt. Wie schön kann ein Donnerstagabend vor dem Fernseher sein – auch ohne Pizza.

KLONG!

Schlagartig wird es dunkel im Wohnzimmer. Erst denke ich noch, die Sicherung ist raus, aber dann wird schnell klar: Stromausfall. Spitze. Keine Pizza, kein Fußball, dafür warmes Bier mit flüssigem Eis.

Leider leider ist diese Geschichte wahr.

 Warum ich Ihnen diese Geschichte erzähle?

Weil beide Teile der Geschichte etwas gemeinsam haben: Die Balance war nicht vorhanden. Das Gleichgewicht zwischen Angebot und Nachfrage fehlte sowohl bei der Pizza im Supermarkt als auch beim Stromausfall.

Für Konsumgüterhersteller stellt das Thema Verbrauchsvorhersage eine der größten Herausforderungen dar. Es reicht heute nicht mehr, sich Vorjahreszahlen von verkauften Produkten über eine Zeitreihe anzusehen und diese zur Prognose der Zukunft zu nutzen. Stattdessen versuchen „best in class“ Unternehmen kausale Faktoren in den Forecast einzubeziehen, um den bestmöglichen Forecast zu prognostizieren. In meinem Fall hätte der Hersteller durch Einbeziehung der Faktoren „Fußballspiel einer Frankfurter Mannschaft“, „kühles Wetter“ und „Preispromotion“ mit Sicherheit besser vorhersagen und ausreichend Ware im Kühlregal zur Verfügung stellen können – einfach indem er diese Faktoren in seine Prognosemodelle integriert hätte. Die Nutzung solcher kausaler Faktoren wird von einigen großen Konsumgüterunternehmen wie Nestlé bereits genutzt.

Der Lieferant meiner Pizza sollte sich hier ein Beispiel nehmen!!!

Was hat warmes Bier mit fehlender Balance zu tun?

Vorausgestellt sei einfach einmal die Info, dass dieser Donnerstag wirklich ein Unglückstag war. Denn im Durchschnitt fallen pro Haushalt in Deutschland jährlich nur 17 min die Stromleitungen aus [2008], bei einer Gesamtnetzstabilität von 99,9%. Erklären lässt sich diese Stabilität vielleicht mit einem Vergleich: Die deutsche Gesamtregelleistung beträgt 6800 MW – der Hoover Dam am Colorado River nahe Las Vegas produziert 2080 MW, wenn alle 17 Turbinen laufen.

Es gibt allerdings eine andere Analogie zu Konsumgüterherstellern: Energieanbieter müssen eine Balance zwischen Einspeisung und Entnahme im Stromnetz sicherstellen. Sonst drohen Netzausfall und Blackouts durch Prognosefehler oder Fahrplannachlässigkeiten in Strombilanzkreisen. Ob mein Stromausfall nun durch einen Prognosefehler der anstehenden Lasten entstanden sind, vermag ich nicht zu sagen. Wichtiger ist für mich jedoch der Gedanke wie Energieanbieter solchen Differenzen zwischen Energieangebot und Angebotsnachfrage vorbeugen.

image002

In den meisten Fällen werden Reserveleistungen produziert, um in Echtzeit Abweichungen vom Fahrplan der prognostizierten Tageslast auszugleichen. Diese werden im Rahmen von Regelenergieauktionen angeboten. Aber wie kann ein Netzbetreiber den Netzzustand stabil halten? Nun, indem er Kraftwerke, die im nicht ihm gehören, per Fernbedienung hinzuschalten und drosseln kann. Das Recht fremde Anlagen zu aktivieren, erkauft er sich in täglichen Auktionen für Kraftwerksleistungen. Da es sich im Energiegeschäft, um ein nahezu Echtzeitgeschäft handelt, ist es für den „Vermieter“ der Energie extrem wichtig optimale d.h. profitable und wettbewerbsfähige Angebotspreise am Markt zu erzielen. Diese Regelenergieauktionen sind ein sich täglich wiederholendes Spiel mit Stromerzeugern, Stadtwerken, Industrieunternehmen und unabhängigen Anbietern als Teilnehmern. Im Rahmen dieser täglichen „Gamblings“ ist es extrem wichtig, Nachfrage erstens zu prognostizieren und zweitens darauf basierende Preisstrategien am Markt zu optimieren. Durch einen täglichen Zugriff auf alle Daten von regelleistung.net, Wetter.com, und anderen Datenquellen werden Massen an statistischen Kennzahlen aus Arbeits- und Leistungspreisen mit Prognosen für deutschlandweite Windprognosen verknüpft. Hochperformante Data Mining Prognosen können so eine Nachfrage prognostizieren und im Anschluss die optimale Preisstrategie ermitteln, um den Gewinn am Markt zu maximieren. So kann Data Mining in Kombination mit prediktiven Kausalmodellen einen Beitrag für einen ausgewogenen Energiemarkt bilden und dafür sorgen, dass die Wahrscheinlichkeit eines erneuten Stromausfall bei abendlichen Fußballspielen noch weiter reduziert wird.

Ich für meinen Teil habe den prozentualen Anteil an potentiellen Stromausfällen für die nächsten fünf Jahre ausgeschöpft! Wohlgemerkt zum schlechtesten Zeitpunkt aus Sicht eines Eintracht Frankfurt Fans.

 

 

 

Post a Comment

Zum Facebook Experiment: 5 Dinge für die Versuchsplanung, die Unternehmen lernen können

Facebook spielt mit den Gefühlen: Fast 700.000 Nutzer nahmen 2012 an einer psychologischen Studie teil. Unfreiwillig und unwissentlich. In diesem Facebook-Experiment wurde der Hälfte der Nutzer ein manipulierter Nachrichten-Feed angezeigt. Geprüft werden sollte, ob Themen und Tonalität der Fake-News die Stimmung der User beeinflusst.

Die Studie wurde Anfang Juni veröffentlicht. Die mit leichter Verspätung in dieser Woche aufflammende heftige Kritik an Facebook ist absolut nachvollziehbar und legitim - ein Unternehmen versucht sich an seinen Kunden, ohne deren vorherige Zustimmung. Aber deswegen sollte man die Praxis des Experimentierens nicht grundsätzlich verdammen.

Facebook

Read More »

Post a Comment