Datenqualität ist ein Thema, das in Versicherungen häufig thematisiert wird, im Projektalltag aber ebenso häufig eine untergeordnete Rolle spielt. Ich habe Karen Prillwitz zum Stellenwert des Themas Datenqualität bei großen Versicherern befragt. Karen Prillwitz hat viele Jahre Versicherungen beraten und als Projektleiterin in einem großen deutschen Versicherungskonzern die Auswirkungen schlechter Datenqualität zu spüren bekommen. Sie hat eine klare Meinung zu diesem Dilemma.
Warum ist ein professionelles Datenqualitätsmanagement für Versicherungen so bedeutend?
Karen Prillwitz: Das Thema Datenqualität ist so alt wie die IT-Branche selbst. Qualitative Probleme und ihre Auswirkungen sind vielschichtig. IT-Abteilungen denken vor allem an programmierte Regeln, die sicherstellen sollen, dass Dateneingaben korrekt sind. Aber ein technisch gültiger Inhalt ist fachlich noch lange nicht richtig. Wer kennt das nicht: Gleiche Spaltenüberschriften mit unterschiedlichen Inhalten – das hat schon so manche Vorstandssitzung um eine Diskussion über die richtige Zahl „bereichert“. Klingt lustig, ist es aber nicht, denn das unterminiert das Vertrauen in die Zahlen. Auf unseren Alltag übertragen: Stell Dir vor, Dein Auto zeigt Dir an, dass der Tank bald leer ist, sagt aber, Du hast noch 400 km Reichweite. Was ist richtig?
Natürlich tanken ... Aber Du hast recht, klingt trivial, kann aber ungewollte Folgen haben …
Karen Prillwitz: Genau, und wenn Qualitätsprobleme ein ganzes Projekt zum Scheitern bringen, dann wird deutlich, welchen Stellenwert das Thema haben sollte. Schlechte Datenqualität kostet Geld, kann zu erheblichen Projektverzögerungen und im schlimmsten Fall zu gravierenden Fehlentscheidungen führen. Daten sind in einer Versicherung der Rohstoff bzw. das Fundament für viele wichtige Entscheidungen. Tarifkalkulation auf Basis von Telematikdaten, Risikoanalysen aus NatCat-Schäden und Wetterdaten, NBA/NBO, Net Promoter Score, um nur einige wenige der datengetriebenen Themen zu nennen. Dein Haus würdest Du auch nicht auf Sand bauen, sondern auf einem soliden Fundament. Professionelles Datenqualitätsmanagement sorgt dafür, dass Entscheidungen auf einem solchen soliden Fundament getroffen werden können.
Stimmt, und die Anzahl datengetriebener Entscheidungen nimmt immer mehr zu. Das sehe ich auch in anderen Branchen. Machen regulatorische Anforderungen das Thema Datenqualität nicht noch wichtiger?
Karen Prillwitz: Richtig, neue gesetzliche Vorgaben wie SII und IFRS tun ihr Übriges dazu. Aber auch neue innovative Projekte, zum Beispiel im Umfeld der Digitalisierung, sind nicht zu unterschätzen. Data Scientists erschließen viele neue Datenquellen aus dem Social- bzw. Big-Data-Umfeld. Sie müssen die Daten inhaltlich verstehen, um sie sinnvoll analysieren zu können. In diesen agilen Projekten geht es um Schnelligkeit. Die Qualität der Daten bestimmt, welche Ergebnisse erreicht werden können. Warum unnötig Zeit verschwenden mit Analysen, die mit den vorhandenen Daten gar nicht möglich sind?
Und wie kann die Software dabei unterstützen? Regeln lassen sich auf unbekannten Daten schwer anwenden.
Karen Prillwitz: DQ-Software unterstützt z. B. mithilfe von Profiling gleich zu Beginn einer neuen Analyse. Dass das Ganze auch performant möglich ist, dafür sorgt die geeignete Technik, bei SAS zum Beispiel mit einem „In Hadoop“ Profiling. Wichtiger Vorteil: Die entstandenen Regeln können später sogar produktiv genutzt werden.
Also viele Gründe, das Thema Datenqualität zur Chefsache zu erklären und professionell aufzusetzen. Was ist denn aus Deiner Sicht unter einem professionellen Datenqualitätsmanagement zu verstehen? Geht es dabei vor allem um Software?
Karen Prillwitz: Die geeignete Lösung spielt natürlich eine wichtige Rolle. Sie muss die Qualitätsverantwortlichen optimal unterstützen und auch für den weltweiten Einsatz geeignet sein. Und sie ist natürlich die Basis für ein aussagefähiges Glossar und das gesetzlich geforderte Monitoring der Datenqualität. Viel wichtiger ist aber, dass innerhalb eines Unternehmens ein Verständnis für die Bedeutung von Datenqualität entsteht. Und das muss sich auch in organisatorischen Prozessen widerspiegeln.
Ist all das den Versicherern bewusst? Wissen sie um die große Bedeutung der Datenqualität in ihrem Hause und wieviel Ärger sie sich ersparen könnten, würden sie da ansetzen?
Karen Prillwitz: Ich glaube, es gibt ein gewisses Bewusstsein, aber die Auswirkungen von schlechter Datenqualität sind schwer messbar und die organisatorischen Hürden bisher nicht ausreichend erkannt. Für Datenqualität ist, historisch betrachtet, nach wie vor die IT zuständig, die Daten aber überwiegend formal prüft. Die inhaltliche Bewertung erfolgt in den Business-Bereichen. Dort fehlen wiederum die Mittel, um für eine gute Datenqualität zu sorgen. Und das muss sich ändern. Lass es mich so ausdrücken: Einen Datenschutzbeauftragten gibt es in jeder Versicherung, Qualitätsbeauftragte findet man eher selten und im oberen Management so gut wie gar nicht.
Das hört sich für mich danach an, dass professionelles Datenqualitätsmanagement bedeutet, einen Data-Governance-Prozess zu etablieren. Ist das so?
Karen Prillwitz: Genau so ist es. In jedem relevanten Businessbereich werden DQ-Verantwortliche benötigt. Und die müssen natürlich auch die Mittel bekommen, ihre Rolle auszufüllen.
Zum Beispiel, um selbst fachliche Regeln erstellen und pflegen zu können?
Karen Prillwitz: Genau, ein ganz elementarer Punkt, denn die bestehenden Verfahren sind viel zu schwerfällig und verhindern, dass die Fachbereiche echte Verantwortung übernehmen können. Dass dabei nichts schief gehen kann, dafür sorgen definierte Übergabeprozesse. So entsteht eine neue Art der Zusammenarbeit zwischen den DQ-Verantwortlichen und der IT, ein neues Rollenkonzept. Managementseitig sorgt ein Data Governance Board für die nötige Priorisierung und die Bereitstellung der erforderlichen Mittel.
Das klingt nach aufwendigen Schritten. Ist das wirklich nötig?
Karen Prillwitz: Das klingt vor allem ungewohnt, aber die Erfolge werden sich schnell einstellen.
Wie fängt man als Unternehmen am besten an?
Karen Prillwitz: Es ist wichtig, mit Augenmaß und einem vernünftigen Pragmatismus vorzugehen. Riesige Abstimmungsrunden und Bürokratiemonster helfen niemandem. Kleine, schlagkräftige Teams mit den richtigen, praxisnahen Lösungen und ein schlanker Entscheidungs- und Priorisierungsprozess sind elementar für den Erfolg. Richtig angewendet spart dies sogar Zeit, da die fachliche Richtigkeit der Daten von den Bereichen sichergestellt wird, die es auch aufgrund ihrer Verantwortung und ihres Know-hows können. Das ersetzt die aufwendige Erstellung von Fachkonzepten inkl. den daraus resultierenden diversen Abstimmrunden. Richtig umgesetzt erhalten Versicherungsunternehmen eine deutlich solidere Basis für ihre Entscheidungen.
Zusammengefasst ist also ein professionelles Datenqualitätsmanagement sowohl aus Kostengesichtspunkten als auch als Basis für regulatorische Prozesse und wichtige Unternehmensentscheidungen für Versicherungen von großer Bedeutung.
Karen Prillwitz: Ja, Zeit, dass es endlich einen entsprechenden Stellenwert erhält.
Danke, Karen. Worauf es dabei noch ankommt, wollen wir in unserem nächsten Gespräch beleuchten.