Kein Datenlabyrinth im Data Warehouse!

0

Don't let your data warehouse be a data labyrinth!

Revisionssicherheit und Datenqualität sind mit die wichtigsten Anforderungen an ein Data Warehouse: verlässliche Resultate von Datenprozessen sind zwingende Voraussetzung für die Korrektheit von analytischen Anwendungen und statistischen Auswertungen. Der Einsatz eines Standarddatenmodells verbessert sowohl die Revisionssicherheit, als auch die Datenqualität einer Data-Warehouse-Implementierung für Business Analytics.

Revisionssicherheit durch ein Standarddatenmodell für Versicherungen

Revisionssicherheit ist dann gegeben, wenn sich der Zustand des Data Warehouse zu jedem historischen Zeitpunkt nachvollziehen lässt. Dies umfasst z.B. die Identifizierung fehlerhafter Daten, die zu einem bestimmten Zeitpunkt im DWH vorhanden waren und die zu Auswertungen herangezogen wurden. Eine solche Transparenz wird unter anderem auch durch verschiedene regulatorische Vorschriften gefordert, z.B. zu Solvency 2.

Eine wesentliche Anforderung an ein Standard-Datenmodell ist deshalb ein revisionssicheres Historisierungskonzept. Im Kern wird dies durch eine konsequente Trennung von technischen und fachlichen Gültigkeitszeiträumen erreicht. Gerade diese Trennung wird in vielen Individualentwicklungen nicht eingehalten, wodurch meist ein Problem in Bezug auf Revisionssicherheit entsteht.

Beispiel für ein revisionssicheres Konzept: Ein Versicherungsvertrag wurde am 25. Juli 2008 im DWH geladen. Ab diesem Zeitpunkt wurde die Police als aktiv im Bestand gewertet und floss entsprechend in alle statistischen Auswertungen auf Basis des DWH ein. Am 26. August 2008 erfolgt ein Storno ab Beginn der Police. Ein revisionssicheres Historisierungskonzept sieht beispielsweise vor, dass dann der ursprüngliche Satz technisch abgeschlossen wird und eine neue Instanz des Datensatzes mit neuem technischem und fachlichem Gültigkeitsdatum gebildet wird.


Blog04_Abb2

 

 

 

 

 

 

 

Zusätzlich zum Inhalt des DWH müssen alle Prozesse, die Daten verarbeiten, revisionssicher nachvollzogen werden können. Dies wird durch die Einbettung eines Standarddatenmodells in eine Metadaten-Architektur erreicht. In dieser Struktur werden die Metadaten folgender Bereiche konsistent abgelegt:

  • Metadaten des DWH Datenmodells (Tabellen, Attribute, Relationen etc.).
  • Metadaten der ETL Prozesse z.B. Mapping-Informationen.
  • Metadaten der Business Analytics Prozesse z.B. Aggregationsregeln.

Hierdurch kann eine automatisierte Impact-Analyse durchgeführt werden, die jederzeit die Information bereitstellt, nach welchen Regeln ein Ergebnis einer Anwendung abgeleitet wurde und welche Attribute der Quellsysteme hierfür herangezogen wurden.

Verbesserung der Datenqualität durch ein Standarddatenmodell

Fehlerhafte Daten sind ein Problem jeder Versicherungsgesellschaft. Die Fehler sind in der Regel historisch gewachsen und haben teilweise einen Grad erreicht, der durch manuelle Maßnahmen nicht mehr bereinigt werden kann. Beispiel: unterschiedliche Quellsysteme speichern Daten zu identischen Entitäten, die jedoch aufgrund von fehlerhafter Erfassung nicht identifiziert werden können. Dies behindert häufig den Aufbau eines konsistenten Partnersystems, wenn unterschiedliche Partnerrollen der Quellsysteme nicht zusammengeführt werden können: z.B. Kunde, Vermittler, externer Dienstleister, etc.

Diese Unzulänglichkeiten der operativen Quellsysteme sollten im DWH nicht einfach kopiert werden, sondern hier ist ein konsistentes, bereinigtes relationales Modell zugrunde zu legen. Gerade in Individualentwicklungen wird dies oft nicht berücksichtigt, da die Versuchung nahe liegt, sich zu sehr an den vorhandenen operativen Strukturen zu orientieren, anstatt die Chance zu ergreifen, durch ein konsistenteres Datenmodell und den Einsatz von Data Quality Werkzeugen die Datenqualität dauerhaft zu erhöhen.

Im Standard-Datenmodell für Versicherungen von SAS ist ein Partnermodell implementiert, welches jeden Partner eindeutig identifiziert und ihm konsistent beliebige und mehrfache Rollen im Versicherungsgeschäftsprozess zuweisen kann. Die Datenbereinigung wird unterstützt durch leistungsfähige Data Quality Werkzeuge einschließlich Master Data Management. Der Datenbereinigungs-Prozess erfolgt im Transformations-Layer des ETL-Prozesses und unterscheidet in der Regel mehrere Stufen:

  • Trennung der ‚Transaktionsdaten‘ (z.B. Prämien, Jahres-Einkommen) von den ‚Masterdaten‘ (z.B. Name, Adresse, Familienstand, Geburtsdatum) und laden der Masterdaten in einer Master Data Datenbankstruktur. Das Master Datenmodell wird dabei als Teilmodell vom Standarddatenmodell für Versicherungen abgeleitet.
  • Bearbeiten der Masterdaten in einer anwenderfreundlichen Benutzeroberfläche durch die ‚Data Stewarts‘ (= Eigentümer der Daten in der Fachabteilung – nicht der ETL-Entwickler!).
  • Unterstützung durch Automatisierungsfunktionen (z.B. Mustererkennung) und ggf. Einbindung von weiteren externen Informationen (z.B. Geo-Systeme).
  • Zurückspielen der validierten Masterdaten in den ETL-Load-Prozess.
  • Laden der bereinigten Daten im Standarddatenmodell des DWH.

Blog05_Abb3

 

Typische Fragestellungen, die im Datenbereinigungsprozess mit Data Quality Management gelöst werden können sind z.B. Erkennung von Haushalten (wichtig für Cross- und Upsell) oder Dubletten-Bereinigung im Partnersystem. Das Standarddatenmodell bietet dazu vordefinierte Strukturen, z.B. für alle Partner-relevanten Informationen, Haushalte, sowie Tabellen zur Dokumentation von Partnerzusammenführungen (z.B. zur Rückmeldung an die operativen Systeme). Durch ein revisionssicheres Historisierungskonzept lässt sich dieser Vorgang jederzeit zurückverfolgen.

 

Mehr zum Thema Datenqualität und Datamanagement finden Sie auch hier. Weitere Details zum Standarddatenmodell für Versicherungen von SAS finden Sie hier.

 

Hartmut Schroth, Business Advisor Datenstrategien für Versicherungen bei SAS Deutschland. Bitte besuchen Sie mich in LinkedIn für weitere Diskussionen zum Thema.

Share

About Author

Hartmut Schroth

Business Advisor

After finishing his master study of mathematics in 1981 Hartmut has been working in insurance and IT business in several positions. Since 2006 he is employee of SAS Institute in Germany. As business advisor in the presales team he is responsible for DACH region (Germany, Austria and Switzerland). His main focus is advising customers of financial services industry in strategies for data models of SAS Business Analytics solutions. Moreover he is regional product manager for the SAS Insurance Analytics Architecture.

Related Posts

Leave A Reply

Back to Top