So geht Innovation in der öffentlichen Verwaltung

0

Behörden und Innovation: Was sich nicht gerade nach einer Traumpaarung anhört, hat in der Praxis reichlich Potenzial. Wenn es zum Beispiel darum geht, im Risikomanagement Prozesse per Datenanalyse teilweise zu automatisieren. Oder digitale Bürgerservices einzuführen. Letzteres erfordert die Transformation der ganzen Behördenstruktur – und diese erfordert Zeit. Doch auch eine einzelne Abteilung lässt sich nicht einfach in einer Hau-Ruck-Aktion umkrempeln.

Externe Verstärkung

Um eine Abteilung von Grund auf digital zu transformieren, muss man erstmal – ebenso wie in der freien Wirtschaft – eine Wissensbasis schaffen und dafür externes Know-how hinzuziehen, wenn dieses nicht inhouse vorhanden ist. Eine IT-Abteilung gibt es in der Regel, aber Experten für Data Science und Business Analytics fehlen. Ein Data Scientist, der das Bindeglied zwischen IT- und Fachbereich bildet, hat die Aufgabe, die Daten für die Analyse aufzubereiten und auszuwerten.

Hidden Insights: So geht Innovation in der öffentlichen Verwaltung SAS

So geht Innovation in der öffentlichen Verwaltung

Experimentieren mit echten Daten

Der zweite Punkt ist, ein Experimentierfeld zu schaffen, in dem neue Konzepte oder Methoden wie Künstliche Intelligenz und Machine Learning einfach ausprobiert werden können – und zwar mit echten Daten. „Im öffentlichen Dienst funktioniert nichts ohne ein Pilotprojekt“, sagt Dr. Martin Setnicka, der mit seinem Unternehmen S!MART thinking andere Unternehmen bei der Digitalisierung im Steuer- und Rechnungswesen berät. „Dabei muss man sich bewusst sein, dass die ersten Ergebnisse noch nicht perfekt sein können, da es ein lernendes System ist. Die wirklich validen Erfolgsquoten oder Erfolge kommen daher erst im Laufe der Zeit.“

Oft dominiert bei der Auswertung von Daten der Blick zurück. Sprich: Sie bezieht sich nur auf historische Daten. Denn davon gibt es gerade in einer Behörde in der Regel sehr viele. Künftig wird aber das Thema Echtzeit für eine schnelle Auswertung immer wichtiger, um auffällige Transaktionen wie Betrug frühzeitig zu erkennen und abzuwehren.

Historische Daten versus Realtime

„In den nächsten Jahren wird man das Thema Realtime Monitoring vorantreiben müssen“, meint Setnicka. „Nicht zuletzt, weil es EU-weit immer wieder gesetzliche Änderungen – beispielsweise im Zollrecht – gibt und es viel zu aufwändig wäre, diese manuell vorzunehmen, statt Analytics dafür zu nutzen. Von der Umsatzsteuer- bis zur Zollerklärung – all das muss heute so zeitnah wie möglich ausgewertet werden.“

Und um sich ein umfassendes Bild zu machen, beispielsweise im Hinblick auf potenziellen Steuerbetrug, reicht es außerdem nicht, sich Daten auf nationaler Ebene anzuschauen. Es müssen Daten der Europäischen Union herangezogen werden. Denn nur so lassen sich groß angelegte Betrugsdelikte wie Steuerkarusselle aufdecken.

Am Anfang steht das Ziel

Bis zur produktiven Bereitstellung von Datenanalysen für die verschiedenen Abteilungen einer Behörde ist es jedoch ein langer Weg. Zunächst muss das Ziel eines Projektes definiert und festgelegt werden, welche Daten dafür notwendig sind. Dafür ist eine interdisziplinäre Herangehensweise unerlässlich. Der Business Analyst sagt, welche Daten er benötigt, der Data Scientist bereitet sie auf und wertet sie aus. Eine Prüfungsinstanz sollte zwischendurch immer wieder sicherstellen, dass man auch tatsächlich mit den richtigen (und zulässigen) Daten arbeitet. Und: Bürokratische Hürden sind nicht zu unterschätzen. Nichts geht ohne Datenfreigabe – sei es von der Business- oder der IT-Seite. Setnicka fasst zusammen: „Die Zusammenarbeit von Business-Experten und Data Scientists ist von zentraler Bedeutung. Wenn die beiden Seiten nicht gut miteinander interagieren, schafft es ein Projekt nie von der Datenanforderung zur Datenbereitstellung.“

Wie kommt die Information in die richtigen Kanäle?

Qualitätssicherungsprozesse sind das A und O, wenn es um die Auswertung der Daten geht. Denn auch, wenn man von einer korrekten Datenbasis ausgeht, stellt sich die Frage, ob man die Daten tatsächlich verwenden darf. Und es bedarf eines iterativen Prozesses, bei dem der Business-Experte die Ergebnisse kritisch betrachtet und sein Feedback (oder Fragen) an den Data Scientist zurückspielt.

Unterscheiden muss man dabei zwischen ad-hoc-Abfragen, die auf den laufenden Daten durchgeführt werden, und permanent laufenden Analysen, für die auch neue Daten integriert werden. Im Unternehmen wird jemand benötigt, der die verschiedenen Anfragen kanalisiert und je nach Anforderung und Ressourcen dann an die Kollegen weiterleitet. Business-Experten können sich die Daten über die Programme selbst extrahieren oder bekommen sie vom Data Scientist.

Vorselektion zur Unterstützung der täglichen Arbeit

Das Verteilen von Informationen an die Fachanwender sollte automatisiert so erfolgen, dass sie ihrer Arbeit besser nachgehen können. Im Falle der Betrugserkennung, zum Beispiel in einer Finanzbehörde, können mit Analytics die potenziell verdächtigen Fälle herausgezogen und den Prüfern weitergeleitet werden. Dabei ist es nicht unbedingt sinnvoll, die komplette Datencharakteristik in Form eines Entscheidungsbaums zur Verfügung zu stellen – denn ein Zuviel an Informationen verwirrt im Zweifelsfall, wenn das notwendige statistische Verständnis nicht vorhanden ist. Die Faktoren, nach denen diese ausgewählt wurden, sind für den Prüfer erstmal irrelevant.

Genaue Vorgaben in Sachen Datenschutz

Die Datenschutz-Grundverordnung, die im Mai letzten Jahres in Kraft trat, wird nicht selten als Rechtfertigung herangezogen, warum Daten NICHT bereitgestellt werden. Letztlich ist aber gerade deren Nutzung klipp und klar im gesetzlich verankert und – soweit die gesetzlichen Vorgaben eingehalten werden – legal. Wichtig sind dabei aber Mitarbeiterrollen und ihre Zugriffsrechte: Der Data Scientist erhält zum Beispiel weiterreichenden Zugriff als andere Mitarbeiter. Voraussetzung ist, dass intern eine Sensibilität für den Umgang mit personenbezogenen Daten geschaffen wird. Workshops können dazu dienen, das Gespür der Mitarbeiter dafür zu erhöhen und einen Verhaltenskodex zu vermitteln. Darüber hinaus ist es wichtig, einen Prozess festzulegen, zum Beispiel für die Datenspeicherung. Wer darf Daten speichern, löschen, integrieren? Wie und wo sind sie gespeichert?

Vorurteilen gegensteuern

Um einer Voreingenommenheit entgegenzuwirken, die nicht nur bei Menschen, sondern auch bei Systemen wie KI und Machine Learning eintreten kann, ist es sinnvoll, wenn nicht alle Fälle von den Data Scientists kommen, sondern nur ein bestimmter Prozentsatz an die Sachbearbeiter – also im Fall eines Betrugsverdachts an die Prüfer – weitergeleitet wird. Die restlichen Fälle werden über Anzeigen oder andere Mitarbeiter in die Bearbeitung gegeben. Auf diese Weise kommt man ethisch nicht in die „Bias-Bredouille“, dass das System zu 100 Prozent systemimmanent lernt.

Top-Management muss Change vorantreiben

Tiefgreifende Innovationen wie der Einsatz von Analytics und KI erfordern ein hohes Maß an Kommunikation – gerade im öffentlichen Sektor, in dem das Durchschnittsalter jenseits der Digital Natives liegt. Es hilft in jedem Fall, neue Mitarbeiter mit anderen Qualifikationen einzustellen, die frischen Wind mitbringen. Nicht zu unterschätzen sind die Ängste (älterer) Mitarbeiter wie „Nimmt mir diese KI jetzt den Job weg?“ Bei der Kommunikation der notwendigen Change-Prozesse ist auch und vor allem das Top-Management gefragt. „Digitalisierung, Innovation, Einführung von Analytics oder neuen Geschäftsmodellen ist Chefsache. Aus meiner Sicht muss das Top-Management viel mehr machen, um die Veränderung einzuleiten und zu begleiten. Oft kann die Geschäftsleitung nicht auf Vorwürfe aus den eigenen Reihen reagieren, weil sie selbst das Prinzip des Lernkreislaufs bei Analytics nicht verstanden hat.“

Erfolgsmessung als „Proof of Concept”

Innovation hört sich gut und schön an – aber sie nützt nichts, wenn es beim Gefühl bleibt. Wie in allen anderen Disziplinen ist es auch hier unerlässlich, den Erfolg im Blick zu behalten, also quasi den Return on Investment zu messen. Dafür müssen Benchmarks oder Trefferquoten festgelegt werden. Heißt, wenn man nochmal das Beispiel Steuerbetrug heranzieht: Es wird ein Betrag x festgelegt, ab dem eine steuerliche Nachzahlung lukrativ wird. „Erst ab einem gewissen Betrag zahlt sich eine Prüfung aus. Null-Fälle, bei denen kein Ergebnis zu erwarten ist, sollten vermieden werden.“ Zu guter Letzt stellt sich die Frage: Welcher monetäre Mehrwert wurde mit modernen im Vergleich zu herkömmlichen Methoden erwirtschaftet? Denn eine klare Darlegung der Vorteile mit handfesten Zahlen ist die Grundlage für die Anerkennung von Analytics, KI oder Machine Learning – sowohl seitens des Top-Managements als auch der Anwender.

Erst wenn ein neues Mindset geschaffen ist, lässt sich die Modernisierung einzelner Abteilungen in Behörden und Ministerien umsetzen. Dazu gehört der Einsatz neuer Methoden des Projektmanagements, ein agiles Arbeiten, das für den öffentlichen Dienst in der Regel eher untypisch ist. Ideen sollten einfach auch mal am Whiteboard ausprobiert werden – auch auf die Gefahr des Scheiterns hin. Wenn sich Mitarbeiter mit ihrer Kreativität einbringen können, steigt die Motivation. Und die interdisziplinäre Zusammenarbeit bringt großes Potenzial, voneinander zu lernen: Der Business-Experte vom Mathematiker, der Data Scientist vom Marketingleiter. So entsteht ein innovatives Umfeld, das auch für junge Fachkräfte attraktiv ist. Und dieser Nachwuchs bringt wiederum neue Impulse ein. „Innovation“ entsteht also durch Innovation.

Tags
Share

About Author

Robert Ruf

Solutions Architect

Robert Ruf ist seit 2004 bei SAS und beschäftigt sich mit den Themen Business Intelligence, Data Warehousing, Business Analytics sowie Big Data. Als Experte für BI Lösungen, berät er Unternehmen in der DACH Region und teilt sein Wissen in Vorträgen und als Dozent an der Dualen Hochschule Baden-Württemberg. Robert Ruf hat in Mannheim Wirtschaftsinformatik studiert und zusätzlich einen MBA-Titel im Bereich „Information and Performance Management“ erlangt. Robert Ruf is advising companies on Big Data and Business Analytics. He is also a lecturer on modern BI.

Leave A Reply

Back to Top