Machine Learning allein reicht nicht, der menschliche Verstand ist weiterhin gefragt

0

Science-Fiction-Autoren sind seit Langem fasziniert von der Vorstellung, dass Roboter die Weltherrschaft übernehmen könnten. Und sie überlegen, was man tun könnte, um die Welt vor dieser Machtübernahme zu bewahren. Doch diese Vorstellung geht weit an der Realität vorbei. Tatsächlich wissen wir heute: Maschinen – und Machine Learning – funktionieren am besten, wenn menschliche Intelligenz involviert ist und sie den Menschen bei seinen Aufgaben unterstützen, statt gegen ihn zu arbeiten. Machine Learning dient damit de facto als Entscheidungshilfe. Besonders gut sichtbar, weil besonders effektiv, ist das im Bereich Risikomanagement und Compliance.

Die richtige Machine LearningRisikokultur schaffen

Maschinen kommen gut mit riesigen Datenmengen zurecht und sind hervorragend geeignet, um diese Informationsberge zu untersuchen, Muster darin aufzudecken und Vorhersagen zu künftigem Verhalten zu treffen. Dies ist eine ideale Voraussetzung für die Bewertung und das Management von Risiken. Risiken sind nämlich in der Regel abhängig von Verhaltensweisen: von Mitarbeitern, Kunden oder Kriminellen. Die zugrunde gelegten statistischen Modelle greifen jedoch nur dann, wenn im Unternehmen auch die richtige Risikokultur vorhanden ist.

Nehmen wir zum Beispiel Behavox, ein Start-up im Financial-Services-Bereich. Es nutzt Machine-Learning-Algorithmen, um Daten im Zusammenhang mit unseriösen Händlern (sogenannten „Rogue Traders“) und anderen Übeltätern zu untersuchen und damit Verhaltensmuster aufzudecken. Anhand der identifizierten Muster sind Finanzinstitute dann in der Lage, potenzielle Betrüger ausfindig zu machen, bevor diese kriminell tätig werden. Für diese Art der Selbstkontrolle ist ein ausreichend großes Netzwerk notwendig, das Banken und andere Institutionen miteinander verbindet. Vor der Erkenntnis stehen allerdings zwei Hürden. Erstens müssen sich Unternehmen die Möglichkeit eingestehen, dass einer ihrer Mitarbeiter etwas Kompromittierendes tun könnte. Und zweitens müssen sie Informationen über das Verhalten ihrer Mitarbeiter anonymisiert mit dem gesamten Netzwerk teilen.

Eine Kultur der Geheimhaltung dagegen steht dem sinnvollen Einsatz von Machine Learning gegen diese Art von Risiko im Wege: Ein einzelnes Unternehmen verfügt schlicht nicht über genügend Daten. Offenheit und Transparenz sind die Grundbedingungen für effektives Risikomanagement, bei dem die Frage nach potenziellen Risiken („Was wäre wenn?“) beantwortet werden muss und dies über mögliches betrügerisches Handeln hinaus. In vielen Unternehmen lässt sich ein solcher Kulturwechsel nur dann umsetzen, wenn er vom Management ausgeht.

Selbst die Bewertung eines Standardkreditrisikos erfordert eine menschliche Beurteilung, ob das angewandte Modell wirklich sinnvoll ist. Ein auf sich selbst gestelltes Machine-Learning-System läuft Gefahr, Irrelevantes zu lernen (erinnern Sie sich an den Microsoft-Chatbot Tay?). Menschlicher Verstand ist gefragt, damit „Rechner sagt Nein“ nicht die Standardantwort in einem risikoscheuen Umfeld wird. Das verlangt zwar bessere Data-Science-Fähigkeiten, aber ist unerlässlich, wenn es darum geht, Machine Learning verstärkt einzusetzen. Am Ende sollten der Mensch und damit die gesamte Unternehmung noch verstehen, warum es zu einer Entscheidung kommt. Sowohl das Verständnis zu einem Modell / Machine Learning Algorithmus als auch automatisierte und nachvollziehbare Gesamtprozesse sind hier entscheidend (z.B. auch Data Lineage / Data Governance wie in BCBS239 gefordert). Hier kann auch SAS z.B. mit seiner Infrastructure for Risk Management (IRM) aber auch seiner Model Risk Management Lösung entscheidene Beiträge leisten.

Auch im Umfeld von Betrug ist Machine Learning nur dann sinnvoll, wenn die Technologie zur Unterstützung menschlicher Entscheidungen eingesetzt wird. Modelle sind in der Lage, abweichendes Verhalten zu erkennen, aber der Mensch wird immer noch benötigt, um anschließend das potenzielle Problem zu untersuchen. Denn selbst scheinbar merkwürdiges Verhalten kann einen rationalen Hintergrund haben. Es stimmt, dass Machine-Learning-Modelle kaum organisierten Betrug im großen Maßstab erkennen können, aber: Kleinvieh (sprich: kleine individuelle Betrugshandlungen) macht auch Mist. Und viele Unternehmen erkennen bereits einen großen Vorteil darin, von ihren Mitarbeitern geplante betrügerische Aktionen schnell aufdecken zu können (z. B. automatisierte Auswertung von Kfz-Schadensbildern).

Transparenz und Regulierung

Visibilität – und weiter gefasst Reproduzierbarkeit – ist besonders wichtig, wenn es darum geht, ob schwerwiegende Entscheidungen unter ethischen Gesichtspunkten getroffen worden sind. Dies ist ein entscheidender Faktor der Regulierung, um zu verhindern, dass unangemessene Artificial-Intelligence(AI)-gestützte Entscheidungen Existenzen gefährden. Die Aufgabe der Aufsichtsbehörde kann zum Beispiel darin bestehen, Einsprüche gegen Kreditentscheidungen zu beurteilen. Eine Entscheidung, die nicht auf eindeutigen Fakten basiert, wird mit großer Wahrscheinlichkeit in die Berufung gehen. Und daher ist es notwendig, dass Unternehmen Mitarbeiter haben, die Machine-Learning-Systeme verstehen und beherrschen. Hier greift z.B. auch die EZB mit ihrer TRIM Initiative zum Modell Risiko an. Modelle müssen verstanden aber auch überprüft und verglichen werden können.

Herausforderungen für die Aufsicht

Aber zu beurteilen, was gut und „ethisch“ ist, stellt natürlich eine Mammutaufgabe dar – eine Frage, mit der sich Aufsichtsbehörden lange beschäftigen könnten. Ein guter Ansatzpunkt wäre vielleicht die Vorgabe „auf eindeutigen Beweisen basierend und nicht offensichtlich diskriminierend“. Aber womöglich ist eine Beurteilung auf dieser Basis – so klar sie auch formuliert sein mag – doch zu kompliziert. Die „Three Laws of Robotics“ von Isaac Asimov sind bestechend einfach – im Sinne der Maxime „keinen Schaden anrichten“ – und decken dabei die meisten Szenarien ab. Einfach und transparent: Das ist wohl die größte Herausforderung im Zusammenhang mit Machine Learning – für Aufsichtsbehörden und diejenigen, die sich ihnen stellen müssen.

Weitere Infos zu Machine Learning in unserem Best Practices E-Book.

Share

About Author

Carsten Krah

Sr Industry Consultant

Ich arbeite seit 2011 als Business Expert Risk, Fraud and Compliance bei SAS. Mein Schwerpunktthema ist Enterprise GRC und ich berate die Finanzhäuser bei der Frage, wie Informationstechnologie bzw. Analytik sie bei den Herausforderungen durch die Aufsicht unterstützen kann, was sie brauchen und worauf sie gerne verzichten können. Ich betreue in dieser Rolle die Regionen Deutschland, Österreich und Schweiz. English Bio: I have been working as a Business Expert in Risk, Fraud and Compliance at SAS since 2011. My main focus is Enterprise GRC and I advise the financial institutions on how information technology and analytics can help them meet the challenges of supervision. I am responsible for the DACH region market made of Germany, Austria and Switzerland.

Leave A Reply

Back to Top