Manchmal reichen 60 Sekunden - Wir trafen Simon Lochbrunner auf einer Konferenz der German Data Science Society in München. Ungefähr eine Minute dauerte sein aktiver Part. Er stellte nämlich eine Frage, die uns zu einem anschließenden Interview animierte.
Simon Lochbrunner arbeitet bei MaibornWolff in München. Das ist an sich nichts Außergewöhnliches. Beschaut man sich die Website seines Arbeitgebers, ist zu lesen: „Wir beraten, coden und testen in erfolgskritischen Digitalisierungs-Projekten.“ Auch das ist erst einmal nichtssagend. Doch links oben in der Ecke finden wir eine Art Zusatz, die das ganze Vorhaben von Simons Brötchengeber viel besser beschreibt; und deshalb haben wir ihn gesprochen.
Da heißt es: „Mensch hoch IT“. Will wohl sagen, dass bei der Beratung von aller Leute Digitalisierungsvorhaben der Mensch im Mittelpunkt bleiben muss; dieser also mit der IT multipliziert werden soll und nicht umgekehrt. Will wohl auch sagen, dass es mittlerweile nötig geworden ist, IT mit Ethik zu kombinieren, sie mitzudenken und sie, die IT, anthropozentrisch zu interpretieren. Ist das so, Simon? „Genau so ist es.“ Was einfach und banal klingt hat für Simon Lochbrunner weitreichende Konsequenzen, die über die reine Programmierung hinausgehen. „Wir müssen uns mit der Frage beschäftigen, inwiefern Algorithmen verantwortungsvoll designt werden. Nämlich genau diejenigen Algorithmen, die Aufgaben erledigen, die bisher Menschen vorbehalten waren.“
Simon kümmert sich allem Anschein nach um die ethischen Implikationen künstlicher Intelligenz auf die Gesellschaft. Und deshalb hat sein Arbeitgeber links oben in der Ecke Mensch hoch IT auf seiner Website ergänzt, weil diese Beratungsfirma in eben diese Richtung berät und entwickelt. Simons Kolleginnen und Kollegen designen beispielsweise gerade einen Algorithmus, der qualifizierte Feedbacks über aufgezeichnete Gespräche liefert. Das brauchen Callcenter, denn kein Mensch könne mehr all die Gespräche analysieren, um aus ihnen qualitative Schlüsse zu ziehen. Da brauche man schon einen Algorithmus, der das erledige. Aber wie muss der gestrickt sein? „Wir brauchen ein neues Bewusstsein. Dass sich nämlich die kleinen KI-Helferchen namens Algorithmen bei ihrer Erschaffung am Gemeinwohl orientieren.“
Wollen wir den Mythos bloß nicht wahrhaben?
Und jetzt greift Simon in die gute alte Mottenkiste: Er wolle nicht, dass Filmklassiker wie Frankensteins Monster oder der Terminator immer und immer wieder heraufbeschworen werden, um Angst zu schüren vor den ach so gefährlichen Algorithmen. Denn was werde denn da, in diesen Filmen, so eindrucksvoll repräsentiert? fragt er. „Nichts weiter als eine Fehlkonstruktion von Designern, die bemerkt wurde als es zu spät war.“
Ist Simon Lochbrunner etwa ein Ethikaktivist? Mag sein, man müsse eben schon vorab so clever sein, damit es nie zu solchen Frankensteinszenarien komme. Geht das denn oder ist nicht genau das der Mythos, den wir nicht wahrhaben wollen? „Tatsache ist, dass wir diese Technologien gestalten und kontrollieren. Deshalb sind derartige Szenarien problematisch. Denn auch wenn Maschinen mittlerweile zu eigenständigen Ergebnissen kommen, sind wir weit davon entfernt, einer eigenmächtigen Instanz gegenüber zu stehen, die uns zerstören kann“, so Simon. „Das ist ausgedacht von Leuten, die häufig gar nichts mit Programmierung zu tun haben. Sie projizieren ihre eigene Angst auf literarische und filmische Figuren.“
Doch bewegen wir uns doch mal weg von der Mottenkiste. Wenn wir uns der Realität zuwenden, fordert Simon ethische Standards, nach denen zu programmieren sei und an denen sich demzufolge die Unternehmen orientieren mögen. „Ich habe mir viele Standards angeschaut.“ Manche seien da schon sehr weit. Es gebe zum Beispiel die so genannten Algo.Rules (www.algorules.de) oder ein paar Regeln für Algorithmen auf Europaebene. Das Beratungshaus, bei dem Simon arbeitet, wendet vier Standards an und entwickelt nach diesen für seine Kunden.
Bevor wir diese vier Regeln nun auflisten, sei noch eine andere Frage gestellt: Inwiefern muss den Anwenderinnen und Anwendern eigentlich klar sein, dass ganz oft eine Software genutzt wird, die Entscheidungen für sie oder ihn trifft, siehe Netflix oder Spotify? Diese Plattformen sind mittlerweile maßgeblich an der Geschmacksbildung von Menschen beteiligt. „Das merken wir schon gar nicht mehr. Wir stellen uns unwissend in den Dienst von Algorithmen, die uns Empfehlungen liefern, die wir selbstverständlich anklicken. Das ist zwar komfortable, prägt uns jedoch viel mehr als wir es wahrhaben wollen. Denn irgendwann sparen wir uns die Mühe, uns zu fragen, was wir eigentlich selbst wollen.“
Und nun schließt sich auch irgendwie ein Kreis: Wir können Ethik und Technik nicht mehr klar voneinander trennen. „Deshalb befinden wir uns in einer ewigen Schleife der technisch-ethischen Diskussion.“ Wenn nämlich maschinengestützt entschieden werde, dann würden tiefe Fragen der menschlichen Existenz berührt. Entscheiden ist schließlich ein originär menschliches Verhalten.
Berühren wir nun sogar theologische Fragen: Was geschieht mit der Schöpfung, erschaffen wir nun selber, wenn wir künstliche Intelligenz entwickeln? Davon distanziert sich Simon vehement, denn „unsere Schöpfungen sind synthetisiert. Wir führen die Dinge zusammen, die bereits in unserer geschaffenen Wirklichkeit vorhanden sind – geschaffen von wem oder was auch immer.“
Was bleibt ist die Erkenntnis, dass Entscheiden anstrengend ist. Auch wenn es auf den ersten Blick so wirkt, als könnten wir uns den Algorithmen gar nicht entziehen, müssen wir uns dessen bewusst bleiben. Es müsse jedem immer wieder klar gemacht werden, dass eine Software im Hintergrund arbeite. Das sei die ethische Pflicht der Hersteller, so Simon.
Ein Ausweg können seiner Meinung nach die vier erwähnten Regeln sein, nach denen sich sein Arbeitgeber in der Interaktion mit seinen Kunden orientiert. Da muss als erstes jede Programmierung auf den Menschen ausgerichtet sein. Zweitens müssen die Ergebnisse, die ein Algorithmus liefert, erklärbar sein: Keiner könne von den Nutzern verlangen, dass sie den hoch komplexen Algorithmus verstünden. Man müsse jedoch zumindest erklären können, nach welchem Muster er trainiert wurde und wie er zu dieser und jener Entscheidung gekommen sei.
Nummer drei lautet Fairness. Gerade weil der Begriff der Gerechtigkeit eine jahrhundertelange philosophische Diskussion mit sich bringt, bevorzugt Simon diesen Begriff. Dazu gehöre es, sich im Einzelfall darüber zu verständigen, was genau als fair empfunden werde. Als vierte Regel nennt Lochbrunner die Robustheit eines Algorithmus. Schließlich ist Zuverlässigkeit ein ausschlaggebendes Kriterium dafür, weshalb wir überhaupt darüber nachdenken, Entscheidungen an Maschinen zu delegieren.
Was aber ist der Weg aus diesem Dilemma?
Was wird aus Sicht eines Experten denn nun aus uns? Simon ist da sehr klar. Viele menschliche Prozesse werden von Maschinen übernommen werden. Besonders diejenigen, bei denen kein Fingerspitzengefühl nötig sei. Beispielhaft nennt er Telemarketer, Übersetzer, Buchhalter oder auch Radiologen. Simon Lochbrunner ist kein Schwarzmahler. Er findet lediglich, dass wir uns als Gesellschaft mit grundlegenden Veränderungen der Zukunft auseinandersetzen müssen. „Damit nicht das passiert, was bei Frankensteins Monster geschah.“
Postscriptum: Wie stellt ihr eigentlich sicher, dass eure Regeln eingehalten werden, Simon? „Bei Fairness achten wir darauf, dass in unseren Testingteams Männer und Frauen zu gleichen Teilen sind. Aus ca. 20 Nationen setzen sich unsere 500 Mitarbeiterinnen zusammen. Wir versuchen, ein möglichst diverses Umfeld zu schaffen, um kulturelle Blindheiten zu vermeiden. In Sachen Robustheit bekommen wir die nötigen validen Ergebnisse mittels ausreichender Testläufe. Um Regel Nummer eins einzuhalten, wird eruiert, welche Projekte überhaupt angegangen werden. Würden wir einen Algorithmus designen, der es einer Drohne ermöglicht, selbständig Menschen zu töten? „Nein, das würden wir nicht.“
Wie lautete denn eigentlich die sechzigsekündige Frage vom Anfang, die Simon bei der German Data Science Society im vergangenen November in München gestellt hatte? Simon hatte einen deutschen Autohersteller nach seinen Algorithmen gefragt und bekam eine bombastische Antwort, die alles und nichts aussagte. Um so interessanter war es, sich mit ihm für diesen Artikel zu unterhalten.