Für Professor Dr. Michael Decker war das, was in Sachen Pandemie passierte, ein riesengroßes Realexperiment, das auch auf die KI-Forschung eingezahlt hat. Michael Decker leitet den Bereich Informatik, Wirtschaft und Gesellschaft am Karlsruher Institut für Technologie (KIT) sowie das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS). „Wir erforschen, wie Technologien zur Lösung gesellschaftlicher Probleme beitragen können.“ Das ITAS berät außerdem den Deutschen Bundestag über das Büro für Technikfolgenabschätzung, ansässig am Deutschen Bundestag selbst.
Das Kerngeschäft seines Instituts ist es, aus wissenschaftlichen Erkenntnissen Handlungsoptionen für die Politik abzuleiten. Was das heißt, konnten wir zu Beginn der Pandemie allabendlich am TV mitverfolgen. Da wurden aus virologischen Erkenntnissen ganz praktische politische Empfehlungen abgeleitet und konkrete Maßnahmen formuliert. Allein ein Kurvenverlauf, nämlich der der Infektionen, gab Hinweise auf den Erfolg dieses Handelns.
Nicht nur Experiment, sondern auch Booster
Für Professor Dr. Michael Decker war das aber nicht ausschließlich bloß ein riesengroßes Realexperiment. Eine Krise sei für ihn auch immer ein enormer Nachfragebooster an Technologie – der Fachmann spricht da von sogenannter Demand-Pull Reaktion auf eine neue Gegebenheit. Will sagen: Es gibt ein gesellschaftliches Problem, das mit Technologie gelöst werden könnte.
„Ja, verdammt noch mal“, denken dann manche. „Jetzt könnten wir aber eine Technologie gebrauchen.“ Wie jetzt eine Tracing-App oder eine Schutzimpfung. Erfreulicherweise waren wissenschaftlich-technische Vorschläge, nach Decker‘s Einschätzung, in der Zeit der Pandemie auf besten Nährboden gefallen. Es fanden ja kaum politische und gesellschaftliche Diskurse zu anderen Themen statt; benötigte Fördermittel flossen großzügig.
Doch Halt
Diese für Wissenschaftlerinnen traumhaften Zustände, die ein Paradebeispiel an Wissensgenerierung waren und wohl noch immer sind, beziehen sich erst einmal nur auf den Corona-Krisenmodus. Denn, was am Anfang nicht greifbar war, weil es neu war, an dem haben wir gelernt und es in einen sogenannten Normalzustand integriert. „Es zeichneten sich aber bald Zielkonflikte ab, wie man sie von pluralistischen Gesellschaften glücklicherweise kennt“, sagt Decker und erinnert damit an die Technikfolgenabschätzung bei Künstlicher Intelligenz.
So haben Skeptiker schnell angefangen, die Verhältnismäßigkeit der Maßnahmen zu hinterfragen. Waren sie volkswirtschaftlich wirklich gerechtfertigt? Und waren sie wirklich sogar über individuelle Einschränkungen wie die der Grundrechte zu stellen? Und genau aus all diesen Gründen zeige sich die hohe Dringlichkeit, stets die technischen und gesellschaftlichen Veränderungen gegeneinander abzuwägen. Technologie verändere immer die Gesellschaft. Gesellschaft beeinflusse ihrereseits aber auch die Technologie. Das sind die sozio-technische Veränderungen, die Decker meint. Sie gelte es zu analysieren und sodann ökonomisch, juristisch, sozialwissenschaftlich und ethisch einzuordnen.
Herr Decker, was zeigt Ihnen die Corona-Krise denn? „Die Corona-Krise sehe ich als Blaupause auch für die KI-Forschung und KI-Entwicklung. Denn gerade auch bei ihr muss ja eine ethische Reflexion stattfinden.“ Und er erinnert an die vielen Kommissionen, die sich mit Künstlicher Intelligenz befassen: die Enquete-Kommission des Bundestages, den Ethikrat, die Datenethikkommission, die Plattform Lernende Systeme oder auf europäischer Ebene die ethischen Leitlinien für eine vertrauenswürdige KI. Wir haben schon längst begonnen, die KI ethisch zu hinterfragen mit dem Ergebnis: Zuerst Ja. Dann: Jain und jetzt: Vorsicht KI!
War’s das schon? Nicht ganz.
Wenn wir mit Professor Decker über Technikfolgenabschätzung parlieren, müssen wir natürlich auch die Vorsorgeforschung erwähnen. Auch sie lasse sich im Rahmen der Krisenbewältigung im Corona-Umfeld gut beobachten. Das Wissen wurde quasi vor den Augen der Welt verarbeitet. Die Experten kommunizierten das dann in die Öffentlichkeit, was zuweilen Raum für Interpretationen ließ. „Man konnte die Schritte Wissen schaffen, Ergebnisse interpretieren und daraus Handlungsoptionen ableiten täglich neu erleben.“
In anderen Krisensituation war das ähnlich. Bei der Reaktorkatastrophe im japanischen Fukushima war auf einer höchst dürftigen Wissensbasis zu handeln. Und wie ist es heute bei Corona? In der Retrospektive werden wir sicher feststellen, dass die eine oder andere Maßnahme hätte schwächer oder stärker ausfallen müssen. „Dieses Lernen ist aber extrem wichtig, auch wenn es unweigerlich einen Hinterher-ist-man-immer-schlauer-Touch hat“, unterstreicht Decker. Die große Frage für ihn: Wie lange wird sich das Gedächtnis der Wissenschaftspolitik wohl erinnern?
Im Idealfall müsste man gerade zwischen zwei Krisen technische Entwicklungen so vorantreiben, um von ihr bei der nächsten Krise wertvolle Aufgaben übernehmen zu lassen. Zum Beispiel? Man könnte die Robotik bei Unfällen mit und in Kernkraftwerken, bei undichten Rohrleitungen in der Tiefsee, bei Erkundungen in kontaminierte Umgebungen als eine mögliche unterstützende Technologie nutzen. Doch dummerweise hat es die sogenannte Vorsorgeforschung im Wettbewerb um Fördermittel nicht ganz leicht. Sie entwickelt nämlich Prozesse und Technologien, die wir nur in Krisensituationen brauchen. „Damit hat sie einen Nachteil in der „Antragsprosa“ des wissenschaftlichen Systems. Sie entwickelt sehr teure Technologien, die man hoffentlich nie braucht, doch deren Investitionen sich erst im Ernstfall rechtfertigen.“ Trotzdem: „Das nächste Realexperiment wird kommen. Davon müssen wir ausgehen.“
Vielen Dank für dieses nette Gespräch, Michael Decker!