Raus aus der Vision, rein in die Matrix AI#28

0

Gespräch mit Hans-Peter Zorn, AI-Influencer und Praktiker zugleich, der die Akademie und die Praxis zusammenbringt. Heute gehe es um die kleinen Entwicklungen. So neu sei das alles gar nicht. Viel heiße Luft um nichts Dolles. Und so freut Zorn der Hype um KI. Er werfe ein helles Licht auf sie und ihre Forschungen. 

Um diesen Mann kennenzulernen, kann man ihm auf Twitter folgen und seiner Community von mehr als 11.000 Mitgliedern beitreten (@data_hpz). Oder man geht die Abkürzung und fragt nach, ob er sich kurz zusammenfassen könnte. Freundlich wie er ist, tut er das gerne. Hans-Peter Zorn ist einer der führenden AI-Köpfe beim IT-Projekthaus inovex. Redet er von Artificial Intelligence, meint er den schwachen Teil dieser Technologie. Alles andere sei Science Fiction.

Zorn ist Informatiker, hat viele Jahre forschungsnah gearbeitet bevor er in die Wirtschaft ging. Sein Spezialgebiet sind und waren Dialogsysteme und Restriktionen von Semantik aus größeren Datenmengen, also Big Data. Der Hype ging damals los. Vieles wurde versprochen, manches war nicht zu halten. „Chatbots und Ähnliches sind mittlerweile viel besser geworden. Heute können wir verstehen, was in Texten drinsteht. Das war nicht immer so“, sagt Zorn.

Hans-Peter Zorn

Hans-Peter Zorn

Doch wir wollen nicht in alten Zeiten schwelgen. Das bringt nichts, denn in der Causa Big Data war früher alles schlechter und nichts besser. „Ich finde es gut, dass ich so ein bisschen back to the Roots kann. Denn mit unseren Kunden können wir jetzt schauen, was denn wirklich schon möglich ist oder noch immer bloße Zukunftsmusik.“

Um das herauszufinden führt er zwei Welten zusammen. Das sei wichtig. Nämlich die der Akademie und die der Praxis. „Wir haben da ein ganz gutes Modell. Wir versuchen sehr stark, mit Studierenden und Hochschulen zu arbeiten und auf diese Weise an der Forschung dranzubleiben. Wir haben verschiedene Modelle, bei denen sich Mitarbeiter‘innen von uns mit Studierenden die aktuellsten Entwicklungen anschauen.“

Damit begreift er sich am Puls der Forschung und kann an konkreten Kundenprojekte sehen, was machbar ist und was (noch) nicht. „Und das ist, glaube ich, eine Besonderheit bei uns und bei unserer Art zu arbeiten.“ Die Studierenden-Nachwuchsarbeit sei ihm nicht weniger wichtig als die Kundenprojekte. Bei den Kunden lässt sich abklopfen, ob die akademische Theorie praxistauglich ist. Raus aus der Vision, rein in die Realität.

Wie man sich das vorzustellen hat?

Es geht zum Beispiel darum, Datenquellen in Unternehmen zu konsolidieren, Dashboards oder Modelle zu bauen wie man sie beispielsweise für den Salesforecast braucht. „Wenn wir Probleme für unsere Kunden lösen, geht es um sehr praxistaugliche Technologien.“ Nun neigt Zorn dazu, immer das Beste und Praktikabelste zugleich zu wollen. Das stehe manchmal im Konflikt zueinander.

Die beste Lösung muss nicht immer die praktikabelste sein. Und genau aus diesem Grund schaut er in die Forschung. „Zu prüfen, was wäre denn wohl schon möglich, ohne sofort auf die Praktikabilität schauen zu müssen. Das ist spannend und erweitert den Horizont. Rumprobieren und austesten.“ Doch zurück in die Matrix. In unsere Realität. Denn was er als durchaus sehr praktikable Lösungen klassifiziert, sei technologisch ernüchternd. So neu sei das alles gar nicht. Viel heiße Luft um nichts Dolles. Und so freut ihn der Hype um KI. Er wirft ein helles Licht auf sie und ihre Forschungen. Ohne diesen Schwung von Außen würde die KI wahrscheinlich ein trostloses Dasein in irgendwelchen unscheinbaren Hochschulzimmern fristen.

Doch sie darbt nicht im Keller der Nerds

Dank dieses Lichts werden uns ihre Effekte präsent. Aber auch da muss man genau hinschauen. Es sind nicht mehr die bombastischen Entwicklungen, sondern es sind die kleinen Verbesserungen, die große Fortschritte vorgaukeln. Als Beispiel macht er mit uns einen Ausflug in die Welt der Spracherkennungssysteme.

Bis die Deep Learning kam, haben die Systeme rund 12 bis 15 Prozent der Worte falsch transkribiert. Heutzutage sind die Fehlerquoten etwas runtergegangen, aber gar nicht so sehr in der absoluten Zahl. Hier gehe es ums Gefühl. „Es fühlt sich so an als habe sich plötzlich signifikant etwas verbessert. Wenn jedes zehnte Wort als falsch erkannt wird, dann ist man schon sehr genervt. Wenn es nur noch das fünfzigste ist, dann hat man gleich ein viel besseres Gefühl. Das ist dann aber nur eine inkrementelle Verbesserung und kein revolutionärer Schritt.“

Es ist also recht einfach, gute Systeme zu bauen, ohne wirklich was Revolutionäres entworfen zu haben. Der Effekt aber ist sehr groß. „Nämlich so groß, dass man gerne mit der Kiste redet und sich noch nicht mal blöd dabei vorkommt.“ Und da besteht Verwechselungsgefahr. Diese ganze KI-Sache werde zugleich überschätzt und unterschätzt.

Überschätzt werden ihre künftigen Kompetenzen: Dass wir es mit echter Intelligenz und Menschen ähnlichen und intuitiv handelnden Systemen zu tun haben, die tiefes Verständnis aufbringen, schließt Zorn aus. Unterschätzt aber werde der Effekt von KI auf gewisse Automatisierungen.

Und die Ethik? „Auch da glaube ich, müssen wir genau hinschauen. Nicht, weil sich die Maschine verselbstständigt. Sondern weil Entscheidungen auf einer methodischen Prozedur beruhen. Auf statistischen Verfahren.“

Zorn propagiert eine wissenschaftliche Herangehensweise. Hypothese aufstellen, Daten verifizieren. Nicht: Muster in Datenhaufen finden, dann Anfrage modellieren. Damit ließen sich viele Fallstricke in Sachen Ethik umgehen. „Also nicht alle, aber einige. Die Modellierung kann dann bereits vorab auf das Was-will-ich-denn-eigentlich-wissen oder Wie-soll-es-denn-aussehen angepasst werden.“

Gibt es also gar kein Bedrohungsszenario? Es wird kein mutwilliger Roboter oder ein böswilliger Algorithmus um die Ecke kommen. Sondern es geht darum, was mit der Gesellschaft oder mit den Menschen passiert, wenn gewisse Entscheidungen aufgrund bestimmter Daten automatisiert werden. Denn die Grundlage einer guten Entscheidung sind geeignete Bewertungskriterien. Was übrigens natürlich bei einer menschlichen Entscheidung genauso gilt.

Tags AI series
Share

About Author

Andrea Deinert

Journalist // Blogger for AI and Data Science // Data Science Community Liaison // Academic Liaison || Portrait opinion leaders from politics, society and research to reveal the meaning of AI and ethics for future society.

Leave A Reply

Back to Top