Warten auf die Superintelligenz - AI #3

0

Was können Software-Hersteller für Künstliche Intelligenz bei Zukunftskongressen lernen? Ganz einfach: Wie die Algorithmen am besten programmiert werden sollten, damit Du und Ich keine Angst vor ihnen zu haben brauchen. Und damit ist nicht die technische, sondern die ethische Sicht gemeint.

Die Debatte um die Algorithmen ist in vollem Gange. Ein KI-Festival jagt das nächste. Und überall stehen die Risiken im Vordergrund, aber auch die Chancen. Die Diskussionen ranken sich im Grunde um die Balance von beidem. Viele sehen durchaus das große Potenzial von KI. Doch bevor dieses herausgeschält wird, sprechen alle lieber über ihre Angst vor dieser uralten Technologie und meinen damit die Herrschaft von Superintelligenz über die Menschheit.

Der Terminator, der für uns die Entscheidungen trifft, und der unsere Arbeit macht. Die Fantasien nehmen unendlichen Schrecken an. Sogar in Wissenschaftskreisen dominiert die Skepsis. Eine neutrale Haltung dazu zu bewahren, fällt allen schwer.

Doch beginnen wir da, wo es sinnvoll ist

Ortswechsel. Wir befinden uns in Stuttgart beim Zukunftssymposium. Hier sprachen Philosophen, Soziologen und Ethiker über das Für und Wider der KI. Anwesend waren lediglich zwei Institutionen, die sich mit der Programmierung solcher Algorithmen, also KI, befassen. Sie machten 1 Prozent von allen Redner/innen aus. Zu wenig, könnte man meinen. Schließlich sollten doch bei so viel Skepsis und Angst diejenigen zu Wort kommen, die das Zeug programmieren.

Aber wahrscheinlich verhält es sich mit KI wie mit mancher Ernährungsfrage: Man weiß zwar, was drin ist, aber trotzdem glaubt keiner an die Unschädlichkeit. Diskussionsforen und öffentliche Diskurse müssen her. Und hierum ging es auch in Stuttgart. Es sollte die diffuse Angst besprochen werden, nicht Bits und Bytes waren Thema.

Die Rolle, die Software-Herstellern für Künstliche Intelligenz bei solchen Veranstaltungen offensichtlich zukommt, ist das richtige Zuhören. Denn lernen können sie da, wie sie ihre Produkte so gestalten sollten, dass sie Vertrauen auslösen.

Und so ging es in Stuttgart um Arbeit 4.0 und KI, es ging um die Optimierung der Freizeit mit KI oder um Führungskultur durch KI und Hierarchien aus KI. Es ging aber auch um den Terminator, wann er denn nun komme und ob er auch wirklich superintelligent sein werde. Ja, sogar die Menschenrechte wurden verdigitalisiert. Antworten im Sinne eines Planes wurden aber nicht gegeben. Ende offen.

Der Diskurs als Ziel

Die lebhaften Auseinandersetzungen haben schließlich gezeigt, dass Mensch und Maschine in Harmonie miteinander agieren müssten. Der Mensch müsse unbedingt das Zepter in der Hand behalten, das ist allen wichtig. Doch wer sich ernsthaft mit der KI-Materie befasst, weiß, dass das aus technologischer Sicht gar nicht in Frage gestellt werden kann.

Und nun? Wir brauchen was! (1) Regulierung (2) die Politik, die sie umsetzt (3) Kulturwandel. (4) Keine Skeptiker wie Jay Tuck. Jay Tuck? Wer ist das? Tuck ist investigativer Journalist und hat nach eigenen Angaben Insiderinformationen über das wahre Ausmaß der KI-Absichten aller Art. Tuck war Redner in Stuttgart. Und am liebsten würde er die KI ja totreden. Wenngleich er weiß, dass sich die Uhr nicht mehr zurückdrehen lässt, verstand er es, sein Publikum mit eindrücklichen Erlebnissen von diversen Anwendungsszenarien, insbesondere militärischer Art, zu fesseln. Er kenne Killerdrohnen, die aussehen wie Vögel. Die suchten sich selbstständig ihr Ziel. Seien die einmal gestartet, gebe es kein Entrinnen mehr vor ihnen.

Kann mal einer auf RESET drücken?

Übrigens: Ganz nüchtern betrachtet meint der, der Künstliche Intelligenz sagt, Algorithmen. Oder – laut Duden – meint er EDV beziehungsweise Computerprogramme, die die menschliche Intelligenz versuchen nachzuahmen. Frau Professor Dr. Ulrike von Luxburg forscht an solchen Algorithemen. Auch sie war Rednerin in Stuttgart.

artificial intelligence sas
Professor Ulrike von Luxburg

Der Redeslot von Frau von Luxburg war geschickt gewählt. Nach dem Frühstücksei und morgendlichen Kaffee am zweiten Tag trat sie auf. Zu diesem Zeitpunkt waren die rund 200 Gäste schon einigermaßen – nicht nur durch Jay Tuck - in zweifelnder KI-Endzeitstimmung gefangen.

Doch Gott sei Dank gibt es Wissenschaftlerinnen wie Ulrike von Luxburg, die versuchen, den Resetknopf der Wahrnehmung zu drücken. Wie Eltern, die ihr Kind nach einem Albtraum beruhigen, konnte auch sie das Publikum trösten. Sie sagte: „Nichts an künstlicher Intelligenz ist intelligent. Lassen Sie uns auch gar nicht von KI sprechen, schon der Begriff ist falsch. Wir haben es mit maschinellem Lernen zu tun, mit sonst nichts.“

Maschinen seien wunderbare Optimierer innerhalb eines Suchkorridors, der immer vom Menschen definiert werde. Angst also vorbei? Brauchen wir nur mehr Ulrike von Luxburgs? Mitnichten: Denn wie das Kind sodann einschläft und dem Albtraum wieder verfällt, so ging es auch dem Publikum. Von Luxburg's Beruhigungen hielten nicht lang. Spätestens bei den Diskussionen über Arbeit und wie Führung durch KI gestaltet werden könnte, brach sich die Skepsis wieder Bahn.

Egal erst einmal an dieser Stelle, wie jede/r Einzelne das bewertet hatte. Interessant war viel mehr zu hören, woran die Leute so glauben. Nämlich, dass KI sogar in diese Bereiche vordringen und Hierarchien bestimmen könne, sprich Führungskräfte ersetzen wolle. KI scheint also alles zu sein. Differenziert wird kaum noch. Sogar Smartphones werden als KI wahrgenommen.

Professor Michael Wörz von der Hochschule Karlsruhe hat sich den Spaß gemacht sein Publikum zu fragen, inwiefern KI die Freizeit optimiere und ließ sich mal die wahrgenommenen Versprechen durch KI aufzählen. Da wurde es lebhaft im Raum. Es war die Rede von Zeit- und Kostenersparnis, von Informationsgewinn, von mehr Bequemlichkeit und mehr Freude, ja sogar von mehr Disziplin.

Schwer zu sagen, ob das Auditorium tatsächlich an diese Versprechen glaubte. Wie auch immer. Von der Übernahme irgendeiner Superintelligenz scheinen wir jedenfalls noch weiter entfernt zu sein, als wir befürchten. Außerdem: War da nicht was am Ende von Teil 3 mit dem Terminator passiert? Richtig, der Film beschloss mit seiner Vernichtung. Sein Material floss erhitzt in die Gullis irgendeiner Zukunftsstadt. Wir sind erst mal sicher vor ihm. Und so bleibe es auch, beruhigte Ulrike von Luxburg dann. Das KI-System müsse ja erst mal trainiert werden – vom Menschen, und der bestimme in welche Richtung das Training gehe. Die Gefahr der Übernahme einer Superintelligenz sei noch geringer als gering. Mal ganz davon abgesehen, dass sich kein Mensch von einer KI rumkommandieren lassen wolle.

Die Konklusion

Nicht also mit Werbeversprechen, die keiner glaubt, sollten Käufer/innen vom Guten der KI überzeugt werden, sondern mit einem echten Diskurs, der Ethik, Philosophie, Soziologie und Technologie verbindet. Ein Diskurs, der die Nicht-Experten umarmt und zum Mitreden ermuntert. Als Blaupause sollten Veranstaltungen wie das Zukunftssymposium dienen. KI als Teufelszeug kann rehabilitiert werden. Nämlich mit den Beispielen vom Guten. Im Fachjargon sagt man dazu Data for Good. Also, wo ist KI einsetzbar, um Gutes zu tun? Die Welt lässt sich retten - auch und vor allem mit KI. Lediglich ein neues Wollen ist erforderlich. Nämlich das des paritätischen Mitgestaltens aller Akteure bei möglichst geringen Hierarchien - quasi als moderne Form von Kompetenz.

artificial intelligence sas
Ein Publikum diskutiert mit
Tags AI Series
Share

About Author

Andrea Deinert

Journalist // Blogger for AI and Data Science // Data Science Community Liaison // Academic Liaison || Portraits opinion leaders from politics, society and research to reveal the meaning of AI and ethics for future society.

Leave A Reply

Back to Top