Künstliche Intelligenz braucht Interpretierbarkeit, Nachvollziehbarkeit und Kommunikation

0

Wahrscheinlich schreibt Richard David Precht gerade an einem Buch über künstliche Intelligenz – und es wäre wirklich nicht schlecht, wenn sich möglichst viele Menschen so genau wie möglich über dieses Thema informieren könnten, ohne selbst Spezialist sein zu müssen.

Andreas GöddeDenn, das ist 2017 bereits klar geworden, künstliche Intelligenz betrifft uns alle. Ob es nun die möglicherweise letzte Erfindung der Menschheit ist, die sich damit abschafft (Stephen Hawking, zum Beispiel hier), ob künstliche Intelligenz wirklich die Welt beherrschen wird (Wladimir Putin, zum Beispiel hier), viele unserer Arbeitsplätze gefährdet sind (Prof. Wahlster vom DFKI, etwa hier) oder doch mehr geschaffen werden (Capgemini-Studie): Wir sollten besser verstehen, worum es eigentlich geht. Dazu habe ich Andreas Gödde befragt. Er verantwortet den Presales der DACH-Region beim weltgrößten Analytics-Anbieter SAS.

Thomas Keil: Andreas, warum machen sich die Menschen Sorgen, wenn sie sich mit künstlicher Intelligenz beschäftigen?

Andreas Gödde: Immer, wenn Menschen mit großen Veränderungen konfrontiert werden, sind Zweifel vorhanden. Schließlich wird etwas Bewährtes durch etwas Unbekanntes abgelöst. Zudem kann einem die Berichterstattung wirklich Angst machen. Der Begriff „künstliche Intelligenz“ suggeriert ja auch schon, dass eine bisher dem Menschen zugeschriebene Eigenschaft – „Intelligenz“ – nun auch als Ersatzstoff künstlich hergestellt werden kann. Es gibt ja auch Lebensmittel, deren Aromastoffe ausschließlich künstlich sind – sodass auf die natürlichen Zutaten verzichtet werden kann.

.@AndiGoedde, warum machen sich die Menschen Sorgen, wenn sie sich mit #künstlicherIntelligenz beschäftigen? #KI #AI Click To Tweet

Zudem gibt es bereits genügend Beispiele, wo und auf welche Weise künstliche Intelligenz in unser Alltagsleben eingedrungen ist.

Keil: Kannst Du uns ein paar Beispiele geben, wo wir heute schon KI spüren?

Künstliche IntelligenzGödde: Nehmen wir die aktuelle Diskussion um die neuen Flugpreise, die die Lufthansa nun in Deutschland für Inlandsflüge verlangt. Das Unternehmen behauptet da sogar, dass es nicht an einer veränderten Preispolitik liegt, sondern an den zugrunde liegenden Algorithmen, die diese Preise berechnen und automatisch verteilen. Natürlich sind das sehr schlaue Algorithmen, aber ebenso bleibt letztlich das Unternehmen verantwortlich. Es ist nur bequemer, sich hinter dieser Rechenlogik zu verstecken. Das stößt auf Widerstand (siehe ZEIT vom 28.12.2017).

Oder die häufig erzählten Beispiele von der fehlenden Kreditwürdigkeit bei großen wie kleinen Anschaffungen. Der Banker vor Ort kann heute nur noch mit den Schultern zucken und erläutern, dass er selbst nicht die Entscheidungsbefugnis über einen Kredit hat, sondern das werde in der Zentrale von einem Computer entschieden.

Ähnlich auch die Situation mit den Bezahloptionen im E-Commerce. Wenn man, sagen wir, in South Central in Los Angeles wohnt, wird Lieferung auf Rechnung wesentlich seltener angeboten als Vorkasse. In Beverly Hills ist das anders herum. Das ist für viele Menschen schwer einsehbar, sie fühlen sich gegängelt und in ihrer freien Entfaltung gehindert.

Keil: Woran liegt es denn, dass sich Verbraucher schwertun, diese Fälle einfach hinzunehmen?

Gödde: Aus meiner Sicht handelt es sich meist um drei wesentliche Punkte:

  1. Die Ergebnisse/Entscheidungen werden nicht ausreichend erklärt.
  2. Das Zustandekommen ist nicht transparent und nachvollziehbar.
  3. Es herrscht ein Gefühl des Ausgeliefertseins, einer Asymmetrie zwischen Anbieter und Nachfrager.

Interessanterweise sind das keine ganz neuen Erkenntnisse, und alle drei Punkte werden in vielfacher Hinsicht heute schon angegangen, vielleicht nicht mit ausreichender Intensität, aber immerhin. Ich spreche hier vom Bankbereich.

Keil: Das musst Du mir näher erklären.

Gödde: Gerne. Banken gehören heute zu den am stärksten regulierten Wirtschaftssegmenten. Verbraucher haben umfangreiche Rechte in Sachen Erläuterung erhalten. Standardisierte Informationsblätter, Beratungspflichten, Dokumentation dieser Beratung – frage einmal einen Bankberater, wie sich dessen Job in den letzten Jahren geändert hat. Das betrifft Punkt 1. Noch immer ist das nicht ausreichend, keine Frage, weil sich hier manche Bank in Floskeln und Formalien flüchtet.

Der zweite Punkt wird bei Banken durch die Bankaufsicht angegangen. Das Zustandekommen wesentlicher analytischer Ergebnisse – etwa im Bereich Risiko – wird dort bereits kontrolliert. Dazu müssen die analytischen Verfahren bestimmten Kriterien genügen und beispielsweise umfassend genug die benötigten Parameter einbeziehen. Als Stichwort sei hier lediglich „Model Risk Management“ genannt.

Was nun den dritten Punkt, die ausreichende und gleichberechtigte Kommunikation, angeht, gibt es noch Nachholbedarf. Die Fachsprache in der Kommunikation macht es dem Bürger nicht eben leicht zu verstehen, warum was genau passiert ist. Das liegt natürlich daran, dass es gar nicht so einfach ist, den Wirkmechanismus eines Machine-Learning-Algorithmus oder gar eines neuralen Netzwerks zu erläutern. Dennoch müssen es die Leute, die das können, versuchen und damit Vertrauen aufbauen.

Keil: Gut, das war die Situation bei den Banken. Brauchen wir nun eine Aufsichtsbehörde für alle Branchen, die Analytics einsetzen?

Gödde: Zumindest sollten wir uns mit diesem Gedanken einmal beschäftigen – und ob es unbedingt eine staatliche Behörde sein muss, weiß ich nicht. Es wäre aber für alle Beteiligten von Vorteil, wenn es vertrauenswürdige Erklärungen und Erläuterungen geben würde. Wenn zum Beispiel über Zertifizierungen von Produkten und Dienstleistungen mitgeteilt werden könnte, dass die dort verwendeten Algorithmen nach ethischen Standards funktionieren. Dass also zum Beispiel Merkmale wie ethnische Herkunft, Geschlecht oder Religionszugehörigkeit nicht diskriminierend verwendet werden.

In diese Richtung gehen Initiativen wie „Fairness, Accountability, and Transparency in Machine Learning” oder auch Algorithm Watch. Beiden Vereinigungen geht es darum, Standards zu schaffen und davor noch das Gespräch darüber anzuzetteln, dass wir ein ernsthaftes Problem bekommen, wenn wir hier rein technologische Diskussionen führen. In unserer „Analytics Economy“, in der so vieles heute schon von Algorithmen abhängt (Anm. TK: siehe auch das Interview mit Andreas Becks), können wir uns das nicht leisten.

Keil: Was wären denn zusammengefasst die Punkte, die wir als Softwarehersteller tun können?

Gödde: Wir können für folgende Punkte sorgen:

  1. Interpretierbarkeit. Unsere Software muss in einer Weise funktionieren, dass Ergebnisse einfach dargestellt und verstanden werden können – mindestens von Fachbereichen und Entscheidern, nicht nur von hoch spezialisierten Programmierern.
  2. Nachvollziehbarkeit. Wir müssen dafür sorgen, dass die hochkomplexen Prozesse im Bereich Data Science – von der Datenaufbereitung über die Modellierung bis zum Deployment in der Produktion – nachvollziehbar dokumentiert werden können.
  3. Kommunikation. Indem wir analytisches Grundwissen fördern und mehr noch unsere Software für verschiedene Anwendungsgruppen attraktiv aufbereiten, lässt sich viel besser darüber reden. Data Scientists haben heute ganz klar auch eine Verantwortung, über Chancen und Risiken ihrer Arbeit aktiv zu sprechen.

 

Wie sehen Sie das? Was ist Ihnen wichtig, wenn es um künstliche Intelligenz geht?

Blicken Sie hinter den Hype. Die Podcastreihe “KI kompakt” bringt Sie in nur 15 Minuten pro Sendung auf den neusten Stand der Dinge in Sachen Artificial Intelligence.
Share

About Author

Thomas Keil

Director Marketing

Dr. Thomas Keil is a specialist for the impact of technology on business models and on society in general. He covers topics like Digital transformation, Big Data, Artificial Intelligence & Ethics. Besides his work as Regional Marketing Director at SAS in Germany, Austria and Switzerland he regularly is invited to conferences, workshops and seminars. He serves as advisor to B2B marketing magazines and in program committees of AI-related conferences. Dr. Thomas Keil 2011 came to SAS. Previously, he worked for eight years for the software vendor zetVisions, most recently as Head of Marketing and Head of Channel Sales.

Leave A Reply

Back to Top