In meinem vorherigen Blogbeitrag zum Thema Künstliche Intelligenz (KI) und Cognitive Computing ging es zunächst darum, den begrifflichen Nebel zu lichten, der sich – wie so oft – um solche Hype-Themen bildet. Am Schluss des Beitrags drängte sich bereits die Frage auf, wie technologische Möglichkeiten und gesellschaftliche Verträglichkeit in Einklang gebracht werden können.
Diese Frage stellt sich bei jeder Art der Datenanalyse und -verwendung. Schließlich möchte ein Verbraucher auch wissen, warum und wie seine Daten genutzt werden, die er beim Einkauf hinterlässt – oder auch nur, wenn er ein Produkt recherchiert. Doch gerade im Zusammenhang mit Künstlicher Intelligenz kommt noch eine stärker emotional gefärbte Komponente hinzu: nämlich die grundsätzliche Unsicherheit oder das Misstrauen, was Maschinen und Roboter wirklich (schon) können und inwiefern sie den Menschen dadurch in seiner Existenz bedrohen. Hier stellen sich auch existenzielle Fragen nach Recht und Ethik. Was passiert, wenn Drohnen zur Terrorbekämpfung eingesetzt werden und einen Unschuldigen töten? Wer übernimmt bei selbstfahrenden Autos die Schuld für einen Unfall? Der Fahrer, der Kfz-Hersteller oder derjenige, der die Daten auswertet?
Hierzu hat das Future of Life Institute einen interessanten offenen Brief herausgegeben, der sich damit beschäftigt, wie sich Künstliche Intelligenz weiter erforschen und ungefährlich nutzen lässt. „Intelligenz“ wird hier übrigens im Sinne statistischer und ökonomischer Rationalität begriffen. Und das beschreibt – einfach gesagt – die Fähigkeit, fundierte Entscheidungen zu treffen, Pläne zu machen, Schlussfolgerungen zu ziehen. Was passiert, wenn menschliche Intelligenz auf die Möglichkeiten der Künstlichen Intelligenz trifft, weiß bisher noch niemand zu sagen. Selbst die Beseitigung von Krankheit und Armut hält das Institut nicht für unmöglich.
Angesichts dieser Chancen ist es jedoch extrem wichtig, potenzielle Fallstricke im Auge zu behalten. Als wichtigste Maxime postuliert der Brief das Schaffen größtmöglicher Vorteile für die Gesellschaft. Dazu sollen KI-Systeme zuverlässig das tun, was der Mensch von ihnen verlangt. In den „Research Priorities for Robust and Beneficial Articifial Intelligence“ ist festgelegt, worauf bei den entsprechenden Technologien geachtet werden sollte. Unter wirtschaftlichem Aspekt gilt es beispielsweise, nachteilige Effekte wie Ungleichheit und Arbeitslosigkeit zu vermeiden, die mit einer Automatisierung von Prozessen einhergehen können. Um solchen negativen Entwicklungen entgegenzuwirken, könnten Gegenmaßnahmen vorgegeben werden, die Anreize zur Entwicklung arbeitsintensiver Sektoren schaffen. Oder den durch KI erzielten Wohlstand zur Unterstützung unterbeschäftigter Bevölkerungsgruppen nutzen.
Einen weiteren elementaren Punkt, den es zu diskutieren gilt, sieht das Papier in punkto Datenschutz. Wie kann sichergestellt werden, dass die Auswertung von Daten aus Überwachungskameras, E-Mails, Telefonverbindungen etc. durch KI-Systeme nicht das Recht des Einzelnen auf seine Privatsphäre verletzt? Bereits heute, noch bevor die KI-Technologie ihr Potenzial voll ausschöpft, hegen Verbraucher laut einer aktuellen Studie erhebliche Bedenken, was Unternehmen mit ihren Daten anstellen – auch und gerade in Deutschland.
Um den gesamtgesellschaftlichen Nutzen sicherzustellen, fordert der offene Brief einen interdisziplinären Ansatz. Wirtschaft, Gesetzgebung, Philosophie oder Computerwissenschaft sind nur einige der Bereiche, die dafür zusammenkommen müssten. Und KI ethisch-gesellschaftlich zu verankern, ist nicht nur Sache der Forschung. Unternehmen wie SAS haben die Verantwortung, Transparenz zu schaffen und einen vertrauenswürdigen Umgang mit Daten, Regeln und Entscheidungen zu unterstützen, die sich aus dem KI-Umfeld ergeben. Wenn dies geschieht, ergeben sich große Chancen für die nächste Stufe an intelligenten Assistenzsystemen.