Ein Beitrag für die Blogparade "Wissensmanagement in Zeiten von Cognitive Computing" zur knowtech 2014.
Mit Cognitive Computing wird erneut die Frage gestellt, was die Grenze zwischen Mensch und Maschine ist. Vor wenigen Jahren war der Turing-Test eine eher esoterische Angelegenheit und die Kenntnis dessen, was das überhaupt ist, kaum verbreitet. Eine Maschine, mit der man sich unterhalten kann? Bei der man erkennen soll, dass es eine Maschine und kein Mensch ist? Das schien doch zu einfach. Selbstverständlich würde es nie gelingen, so schnell und schlau wie ein menschliches Gehirn zu funktionieren und menschlich zu erscheinen.
So ändern sich die Zeiten. Am 9. Juni diesen Jahres machten Berichte die Runde (etwa im Spiegel), dies sei nun erstmals einem Programm gelungen. Das wurde zwar schnell angezweifelt (etwa bei Heise und in der Welt) - aber erneut wurden die Grenzen dessen verschoben, wie man nun "wirklich" ein menschliches Verhalten erkennt. Anders formuliert: was den Mensch noch von der Maschine unterscheidet.
Der Blick zurück zeigt, dass immer mehr Bastionen des Menschlichen gefallen sind, denken Sie nur an die Duelle im Schachspielen, die Sache mit dem intelligenten Computer, der Jeopardy gewinnt oder, als neueste Entwicklung, die Diskussion um das selbstfahrende Auto. Dieses galt noch vor wenigen Jahren als eines der Paradebeispiele, in denen sich der Mensch dauerhaft überlegen zeigt. Erik Brynjolfsson und Andrew McAfee beschreiben in ihrem Buch "Second Machine Age" eindrucksvoll, welche Folgen das haben könnte - und bereits heute hat.
Der gelegentlich als schräger Paradiesvogel apostrophierte Ray Kurzweil ist mittlerweile fest als angesehener Vordenker profiliert. Dessen Behauptung, dass in wenigen Jahren ein 1.000-Dollar-Laptop die menschliche Intelligenz vollständig emulieren könnte, gilt nicht mehr als aus der Luft gegriffen. Science Fiction nach dem Vorbild des launischen Computers HAL 9000 in Stanley Kubricks Odyssee im Weltraum scheint langsam wahr zu werden - und die Informatik ringt um ethische und philosophische Fragestellungen.
Wissen anders generieren, aufbereiten und nutzen
Es scheint mir in der Tat dringend geboten, sich mit diesen umwälzenden Entwicklungen zu beschäftigen. Unter dem Dach "Big Data" und "Big Data Analytics" wird dies auch getan. Denn die Chancen, hier ganz neue Produktivitätspotenziale zu heben, sind enorm. Wer würde sich nicht über perfekten Service, optimale Entscheidungsunterstützung und weitere Automatisierung lästiger Routineaufgaben freuen? Wer sieht nicht, dass mittels intelligenter Machine-Learing-Verfahren Wissen ganz anders generiert, aufbereitet und genutzt werden kann - und damit Wissensmanagement neu gedacht wird?
Ein gutes Zeichen ist, dass gerade das schwierige und doch so entscheidende Thema Machine Learning zu den erfolgreichsten kostenlosen und dabei auch hochwertigsten Online-Bildungsangeboten zählt. Lassen Sie sich vom Charisma und Wissenschatz des Standford-Professors Andrew Ng auf Coursera inspirieren! Einen schnellen Überblick und Einstieg in "Maschinelles Lernen" verschafft auch ein deutschsprachiger Beitrag auf der neuen SAS-Website - nicht ganz zufällig, verfügt SAS doch über die größte kommerziell verfügbare Sammlung von Machine-Learning-Algorithmen.
1 Comment
Pingback: Zusammenfassung der Blog-Parade 2014: Was ändert sich mit Cognitive Computing? | BITKOM KnowTech 2014