Artificial Intelligence (AI), Machine Learning und Deep Learning zählen zu den heißesten Themen, die im Markt diskutiert werden. Und dafür gibt es gute Gründe. Zum einen erleben wir, dass Apps und Software generell, Maschinen und Fahrzeuge immer smarter werden. Wir sprechen mit unseren Smartphones. Autos fahren bald selbst. Die automatische Übersetzung von einer Sprache in eine andere ist längst keine Spielerei mehr. Und wer hätte gedacht, dass ein Rechner den weltbesten Spieler beim komplexen Brettspiel „Go“ je übertrumpfen könnte? Es ist bereits geschehen.
Zum anderen spielen die Aspekte Datenmenge und Rechenleistung dem breitflächigen Einsatz der hinter AI (auf gut deutsch: künstliche Intelligenz, KI) steckenden Technologie in die Hände. Warum? Maschinelles Lernen erzeugt Wissen aus Erfahrung – und zwar in Form von Daten. Diese Daten enthalten Beispiele für Zusammenhänge. Machine Learning erkennt darin Gesetzmäßigkeiten und Muster und wendet diese Erkenntnisse dann auf neue, bislang unbekannte Daten an, um Vorhersagen zu machen. Hierdurch lassen sich sehr komplexe Zusammenhänge in Daten berechnen.
Machine Learning braucht daher möglichst viele Daten und Beispiele. Und Daten haben wir bekanntlich heute im Überfluss. Wenn ich einem Rechner beibringen möchte, Bilder von Personen, Katzen und Autos zu unterscheiden, muss ich nur kurz auf Google suchen. Da finde ich dann genügend Beispiele, um eine Erfahrungsbasis anhand von Mustern zu bilden. Und Unternehmen haben heute jede Menge Daten von Maschinensensoren, Produktionssystemen oder Kundentransaktionen – bisher oft ungenutzt, aber vorhanden. Maschinelles Lernen ist zudem sehr rechenintensiv. Durch kostengünstigen Speicherplatz und ein hohes Maß an Parallelisierung von Rechenvorgängen können wir inzwischen Machine Learning problemlos auf große Datenmengen anwenden.
Dennoch gibt es Handlungsbedarf: Die meisten europäischen Unternehmen stehen bei der Umsetzung in die Praxis noch am Anfang, wie die aktuelle SAS Studie „The Enterprise AI Promise: Path to Value“ zeigt. Optimismus herrscht zwar bezüglich des Potenzials von KI – viele Probanden zeigten sich jedoch alles andere als überzeugt, dass ihr Unternehmen über die nötigen Mittel verfügt, um dieses zu erschließen.
Für die Befragten stellt allerdings nicht die Technologie die größte Hürde dar: Einschlägige Software ist heute genauso verfügbar wie wirtschaftlich zu betreibende Hardware. Vielmehr sind es der Mangel an Data-Science-Know-how, organisatorische Gründe und fehlende soziale Akzeptanz. Für 55 Prozent der Befragten liegt die größte Herausforderung in Sachen KI in der Veränderung der Arbeitswelt, also dem potenziellen Jobverlust und neuen Berufsbildern. Nur 20 Prozent der befragten Unternehmen gaben an, mit ihren Data-Science-Teams gut für KI aufgestellt zu sein, während 19 Prozent noch gar keine solchen Teams haben. Fast jeder zweite der Umfrageteilnehmer (49 Prozent) hegt Zweifel an der Zuverlässigkeit der Ergebnisse, die KI (als Blackbox) liefert – hier ist also eindeutig erst mal ein Umdenken notwendig, das das Management entsprechend vorleben muss. Und erst jedes vierte Unternehmen verfügt über eine geeignete Infrastruktur für KI (24 Prozent).
SAS beschäftigt sich schon seit Jahren (genauer gesagt sogar seit Jahrzehnten) mit maschinellem Lernen – nicht erst, seit diese Begriffe Hype-Status erlangt haben. Wie Unternehmen mit KI, Cognitive Computing und maschinellem Lernen das volle Potenzial aus Sensoren und anderen vernetzten Geräten/Maschinen ziehen können, darauf werde ich in meinem nächsten Beitrag eingehen.