Künstliche Intelligenz heute und morgen
Von Machine Learning zu Neuromorphic Computing
"Wir stehen an der Schwelle zur zweiten Phase der KI-Entwicklung," bewertet Alan Priestley, Senior Director Analyst bei Gartner, den Stand der Dinge. Die erste bestehe darin, Anwendungen für Bild- und Spracherkennung zu realisieren. Dies sei in Form von Chatbots, Sprachassistenten wie Alexa oder Siri und der Bilderkennung von einschlägigen Suchmaschinen bereits Alltag.
In der zweiten Phase gelte es, Anwendungen zu entwickeln, die Informationen aus den Sprach- und Bild-Applikationen erhalten und wiederum davon lernen. Die dritte bestehe darin, ein breiteres Spektrum an Geschäftsaufgaben durch fortschrittliches Machine LearningMachine Learning zu unterstützen. Priestley spricht hierbei von "unbeaufsichtigtem" und "verstärktem" Lernen - also weitestgehend autonomer KI. Alles zu Machine Learning auf CIO.de
Im Zuge dieser Entwicklung werde KI natürliche, kontextbezogene Schnittstellen zwischen Mensch und Maschine in der Breite salonfähig machen sowie intelligentes Internet of Things (IoT) und eine flüssige Integration von Anwendungen vorantreiben. Zudem sollen sich Computing-Ökosysteme mit KI-fähiger Software verbinden. In der Anwendung werde KI dazu beitragen, Prozesse zu automatisieren, Erkenntnisse aus Daten zu vertiefen und die Kundenerfahrung zu verbessern.
Bis es jedoch soweit ist, gibt es noch einige Herausforderungen zu meistern.
Dezentrale Entscheidungen
Der Trend bei der KI-Verarbeitung bewegt sich aus dem Rechenzentrum oder der Cloud zu den Endgeräten selbst (Edge). Hintergrund ist die Notwendigkeit, am Ort der Datenerfassung unmittelbar Entscheidungen zu treffen. Als Beispiel nennt Priestley das autonome Auto. Würden in einer Gefahrensituation die Sensordaten erst in die Cloud übertragen, dort interpretiert und dann eine Anweisung zurückgeschickt, wäre das Unfallrisiko durch die Latenz oder mögliche Funklöcher zu groß.
Um die nötige Rechenleistung in die Geräte zu bringen, nutzen Hersteller verschiedene technische Ansätze. Manche verwenden vielseitige Grafikprozessoren (GPUs), speziell für eine bestimmte Anwendung entwickelte Chips wie beispielsweise ASIC- oder ASSP-Einheiten oder eine Kombination aus beidem.
Diese Konzepte ermöglichen laut Priestley noch keine echte künstliche Intelligenz, sondern eher eine komplexe Datenverarbeitung auf Basis antrainierter Schemata - also "nur" relativ komplexes maschinelles Lernen. Die Algorithmen für die Geräte werden in der Cloud oder im Rechenzentrum durch Daten angereichert und trainiert, aufgrund derer dann auf dem Gerät angelernte Entscheidungen getroffen werden.
Der Geist in der Maschine
Auf dem Weg zur tatsächlichen "Intelligenz" sei eine andere Art der Datenverarbeitung notwendig: sogenanntes Neuromorphic Computing. Dabei handelt es sich um einen Ansatz, der sich nicht an den Konzepten klassischer Computer orientiert. Vielmehr steht die vernetzte Informationsverarbeitung im menschlichen Gehirn dabei Pate, in der eine Vielzahl von gleichen Einheiten (Neuronen) miteinander verbunden sind (Synapsen) und kollektiv zusammenarbeiten.
So sollen dynamisch Entscheidungen getroffen werden können. Jede Einheit führt ihre Berechnungen anhand des Outputs von einer Vielzahl anderer mit ihr verbundener Einheiten aus und generiert daraus eigenen Output, der wiederum von anderen verarbeitet wird etc. So entstehe tatsächlich autonome künstliche Intelligenz, bei der das Resultat nicht aus den eingegebenen Informationen vorhersagbar ist. Der Entscheidungsprozess wäre dann kein regelbasiertes System mehr.
Um ein solches neuronales KI-Netz wirtschaftlich zu betreiben, ist der Energieverbrauch heute noch zu hoch. Das stellt gerade im Edge-Bereich eine Herausforderung für die Forschung und Entwicklung dar. Die Geräte sind oft auf Batterien angewiesen, deren Lebensdauer durch rechenintensive KI-Module stark beeinträchtigt werden könnte. Gartner ist jedoch der Ansicht, dass neuromorphes Computing circa 2024 relevant für den Markt werden kann.
Können und Dürfen
Jenseits der technischen Hürden stellt sich in diesem Zusammenhang auch die Frage nach dem "ethischen" Einsatz von KI. Ist das Resultat einer Datenverarbeitung nicht mehr vorhersagbar, kann es sein, dass das Ergebnis gegen Gesetze, den Datenschutz oder Ähnliches verstößt. Gerade im Hinblick auf die strengen Vorgaben und Strafen im Rahmen der DSGVO bezüglich der automatischen Verarbeitung personenbezogener Daten könnte das zum Problem werden.
Gartner-Analyst Priestley ist der Meinung, dass der Reifegrad der Technologie noch nicht so hoch ist, dass sich die Industrie jetzt schon darüber Gedanken machen muss. Wenn KI jedoch in ein so hochentwickeltes Stadium übergeht, dass autonome Entscheidungen und konkrete Auswirkungen auf Menschen möglich sind, müsse die Frage danach, was KI können darf, intensiv diskutiert werden.
Es ist allerdings generell fraglich, ob KI jemals absolut eigenständig agieren oder eher als hochentwickelte Hilfestellung in einem Entscheidungsprozess eingesetzt wird, an dessen Ende immer noch ein Mensch steht, der die Entscheidungen letztendlich trifft.