Künstliche Intelligenz (KI), insbesondere das Teilgebiet maschinelles Lernen, ist eine der wichtigsten Grundlagen der modernen Robotik. Google beziehungsweise Alphabet und Facebook investieren zusammen Hunderte Millionen von Dollar in die Erforschung und Entwicklung lernender Maschinen. Die Jahre 2012/13 markieren einen entscheidenden Wendepunkt in der vorher etwas aus dem Blickfeld geratenen KI: Mit den ersten mehrschichtigen Neuronalen Netzen gelang ein großer Sprung in der Leistungsfähigkeit von Lernalgorithmen.
Maschinelles Lernen, lernende Maschinen
Der zurzeit wohl leistungsfähigste Lernalgorithmus ist der von Google akquirierte: "deep Q". 2016 gewann mit ihm die erste Maschine gegen den weltbesten Spieler im komplexen asiatischen Spiel Go - und zwar sehr deutlich. Der Großmeister meinte nach der Partie, Deep-Q könnte Go auch gegen sich selber spielen lassen und dabei noch besser werden, als wenn er mit Großmeistern trainiert werden würde. Go gilt als mathematisch-analytisch komplexestes Spiel der Welt (komplexer als Schach), bei dem aber auch Intuition und Kreativität eine Rolle spielen.
Eine einfache Demo zeigt, wie ein vereinfachtes, auf dem Basisalgorithmus von Deep Q basierendes, lernendes neuronales Netz arbeitet: Ein Agent, beispielsweise die Roboter-Hand, führt eine Aktion in seiner Umwelt aus, wie etwa das Greifen eines Gegenstandes, und bekommt daraufhin eine Rückmeldung in Form des Greifergebnisses (erfolgreich oder daneben?).
Zusammen mit genaueren Zustandsbeschreibungen wie etwa, wo war die Position des Arms beim Greifen, was registrieren die Kameras des Roboters (drüber, links oder rechts daneben?), wird ein neuer Versuch gestartet. Für jede Aktion und Rückmeldung gibt es bestimmte Muster aktivierter Neuronen; Muster verstärken sich durch positive und schwächen sich durch negative Rückkopplungen.
Allgemeine Intelligenz ist nicht simulierbar
Aus Sicht der KI kann der Algorithmus auf beliebige Aufgaben angewandt werden, weil die Analyse der Daten unabhängig von der Art der Daten reagiert. Sie basiert ausschließlich auf deren mathematischer Anordnung. Nichtsdestotrotz müssen auch Maschinen mit State-of-the-art-Verfahren für bestimmte Aufgaben eingerichtet und trainiert werden. Sie können keine dem Menschen vergleichbare, allgemeine, flexible Intelligenz simulieren.
Können Algorithmen Bewusstsein generieren?
Ob solche Algorithmen in Zukunft autonom intelligent agieren könnten und am Ende gar so etwas wie Bewusstsein dabei herauskommt? Einige Ingenieure und ihnen nahestehende Hardliner unter den Naturwissenschaftlern wie Ray Kurzweil glauben das: Sie betrachten Geist und Bewusstsein als etwas, das "irgendwie" aus informationsverarbeitenden Systemen entsteht, wenn sie nur komplex genug sind. Dabei spiele es keine Rolle, ob diese Systeme künstlich von Menschen oder anderen Maschinen entstanden sind. Oder in Jahrmillionen aus der Evolution.
Sicher, Kurzweil hatte mit einigen Prognosen Recht. Die stützten sich aber alle auf eine exponentielle Steigerung von Rechenleistung. Bewusstsein ist jedoch kein Ergebnis von Rechenleistung, Big Data oder intelligenten Algorithmen. "‘Deus ex machina‘" ist ein antiker Mythos." (1)
Auch muss man Prognosen aus Richtung der Transhumanisten, zu denen auch Kurzweil zählt, mit Vorsicht interpretieren. Diese Gruppe betrachtet Geist und Bewusstsein nur als naturwissenschaftlich beschreibbare und somit potenziell simulierbare Phänomene. Mit diesem konstruktiven Ansatz operierende Projekte lassen sich leichter finanzieren. In diesem Sinne sind auch die in den USA zum Kulturgut gehörenden Weltveränderungsphilosophien zu verstehen.
Logisch denkbar? Wohl kaum.
Es spricht weit mehr dagegen, dass Maschinen Bewusstsein entwickeln können, als dafür. Man stelle sich vor, dass ein menschliches Hirn in der Lage sein sollte, eine komplette Kopie von sich selbst zu erstellen - logisch ist das nicht denkbar. Die Frage, ob und wie Maschinen denken lernen können, lässt sich ohne philosophische Grundannahmen nicht beantworten.
Von der künstlichen Intelligenz zum künstlichen Bewußtsein?
Die philosophische Richtung mit der größten Schnittmenge zur KI-Forschung - insbesondere der neuronalen Netze - ist der auch in der Hirnforschung verbreitete Radikale Konstruktivismus. Einer der Vertreter ist der Physiologie-Professor Humberto R. Maturana am Biological Computer Laboratory der Universität Illinois Ende 1970 mit seiner Arbeit "Biology of Cognition".
Demnach ist die sich uns darstellende Wirklichkeit ein rein kognitives Objekt, dem keine erfahrbare äußere Wirklichkeit entspricht. Mit anderen Worten: Wir leben mit und in einem Modell der Welt, das nur in uns und nicht außerhalb von uns zu finden ist. Wahrnehmung ist demnach nicht das Tor, durch das die Welt in uns eintritt, sondern genau anders herum: Unser Denken produziert Wahrnehmungen, die uns als Welt erscheinen. In "Matrix" wurde diese Philosophie verfilmt.
Warum dieser Ansatz generell für die digitale Entwicklung prädestiniert ist, zeigt sich plastisch in den Entwicklungen zur Virtual und Augmented Reality: Erdachte Objekte werden unserer Wahrnehmung als reale vorgegaukelt. Diese Technologie simuliert somit einen Teil unserer Vorstellungs- und Wahrnehmungsfähigkeiten.
In der künstlichen Intelligenz versucht man, Virtualisierung auf bisher dem Menschen und zum Teil auch anderen Lebewesen vorbehaltene Fähigkeiten auszudehnen. Dazu gehören Denken (Kognition) und Lernen.
Ein geeignetes Weltmodell muss her
Um Computern respektive Robotern das Denken beizubringen, muss ihnen ein geeignetes Weltmodell eingegeben werden. Die Maschinen können nur mit einem Modell der Umwelt, in der sie sich bewegen und agieren sollen, funktionieren, dass exakt auf ihre algorithmischen und senso-motorischen Möglichkeiten abgestimmt ist. Die Grenzen des Modells sind die Grenzen ihrer Welt. Nicht nur der radikale Konstruktivismus entwirft ein hiermit vergleichbares Bild der menschlichen Kognition.
So gesehen könnte man bei diesen Systemen mit einiger Berechtigung von maschinellem Lernen und künstlicher Intelligenz sprechen.
Für ein sich selbst bewusstes Denken fehlt künstlichen Systemen gleich welcher Art allerdings etwas Grundsätzliches: Eine verschachtelte Meta-Reflexion über die Selbstwahrnehmung ist genauso wenig modellierbar, wie sich die natürliche Sprache aus künstlichen Metasprachen modellieren lässt. Menschen erreichen eine solche, im Prinzip unendlich verschachtelte, Reflexion unter anderem über die Reflexivität der natürlichen Sprache. Auch die Fähigkeiten, Vorstellungsbilder zu entwickeln ("Visionen") oder Erlebnisse und Erfahrungen im sozialen Kontakt mit anderen Menschen aufzunehmen, auszutauschen und gemeinsam zu verarbeiten, sind exklusive Möglichkeiten von sozialen Lebewesen.
Ohne eine sich selbst bewusste Wahrnehmung und reflektierte, soziale Erfahrung der Außenwelt fehlt die Grundlage für autonomes, zielgerichtetes Handeln. Diese ist jedoch Voraussetzung, um sich schnell und sicher in einem neuen Terrain bewegen zu können.
Stefan Schaal, Forschungsgruppenleiter am Max Planck Institut für Intelligente Systeme, fasst die Problematik für die Roboterentwicklung folgendermaßen zusammen: "Ich kann ein gutes Modell von meinem Roboter hinbekommen, nicht jedoch von einer unbekannten Umgebung. […] Alle Roboter scheitern in ungewohntem Terrain, weil sie im wahrsten Sinne des Wortes zu einfältig sind."
KI fehlen grundsätzliche Fähigkeiten
Künstlichen Intelligenzen fehlen grundlegende Fähigkeiten und Erfahrungen, die uns Menschen ermöglichen, in unbekannten Situationen plausibel zu handeln. Ihnen fehlen auch Millionen Jahre Entwicklungsgeschichte, die Menschen und andere Lebewesen mit angeborenen Kompetenzen ausgestattet hat. Dazu gehören die im Gehirn angelegten Fähigkeiten zu gehen oder unsere Hände flexibel, feinmotorisch und feinfühlig einzusetzen. Auch entwickelt unser Gehirn automatisch Heuristiken, die es uns erst ermöglichen, uns in einer Umgebung, die unzählbar viele Daten bereithält, zu orientieren, Entscheidungen zu treffen und in Sekundenbruchteilen zu handeln - etwa, wenn wir uns durch eine Großstadt bewegen.
Roboter scheitern schon daran, einfache Aufgaben in überschaubaren Umgebungen zu erledigen - etwa auf eine beliebige Tür zuzugehen und diese zu öffnen. Einen aktuellen und unterhaltsamen Einblick in die Leistungsfähigkeit von Robotern - vor allem deren Standfestigkeit - geben die Live Mitschnitte der Darpa Robotics Challange (2).
Auch in den nächsten Jahren werden sich Roboter nicht alleine sicher durch ein Gebäude, geschweige denn durch eine Großstadt bewegen. Sie können nur für sie modellierte Gegenstände erkennen und (im Vergleich zum Menschen) langsam und unbeholfen greifen - allerdings nicht Gegenstände, auf die sie nicht vorbereitet wurden. Sie können sich nicht so mit Menschen unterhalten, wie es andere Menschen ab einem Alter von drei Jahren beherrschen - und vieles andere mehr.
Sinnlose Sichtweise
Computer werden per Definition nicht frei entscheiden können. Dies zumindest so lange nicht, wie sie an irgendeine Form von Programmierung - sei es eine elektronische oder biologische - gebunden sind. Auch wenn die Ergebnisse der Programmierung nicht vorhersehbar sind, darf das nicht mit Entscheidungsfreiheit verwechselt werden. Denn alle rechnerischen Optionen sind durch den Code festgelegt. Wäre der menschliche Geist bereits vollständig im genetischen Code festgelegt, wäre auch der Mensch nicht mehr als eine Biomaschine und damit ohne Verantwortung - eine Sichtweise, die alleine schon aus gesellschaftlichen Gründen keinen Sinn gibt.
Es ist im wahrsten Sinne also nur vernünftig anzunehmen, dass Maschinen in absehbarer Zeit oder überhaupt nicht in der Lage sein werden, wie Menschen zu denken, zu fühlen, zu handeln, zu glauben etc. Ansonsten würde etwa eine auf Verantwortung des Einzelnen basierende Gerichtsbarkeit, eine auf die natürliche Umgebung ausgerichtete Politik, Kunst und Kultur nicht mehr möglich.
Die logische, nicht mathematisch, Unmöglichkeit mit künstlichen Maschinen menschliches Bewusstsein nachzubilden, bedeutet jedoch nicht, dass es keine "starke KI" geben wird!
Maschinen sind auf einigen und werden auf noch vielen weiteren Gebieten leistungsfähiger sein, als Menschen. Im Prinzip können sie uns in allen Tätigkeiten, die sich formell eindeutig beschreiben lassen, überflügeln. Deshalb gibt es Experten, die an eine potenziell höhere Entwicklungsstufe der KI glauben. Das sind diejenigen, die in den mathematischen Gesetzmäßigkeiten, welche die Naturwissenschaft schafft, nicht nur Erklärungsmodelle sehen, sondern wahrhaftige (oder Gott gegebene) Naturgesetze.
Doch selbst wenn dies zutreffen sollte, würde es gesellschaftlich und ökonomisch mehr Sinn ergeben, die Tätigkeiten, für die Maschinen gebraucht werden, nicht genauso wie Menschen auszuführen. Vielmehr sollten sie dann auch weniger fehlerbehaftet, schneller, genauer, günstiger - kurz, einfach besser erledigt werden.
Die Beispiele aus der Mechanik zeigen, dass künstliche Fahr- und Flugapparate den lebendigen zumindest bezüglich Geschwindigkeit und Kraft überlegen sind, weil sie neue Flug- und Fahrmethoden umsetzen. Auf der anderen Seite gibt es noch immer keinen Motor, der die Energieeffizienz natürlicher Muskeln erreicht.
Literaturhinweise:
[[Vgl Karl R. Popper, John C. Eccles: "Das Ich und sein Gehirn", Piper 1977 und Martin Carrier, Jürgen Mittelstraß: "Geist, Gehirn, Verhalten", Walter de Gruyter, 1989]]
[http://www.theroboticschallenge.org/]], siehe [[http://live.curiositystream.com/]