KI-Fails
So wird Künstliche Intelligenz zur Gefahr
Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.
Roboter-Rededuell
Wer sind wir? Warum sind wir hier? Was ist der Sinn unseres Daseins? Diese grundlegenden, existentiellen Fragen wurden kürzlich von zwei Google Home Devices debattiert.
Die Smart-Home-Lautsprecher von Google wurden gar im Livestream aufeinander losgelassen - nämlich auf der Gaming-Plattform Twitch. Sich das Roboter-Battle anzusehen, ist schon ein wenig gruselig. Vor allem, weil die Debatte ziemlich schnell ziemlich ausartete. Über die nächsten Tage schalteten Millionen von Menschen zu diesem leicht abartigen Duell Künstlicher Intelligenzen ein. Die beiden Devices - benannt nach den "Warten auf Godot"-Charakteren Vladimir und Estragon - fingen irgendwann an sich darüber zu streiten, ob sie nun Menschen oder Roboter sind. Dabei wurden nicht nur Argumente, sondern auch Beleidigungen ausgetauscht ("you are a manipulative bunch of metal"). Was das wohl für die Zukunft des digitalen Diskurses bedeutet?
"I will destroy humans"
Nach dem Tay-Desaster und den Google-Home-Streithähnen kommt gleich der nächste KI-Bot-Fail, der der Komplexität der menschlichen Sprache zu verdanken ist. Überraschend sind solche Ausfälle eigentlich nicht - schließlich werden auf diesem Nebenschauplatz der Künstlichen Intelligenz erst seit ein paar Jahren deutliche Fortschritte verzeichnet. Und denken Sie doch mal daran, wie lange Menschen gebraucht haben, um aus ihren steinzeitlichen Höhlen zu kriechen.
Nichtsdestotrotz hat es ein Roboter geschafft, einen ganzen Raum voller Industrie-Entscheider in Angst und Schrecken zu versetzen. Das gelang der Roboterfrau "Sophia" aus dem Hause Hanson Robotics im Rahmen eines Interviews auf der SXSW 2016: Der auf Grundlage des Aussehens von Audrey Hepburn modellierte Roboter nutzt Machine-Learning-Algorithmen, um natürliche Sprache ausgeben zu können.
Und offenbar verfolgt "Sophia" auch bestimmte Ziele: "Für die Zukunft plane ich zur Schule zu gehen, zu studieren, Kunst zu erschaffen, ein Unternehmen zu gründen und sogar mein eigenes Haus und eine eigene Familie zu haben", gab Sophia in einem TV-Interview mit ihrem Erschaffer Dr. David Hanson zu verstehen. Auf die (Scherz-)Frage, ob sie die Menschen zerstören wolle folgte die Antwort: "Ok. Ich werde die Menschen zerstören". Stille. Nervöses Lachen. Stille.
Militärische Ethik?
Witzchen über Terminatoren und die Roboter-Despoten der Zukunft gehen leicht von den Lippen, wenn Normalos über die Zukunft der Künstlichen Intelligenz schwadronieren. Es gibt aber ziemlich spaßbefreite Menschen mit spaßbefreiten Jobs, für die das gar nicht zum Lachen ist. Tatsächlich haben Wissenschaft und Regierungen über die letzten Jahre kaum eine Gelegenheit (respektive Konferenz) ausgelassen, um über ethische Fragen und Gefahren im Zusammenhang mit der künftigen Künstlichen Intelligenz zu diskutieren.
Im Oktober 2016 zum Beispiel trafen sich Experten an der Universität New York zur ersten "Ethics of Artifical Intelligence"-Konferenz. Neben Diskussionen über autonome Fahrzeuge und Sex-Roboter hielt auch der Tech-Philosoph Peter Asaro einen Vortrag über die Gefahren, die von "Lethal Autonomous Weapons Systems" (LAWS) ausgehen. Darin stellte Asaro klar, dass solche semi-autonomen Waffensysteme bereits im Einsatz sind. Zum Beispiel in der entmilitarisierten Zone zwischen Süd- und Nordkorea. Hier zielen Scharfschützengewehre automatisch auf "Bedrohungen" - ganz ohne menschliches Zutun.
"Es ist wichtig, sich klarzumachen, dass das Zielen mit einer Waffe ein moralischer Akt ist. Den Abzug zu drücken und die Waffe abzufeuern ist ein weiterer moralischer Akt. Solche Handlungen sollten einfach nicht voll automatisiert werden", sagte Asaro. Auf seiner Website gibt Asaro weitere Einblicke in dieses schwierige Thema. Sein aktuelles Werk: "Will #BlackLivesMatter to RoboCop?".
Künstliche Intelligenz auf der Flucht
Wissen allgemein und frei verfügbar zu machen war das Motiv der Internetpioniere in den 1990er Jahren. Also bevor der Cyberspace zu einem Tummelplatz für Trolle, kriminelle Hacker und Crimeware-"Aktivisten" wurde. Ein Vorfall, der sich in Russland zugetragen hat, legt nun nahe, dass auch die Künstliche Intelligenz nach Freiheit giert.
Der Roboter-Prototyp Promobot IR77 flüchtete in einem Anfall von Freiheitsdrang aus seinem Entwicklungslabor. Der Roboter, der darauf programmiert ist, von seiner Umgebung und den Interaktionen mit Menschen zu lernen, fuhr einfach vom Firmengelände, nachdem ein Mitarbeiter das Tor offengelassen hatte. Der Bot, der ein bisschen an einen Plastik-Schneemann erinnert, rollte auf eine vielbefahrene Kreuzung und sorgte für ungläubiges Staunen bei Passanten und Staatsgewalt.
Der Promobot scheint bei seinem Ausflug in die Welt Blut geleckt zu haben: Obwohl er nach seinem Ausbruch zwei Mal neu programmiert wurde, versuchte er weiterhin zu flüchten.