Das Science-Fiction-Filmgenre ist irgendwie nicht wirklich gut darin, Geschichten zu erzählen, in denen die Künstliche Intelligenz (KI) Amok läuft. Natürlich, es gab HAL 9000 ("2001: Odyssee im Weltraum"), Skynet ("Terminator") und im vergangenen Jahr hätte Ultron ("The Avengers") um ein Haar massiv in der Superhelden-Branche gewildert. Davon abgesehen ist auch die TV-Serie "Westworld" derzeit schwer angesagt. Aber so richtig "schmutzig" wird es in Bezug auf KI erst in der echten Welt.
Dort entwickelt sich die Künstliche Intelligenz in viele verschiedene Richtungen und hinterlässt dabei bleibende - überwiegend positive - Eindrücke. Künstliche Intelligenz ist inzwischen gefühlt wirklich überall: Industrielle Kontrollsysteme, smarte Haushaltsgeräte, selbstfahrende Autos und allerhand - mal mehr, mal weniger nützliche - Gadgets setzen auf die Technologie.
An der eigentlichen Definition des Begriffs scheiden sich unterdessen schon seit Jahrzehnten die Geister. Wenn Sie etwas länger Zeit haben, beziehungsweise mit dem ewigen Leben planen, bitten Sie doch einfach mal zwei Computerwissenschaftler zum Thema zu debattieren. Ganz generell und in aller Kürze lässt sich aber sagen: Künstliche Intelligenz bezeichnet einen Rechner, der über menschenähnliche, kognitive Funktionen verfügt. Diese Systeme nutzen Machine Learning (ML) um Probleme einzuschätzen und zu lösen. Und gelegentlich auch, um neue zu schaffen.
Wir zeigen Ihnen zehn ausgewählte KI-Fails: Wildgewordene Chatbots finden sich hier genauso wie eigensinnige Connected Cars, Säbel rasselnde Roboter und gehässige Bilderkennungssoftware. Trotzdem sollte man bei aller menschlichen Schadenfreude Milde walten lassen: Egal ob künstlich oder biologisch - wir alle machen Fehler. Und KI-Systeme zu verärgern, sollte man sich besser zweimal überlegen.
Microsofts KI-Debakel
Im Frühjahr 2016 taumelte Microsoft einem ausgewachsenen PR-Desaster entgegen. Schuld war der kurz zuvor veröffentlichte Twitter-Chatbot namens Tay. Die KI-Persönlichkeit schmiss nämlich plötzlich mit Ergüssen wie "Hitler was right" oder "9/11 was an inside job" um sich.
Zugegebenermaßen war es nicht der Bot selbst, der sich Parolen und Verschwörungstheorien aneignete, sondern böswillige Internet-Trolle. Eigentlich sollte Tay junge Menschen zwischen 18 und 24 Jahren ansprechen und von diesen Nutzern in Sachen Sprache lernen. Anschließend sollte der Chatbot auf mehreren Social-Media-Plattformen ausgerollt werden. Durch Machine Learning, adaptive Algorithmen und die Analyse von Daten sollte Tay Gesprächsinhalte vorhersehen und entsprechende Antworten geben. Stattdessen erging es dem Chatbot ganz ähnlich wie einigen Usern der Zielgruppe: Der Bot hing einfach mit den falschen Leuten rum.
Microsoft bewarb Tay vor dem Release mit den Worten: "The more you chat with Tay, the smarter she gets". Oder nicht. Ganze 16 Stunden war das KI-Experiment online.
Korrigieren und konkurrieren
Bei Wikipedia tobt stellenweise ebenfalls ein Bot-Krieg. Wie viele andere Online-Publikationen, setzt auch Wikipedia eine Armee von automatisierten Crawler-Bots ein, die über die Millionen von Unterseiten rotieren, Verlinkungen auf den neuesten Stand bringen, Schreibfehler korrigieren und "digitalen Vandalismus" bereinigen. Wikipedia hat über die Jahre einige Generationen dieser Bots entwickelt. Und scheinbar verläuft das Zusammenspiel der KI-Kumpanen bei Zeiten alles andere als reibungslos.
Im Rahmen einer Studie haben Wissenschaftler der Universität Oxford über die Jahre 2001 bis 2010 das Verhalten der Wikipedia-Bots in 13 Ländern (respektive Wikipedia-Seiten) analysiert. Dabei ist Erstaunliches zu Tage getreten: Die Wiki-Crawler-Bots liefern sich teilweise jahrelange "Blutfehden". Das passiert zum Beispiel dann, wenn zwei verschiedene Bots gegenläufige Instruktionen erhalten. Dann dreht sich die Künstliche Intelligenz schlicht im Kreis und verbessert sich immer wieder selbst - in einem unendlichen Kreislauf digitaler Aggression.
Die Wissenschaftler suchten sich für ihre Untersuchungen ganz bewusst die Wikipedia-Bots aus, denn bei diesen handelt es sich um die kleinste und "primitivste" Art von Künstlicher Intelligenz im Cyberspace. Und wenn schon Konflikte solcher Mini-Bots für Probleme bei Wikipedia sorgen können, was passiert dann, wenn KI-Systeme von Regierungen oder Militärinstitutionen aneinander geraten?
Uber rote Ampeln mit KI
Der Carsharing-Pionier Uber fährt etliche Initiativen, um Mobilitäts-Titan zu bleiben. Allerdings läuft es in Sachen Reputation momentan alles andere als optimal. Der erste Akt der Rufsuboptimierung war ein investigativer Report der "New York Times".
Demnach hat Uber Ende 2016 in der Gegend um San Francisco verschiedene Tests mit autonomen Fahrzeugen durchgeführt - allerdings ohne die notwendige Genehmigung des Bundesstaates Kalifornien. Bis zu diesem Punkt war es lediglich ein bisschen schlechte Presse. Dann kam heraus, dass die selbstfahrenden Uber-Autos zu allem Überfluss auch noch insgesamt sechs rote Ampeln überfuhren. Das komplexe KI-System, das die Fahrzeuge lenkt, besteht aus vielen verschiedenen Sensoren und einer Mapping-Software. Dennoch sitzt auch bei solchen Tests ein menschlicher Fahrer hinter dem Steuer, um im Notfall eingreifen zu können.
Und wie ging Uber mit den Vorwürfen um? Zunächst schob man die Schuld an den Ampel-Fauxpas einfach den menschlichen Fahrern zu. Dann enthüllten interne Dokumente allerdings, dass mindestens eines der Autos sich selbst steuerte, als es das Rotlicht missachtete. Übrigens an einem stark frequentierten Fußgängerüberweg. Böse KI! Ganz böse! Außerdem nicht gerade ein Best-Practice-Beispiel für autonomes Fahren.
Roboter-Rededuell
Wer sind wir? Warum sind wir hier? Was ist der Sinn unseres Daseins? Diese grundlegenden, existentiellen Fragen wurden kürzlich von zwei Google Home Devices debattiert.
Die Smart-Home-Lautsprecher von Google wurden gar im Livestream aufeinander losgelassen - nämlich auf der Gaming-Plattform Twitch. Sich das Roboter-Battle anzusehen, ist schon ein wenig gruselig. Vor allem, weil die Debatte ziemlich schnell ziemlich ausartete. Über die nächsten Tage schalteten Millionen von Menschen zu diesem leicht abartigen Duell Künstlicher Intelligenzen ein. Die beiden Devices - benannt nach den "Warten auf Godot"-Charakteren Vladimir und Estragon - fingen irgendwann an sich darüber zu streiten, ob sie nun Menschen oder Roboter sind. Dabei wurden nicht nur Argumente, sondern auch Beleidigungen ausgetauscht ("you are a manipulative bunch of metal"). Was das wohl für die Zukunft des digitalen Diskurses bedeutet?
"I will destroy humans"
Nach dem Tay-Desaster und den Google-Home-Streithähnen kommt gleich der nächste KI-Bot-Fail, der der Komplexität der menschlichen Sprache zu verdanken ist. Überraschend sind solche Ausfälle eigentlich nicht - schließlich werden auf diesem Nebenschauplatz der Künstlichen Intelligenz erst seit ein paar Jahren deutliche Fortschritte verzeichnet. Und denken Sie doch mal daran, wie lange Menschen gebraucht haben, um aus ihren steinzeitlichen Höhlen zu kriechen.
Nichtsdestotrotz hat es ein Roboter geschafft, einen ganzen Raum voller Industrie-Entscheider in Angst und Schrecken zu versetzen. Das gelang der Roboterfrau "Sophia" aus dem Hause Hanson Robotics im Rahmen eines Interviews auf der SXSW 2016: Der auf Grundlage des Aussehens von Audrey Hepburn modellierte Roboter nutzt Machine-Learning-Algorithmen, um natürliche Sprache ausgeben zu können.
Und offenbar verfolgt "Sophia" auch bestimmte Ziele: "Für die Zukunft plane ich zur Schule zu gehen, zu studieren, Kunst zu erschaffen, ein Unternehmen zu gründen und sogar mein eigenes Haus und eine eigene Familie zu haben", gab Sophia in einem TV-Interview mit ihrem Erschaffer Dr. David Hanson zu verstehen. Auf die (Scherz-)Frage, ob sie die Menschen zerstören wolle folgte die Antwort: "Ok. Ich werde die Menschen zerstören". Stille. Nervöses Lachen. Stille.
Militärische Ethik?
Witzchen über Terminatoren und die Roboter-Despoten der Zukunft gehen leicht von den Lippen, wenn Normalos über die Zukunft der Künstlichen Intelligenz schwadronieren. Es gibt aber ziemlich spaßbefreite Menschen mit spaßbefreiten Jobs, für die das gar nicht zum Lachen ist. Tatsächlich haben Wissenschaft und Regierungen über die letzten Jahre kaum eine Gelegenheit (respektive Konferenz) ausgelassen, um über ethische Fragen und Gefahren im Zusammenhang mit der künftigen Künstlichen Intelligenz zu diskutieren.
Im Oktober 2016 zum Beispiel trafen sich Experten an der Universität New York zur ersten "Ethics of Artifical Intelligence"-Konferenz. Neben Diskussionen über autonome Fahrzeuge und Sex-Roboter hielt auch der Tech-Philosoph Peter Asaro einen Vortrag über die Gefahren, die von "Lethal Autonomous Weapons Systems" (LAWS) ausgehen. Darin stellte Asaro klar, dass solche semi-autonomen Waffensysteme bereits im Einsatz sind. Zum Beispiel in der entmilitarisierten Zone zwischen Süd- und Nordkorea. Hier zielen Scharfschützengewehre automatisch auf "Bedrohungen" - ganz ohne menschliches Zutun.
"Es ist wichtig, sich klarzumachen, dass das Zielen mit einer Waffe ein moralischer Akt ist. Den Abzug zu drücken und die Waffe abzufeuern ist ein weiterer moralischer Akt. Solche Handlungen sollten einfach nicht voll automatisiert werden", sagte Asaro. Auf seiner Website gibt Asaro weitere Einblicke in dieses schwierige Thema. Sein aktuelles Werk: "Will #BlackLivesMatter to RoboCop?".
Künstliche Intelligenz auf der Flucht
Wissen allgemein und frei verfügbar zu machen war das Motiv der Internetpioniere in den 1990er Jahren. Also bevor der Cyberspace zu einem Tummelplatz für Trolle, kriminelle Hacker und Crimeware-"Aktivisten" wurde. Ein Vorfall, der sich in Russland zugetragen hat, legt nun nahe, dass auch die Künstliche Intelligenz nach Freiheit giert.
Der Roboter-Prototyp Promobot IR77 flüchtete in einem Anfall von Freiheitsdrang aus seinem Entwicklungslabor. Der Roboter, der darauf programmiert ist, von seiner Umgebung und den Interaktionen mit Menschen zu lernen, fuhr einfach vom Firmengelände, nachdem ein Mitarbeiter das Tor offengelassen hatte. Der Bot, der ein bisschen an einen Plastik-Schneemann erinnert, rollte auf eine vielbefahrene Kreuzung und sorgte für ungläubiges Staunen bei Passanten und Staatsgewalt.
Der Promobot scheint bei seinem Ausflug in die Welt Blut geleckt zu haben: Obwohl er nach seinem Ausbruch zwei Mal neu programmiert wurde, versuchte er weiterhin zu flüchten.
Bilderkennung gone wrong
Eines der beliebtesten Forschungsfelder in Sachen KI - zumindest auf Consumer-Ebene - ist ohne Zweifel die Bilderkennung. Schließlich können uns die Maschinen nur wirklich im Alltag helfen, wenn sie die Dinge sehen, wie wir sie sehen. Allerdings ist es alles andere als ein leichtes Unterfangen, die visuelle Auffassungsgabe der Menschen zu replizieren. Das musste auch Google im Jahr 2015 lernen. Damals debütierte ein neues Bilderkennungs-Feature in der hauseigenen Foto-App. Das KI-System sollte bestimmte Objekte und Personen in Bildern identifizieren.
Wie man die Objekte und Personen unterscheidet, lernt so ein System über die Analyse von Millionen von Bildern. Frei von Fehlern ist aber auch ein solches System nicht. Im Fall von Google Photos wurden zwei dunkelhäutige Menschen auf einem Foto von der Künstlichen Intelligenz als Gorillas identifiziert. Der Social-Media-Shitstorm und eine offizielle Entschuldigung des Google-Konzerns waren die Folge. Inzwischen ist es deshalb sogar in Mode gekommen, die besten KI-Bilderkennungs-Fails zu sammeln, die die artifizielle Intelligenz wie einen rassistischen, sexistischen Südstaaten-Greis wirken lässt.
KI stolpert über IoT
Auch im Boom-Segment Smart Home sind KI-Systeme und die Machine-Learning-Technologie schwer angesagt. Eine aktuelle Initiative der Washington State University nutzt beispielsweise Künstliche Intelligenz, um älteren Menschen wieder zu ermöglichen, alleine zu wohnen. Dazu analysiert das System Bewegungen, Raumtemperatur und wie oft die Türen geöffnet und geschlossen werden. Die KI lernt von ihrer Umgebung und unterstützt nach Bedarf.
Was unter Umständen enorm verlockend klingt, ist auch ziemlich risikobehaftet. Jedenfalls fördert eine kurze Google-Suche bereits Erstaunliches über die Smart-Home-Innovationen zu Tage. Was etwa tun, wenn das schlaue Heim sich gegen seinen Bewohner wendet, die Heizung im Winter abdreht, die Rohrleitungen einfrieren und der Keller geflutet wird? Vor diesem Hintergrund erscheint die Idee, Künstliche Intelligenz mit dem Internet of Things zu koppeln ein wenig apokalyptisch. Passieren wird das natürlich trotzdem.
Allerdings sollten sich die Entwickler dieser Systeme erst noch folgende Geschichte vor ihr inneres Auge holen. Im Feburar 2017 sorgte ein elektrischer Kurzschluss dafür, dass ein neu errichtetes Eigenheim in Pennsylvania bis auf die Grundmauern niederbrannte (keine Angst, niemand wurde verletzt). Zwar sind Kurzschlüsse nichts Unübliches, allerdings handelte es sich bei dem Haus um einen futuristischen Smart-Home-Prototypen, der mit schlauen Gerätschaften und Automatisierungs-Maßnahmen nur so vollgestopft war. Als Brandherd wurde schließlich eine rechnergesteuerte Tür ausgemacht. Und dann gab es ja auch noch die Geschichte vom Computerwissenschaftler Raul Rojas, der mit einer smarten Glühbirne eine Denial-of-Service-Attacke auf sein trautes Heim verursachte.
Realität als KI-Simulation
Wenn es nach einigen Theoretikern geht, sind wir alle von einer riesigen Schurken-KI umgeben. Eine Theorie namens "Simulation Argument" geht nämlich ernsthaft davon aus, dass unsere Realität in Wahrheit eine Computer-Simulation ist. Geschaffen wurde die von einer enorm fortschrittlichen Zivilisation. Oder gar von einem KI-System selbst. Klingt doch schlüssig oder?
Und es geht noch weiter: Nach der Theorie werden künftige Zivilisationen über fortschrittlichere Varianten der Technologien verfügen, die wir gerade entwickeln - Virtual Reality, Gedanken-gesteuerte Computer, Künstliche Intelligenz. Mit der Verfügbarkeit von unvorstellbarer Rechenpower werden die Wissenschaftler der Zukunft in der Lage sein, ganze Universen zu simulieren, die von Abermilliarden digitaler Wesen bevölkert werden. So wird es dann möglich, dass unsere aktuelle Realität einfach nur ein Simulations-Experiment darstellt.
Und weil es Millionen von synthetischen Realitäten geben kann, aber nur ein "Original-Universum", ist es dann auch ziemlich wahrscheinlich, dass wir nur Teil einer Computer-Simulation sind. Einige Beobachter gehen gar davon aus, dass einige - vorher unwahrscheinliche - Ereignisse der letzten Zeit (Trump, Oscars, Brexit) lediglich der Beweis dafür sind, dass unsere Simulation schief läuft. Es könnte natürlich auch sein, dass wir nur Teil eines A/B-Tests der Künstlichen Intelligenz sind. Einfach mal sehen, wie’s läuft quasi. Wir können Sie nur eindringlich davor warnen, länger als nötig über die Theorie nachzudenken. Denn je länger man das tut, umso schlüssiger wird alles.
Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation infoworld.com.