KI-Fails
So wird Künstliche Intelligenz zur Gefahr
Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.
Das Science-Fiction-Filmgenre ist irgendwie nicht wirklich gut darin, Geschichten zu erzählen, in denen die Künstliche Intelligenz (KI) Amok läuft. Natürlich, es gab HAL 9000 ("2001: Odyssee im Weltraum"), Skynet ("Terminator") und im vergangenen Jahr hätte Ultron ("The Avengers") um ein Haar massiv in der Superhelden-Branche gewildert. Davon abgesehen ist auch die TV-Serie "Westworld" derzeit schwer angesagt. Aber so richtig "schmutzig" wird es in Bezug auf KI erst in der echten Welt.
Dort entwickelt sich die Künstliche Intelligenz in viele verschiedene Richtungen und hinterlässt dabei bleibende - überwiegend positive - Eindrücke. Künstliche Intelligenz ist inzwischen gefühlt wirklich überall: Industrielle Kontrollsysteme, smarte Haushaltsgeräte, selbstfahrende Autos und allerhand - mal mehr, mal weniger nützliche - Gadgets setzen auf die Technologie.
An der eigentlichen Definition des Begriffs scheiden sich unterdessen schon seit Jahrzehnten die Geister. Wenn Sie etwas länger Zeit haben, beziehungsweise mit dem ewigen Leben planen, bitten Sie doch einfach mal zwei Computerwissenschaftler zum Thema zu debattieren. Ganz generell und in aller Kürze lässt sich aber sagen: Künstliche Intelligenz bezeichnet einen Rechner, der über menschenähnliche, kognitive Funktionen verfügt. Diese Systeme nutzen Machine Learning (ML) um Probleme einzuschätzen und zu lösen. Und gelegentlich auch, um neue zu schaffen.
Wir zeigen Ihnen zehn ausgewählte KI-Fails: Wildgewordene Chatbots finden sich hier genauso wie eigensinnige Connected Cars, Säbel rasselnde Roboter und gehässige Bilderkennungssoftware. Trotzdem sollte man bei aller menschlichen Schadenfreude Milde walten lassen: Egal ob künstlich oder biologisch - wir alle machen Fehler. Und KI-Systeme zu verärgern, sollte man sich besser zweimal überlegen.
Microsofts KI-Debakel
Im Frühjahr 2016 taumelte MicrosoftMicrosoft einem ausgewachsenen PR-Desaster entgegen. Schuld war der kurz zuvor veröffentlichte Twitter-Chatbot namens Tay. Die KI-Persönlichkeit schmiss nämlich plötzlich mit Ergüssen wie "Hitler was right" oder "9/11 was an inside job" um sich. Alles zu Microsoft auf CIO.de
Zugegebenermaßen war es nicht der Bot selbst, der sich Parolen und Verschwörungstheorien aneignete, sondern böswillige Internet-Trolle. Eigentlich sollte Tay junge Menschen zwischen 18 und 24 Jahren ansprechen und von diesen Nutzern in Sachen Sprache lernen. Anschließend sollte der Chatbot auf mehreren Social-Media-Plattformen ausgerollt werden. Durch Machine Learning, adaptive Algorithmen und die Analyse von Daten sollte Tay Gesprächsinhalte vorhersehen und entsprechende Antworten geben. Stattdessen erging es dem Chatbot ganz ähnlich wie einigen Usern der Zielgruppe: Der Bot hing einfach mit den falschen Leuten rum.
Microsoft bewarb Tay vor dem Release mit den Worten: "The more you chat with Tay, the smarter she gets". Oder nicht. Ganze 16 Stunden war das KI-Experiment online.
Korrigieren und konkurrieren
Bei Wikipedia tobt stellenweise ebenfalls ein Bot-Krieg. Wie viele andere Online-Publikationen, setzt auch Wikipedia eine Armee von automatisierten Crawler-Bots ein, die über die Millionen von Unterseiten rotieren, Verlinkungen auf den neuesten Stand bringen, Schreibfehler korrigieren und "digitalen Vandalismus" bereinigen. Wikipedia hat über die Jahre einige Generationen dieser Bots entwickelt. Und scheinbar verläuft das Zusammenspiel der KI-Kumpanen bei Zeiten alles andere als reibungslos.
Im Rahmen einer Studie haben Wissenschaftler der Universität Oxford über die Jahre 2001 bis 2010 das Verhalten der Wikipedia-Bots in 13 Ländern (respektive Wikipedia-Seiten) analysiert. Dabei ist Erstaunliches zu Tage getreten: Die Wiki-Crawler-Bots liefern sich teilweise jahrelange "Blutfehden". Das passiert zum Beispiel dann, wenn zwei verschiedene Bots gegenläufige Instruktionen erhalten. Dann dreht sich die Künstliche Intelligenz schlicht im Kreis und verbessert sich immer wieder selbst - in einem unendlichen Kreislauf digitaler Aggression.
- Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste. - Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst. - Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde. - SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen. - Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen... - Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor. - Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.
Die Wissenschaftler suchten sich für ihre Untersuchungen ganz bewusst die Wikipedia-Bots aus, denn bei diesen handelt es sich um die kleinste und "primitivste" Art von Künstlicher Intelligenz im Cyberspace. Und wenn schon Konflikte solcher Mini-Bots für Probleme bei Wikipedia sorgen können, was passiert dann, wenn KI-Systeme von Regierungen oder Militärinstitutionen aneinander geraten?
Uber rote Ampeln mit KI
Der Carsharing-Pionier Uber fährt etliche Initiativen, um Mobilitäts-Titan zu bleiben. Allerdings läuft es in Sachen Reputation momentan alles andere als optimal. Der erste Akt der Rufsuboptimierung war ein investigativer Report der "New York Times".
Demnach hat Uber Ende 2016 in der Gegend um San Francisco verschiedene Tests mit autonomen Fahrzeugen durchgeführt - allerdings ohne die notwendige Genehmigung des Bundesstaates Kalifornien. Bis zu diesem Punkt war es lediglich ein bisschen schlechte Presse. Dann kam heraus, dass die selbstfahrenden Uber-Autos zu allem Überfluss auch noch insgesamt sechs rote Ampeln überfuhren. Das komplexe KI-System, das die Fahrzeuge lenkt, besteht aus vielen verschiedenen Sensoren und einer Mapping-Software. Dennoch sitzt auch bei solchen Tests ein menschlicher Fahrer hinter dem Steuer, um im Notfall eingreifen zu können.
Und wie ging Uber mit den Vorwürfen um? Zunächst schob man die Schuld an den Ampel-Fauxpas einfach den menschlichen Fahrern zu. Dann enthüllten interne Dokumente allerdings, dass mindestens eines der Autos sich selbst steuerte, als es das Rotlicht missachtete. Übrigens an einem stark frequentierten Fußgängerüberweg. Böse KI! Ganz böse! Außerdem nicht gerade ein Best-Practice-Beispiel für autonomes Fahren.