1997: Der IBM-Computer "Deep Blue" schlägt den amtierenden Schachweltmeister Gary Kasparow +++ 2011: Zwei menschliche Quiz-Champions unterliegen dem IBM-Superrechner "Watson" in der US-amerikanischen Quizsendung Jeopardy +++ 2016: Das von Google DeepMind entwickelte Computerprogramm "AlphaGo" besiegt den südkoreanischen Go-Weltmeister Lee Sedol mit 4:1 +++ 2017: "Libratus" zockt Poker-Profis ab.
Diese und andere Meldungen befeuerten in den zurückliegenden Jahrzehnten immer wieder heftige Diskussionen über künstliche Intelligenz und die Konsequenzen für die Menschheit. Meistens schwang dabei die Sorge mit, Maschinen und Computer könnten sich verselbständigen und über immer mehr Lebensbereiche die Kontrolle gewinnen. Zu den prominenten Warnern gehören seit Jahren Microsoft-Gründer Bill Gates und der britische Physiker Stephen Hawking. Andere Experten setzen dagegen große Hoffnungen in KI. Im Zusammenspiel mit Robotik und Automatisierung seien große Entwicklungssprünge in Sachen Produktivität und Arbeitserleichterung möglich. Viele globale Probleme vom Klimawandel bis hin zur Bewältigung von Hunger- und Flüchtlingskrisen ließen sich mit Hilfe von KI-Techniken lösen, so die Hoffnung der Befürworter und Optimisten.
Retter oder Untergang?
Ist KI der Retter oder der Untergang der Menschheit? Solche Diskussionen werden tatsächlich geführt. Keine andere Technik polarisiert stärker. Dabei ist das Thema alles andere als neu. Bereits in den 50er Jahren des 20. Jahrhunderts haben Wissenschaftler den Begriff der künstlichen Intelligenz geprägt. Die Arbeiten von Forschern unterschiedlichster Disziplinen drehten sich um die zentrale Frage, wie sich eine Maschine bauen ließe, die menschliche Intelligenz imitieren kann. Doch die KI-Entwicklung hatte ihre Höhen und Tiefen. Auf Erfolgsmeldungen, die teilweise euphorische Science-Fiction-Phantasien anstachelten, folgten immer wieder Enttäuschungen, weil die Technik noch nicht reif war und die Rechenkapazitäten fehlten. Experten sprechen in diesem Zusammenhang von "KI-Wintern".
Das könnte sich nun allerdings ändern. Die technischen Voraussetzungen haben sich deutlich weiterentwickelt – es gibt Rechenpower, Speicher und Daten ohne Ende. Auch die Methodik, wie Maschinen und Computer lernen und damit "intelligenter" werden, hat sich grundlegend gewandelt. Vor 20 Jahren profitierte Deep Blue in seinem Schach-Duell gegen Kasparow vor allem von seiner immensen Rechenpower: 200 Millionen Stellungen pro Sekunde konnte das System berechnen. Allerdings handelte es sich dabei nicht um ein selbstlernendes System, wie auch IBM einräumte. Deep Blues Software wurde im Vorfeld mit Tausenden Partien und Schachwissen gefüttert, die der Rechner für seine Züge durchsuchte und bewertete.
Im Lauf der Jahre wurden die KI-Methoden immer weiter verfeinert. IBMs Watson warf zwar immer noch extrem viel Rechenpower in die Waagschale, ausschlaggebend für den Jeopardy-Sieg war aber die DeepQA-Software. Sie konnte den Sinn von Fragen erfassen, die in natürlicher Sprache gestellt wurden, und innerhalb kürzester Zeit auf Basis einer textbasierten Datenbankrecherche die notwendigen Fakten für die richtige Antwort finden.
Das menschliche Gedächtnis simulieren
Google, das im Jahr 2014 das britische Startup DeepMind übernahm und damit seine KI-Anstrengungen deutlich forcierte, verfolgt das Ziel, seine KI-Systeme flexibel einsetzbar zu machen. Die Struktur basiert auf einem neuronalen Netz und beinhaltet darüber hinaus eine Art Kurzzeitspeicher, mit dem sich die Fähigkeiten eines menschlichen Gedächtnisses simulieren lassen.
Für Aufsehen sorgte DeepMinds Programm AlphaGo, das im März 2016 den Profispieler Lee Sedol im Go-Spiel besiegen konnte. Go galt verglichen mit Schach als weit höhere Hürde für die KI. Aufgrund des größeren Spielfelds (19 mal 19 Felder) sowie der hohen Zahl an Zugmöglichkeiten ist das Spiel wesentlich komplexer als Schach und damit auch nicht mit den klassischen Rechenoptionen eines Deep Blue zu bewältigen.
AlphaGo verwendete verschiedene Kategorien von künstlichen neuronalen Netzen: ein Regelnetz mit einer Vielzahl von Partien, um alle möglichen Zugvarianten zu bestimmen, sowie ein Bewertungsnetz, um bestimmte Positionen richtig einschätzen zu können. In beiden Netzen kommen Methoden des "bestärkenden Lernens" zum Einsatz. Dabei erlernt ein sogenannter Agent innerhalb der Software selbständig eine Strategie. Es wird nicht vorgegeben, welche Aktion in welcher Situation die beste ist, sondern das System erhält zu bestimmten Zeitpunkten in der Lernphase ein Feedback. Anhand dessen ermittelt der Agent den Nutzen, den ein Zustand oder eine Aktion hat. Die Software lernt – ähnlich wie ein Mensch – durch positive und negative Bestätigung für bestimmte Handlungen.
Im Grunde genommen hat die KI-Technik damit einen neuen Level erreicht. Es geht nicht mehr darum, einen Rechner mit möglichst viel Informationen und Daten zu füttern, aus denen dieser dann mit Hilfe spezieller Algorithmen, die in aller Regel aufwendig programmiert werden müssen, und mit purer Rechenpower die Lösung für ein Problem, eine Aufgabe oder Frage errechnet. Heute sind lernende KI-Systeme in der Lage, selbständig Lösungen und Antworten zu finden. Das hat zudem den Vorteil, dass diese Art der KI nicht mehr aufwendig für eine bestimmte Aufgabe entwickelt werden muss, sondern flexibel für verschiedene Aufgaben trainiert werden kann.
Libratus zockt Profis im Poker ab
Den Beweis, dass die neue Generation von KI immer innovativer und leistungsstärker funktioniert und arbeitet, hat dieser Tage "Libratus" angetreten. Libratus wurde von Wissenschaftlern der Carnegie-Mellon-University entwickelt und trat in dem Wettbewerb "Brains vs Artificial Intelligence: Upping the Ante" gegen vier Profi-Poker-Spieler an. Vom 11. bis 30. Januar 2017 wurden im Rivers Casino im US-amerikanischen Pittsburgh 120.000 Hände Texas-Hold’em-Pokerblätter gespielt. Am Ende waren Jimmy Chou, Dong Kim, Jason Les und Daniel McAuley besiegt. Libratus hatte die Profi-Spieler nach allen Regeln der Kunst abgezockt. 1.766.250 Dollar hätte die KI gewonnen, wenn es bei dem Spiel um reale Dollars gegangen wäre.
Dabei standen die Chancen für die menschlichen Spieler eigentlich nicht schlecht. Poker stellt eine besonders komplexe Herausforderung für KI dar. Während bei Spielen wie Schach und Go mit offenen Karten gespielt wird und den Spielern jederzeit alle Informationen wie Stellung, Position und Zahl der Figuren beziehungsweise Spielsteine zugänglich sind, gilt es beim Pokern mit unvollständigen Informationen klarzukommen. Keiner der Spieler – auch die KI nicht – weiß, welche der 52 Karten aktuell im Spiel sind. Dazu kommen Bluffs, um die Gegner in die Irre zu führen.
Das macht Poker für Maschinen extrem komplex. Vor zwei Jahren war die erste KI-Version "Claudico" noch unterlegen. Das hat sich nun geändert. Libratus hat gelernt, sich auf die menschliche Spielweise und die damit verbundenen Unwägbarkeiten einzustellen. Man habe das KI-System anfangs wohl etwas unterschätzt, räumte Pokerprofi Chou ein. Die Maschine sei jeden Tag besser geworden. Zwar hätten sich die Spieler ausgetauscht, um gemeinsam Schwachstellen der Poker-KI herauszufinden. "Bei jeder Schwäche, die wir fanden, lernte Libratus von uns", stellte Chou aber fest. "Und am nächsten Tag war sie verschwunden."
Poker sei eine gute Messgröße, um die Leistungsfähigkeit von KI zu beurteilen, sagt Tuomas Sandholm, Professor an der Carnegie Mellon University und Kopf der Libratus-Entwicklung, eine wesentlich schwierigere Herausforderung als Schach oder Go. Die Maschine müsse extrem komplexe Entscheidungen treffen, die noch dazu auf unvollständigen Informationen basieren, und gleichzeitig auf Bluffs und andere Tricks reagieren. Nach dem gewonnenen Pokermatch sieht der Wissenschaftler etliche Einsatzbereiche für Libratus, in denen ebenfalls Entscheidungen auf Basis einer unsicheren Informationslage gefällt werden müssen, zum Beispiel beim Militär oder im Finanzsektor.
Poker, Go und Schach sind nicht gerade Faktoren, die auf grundlegende Verwerfungen in Ökonomie und Gesellschaft hindeuten. Doch der Eindruck, KI erziele ihre spektakulären Erfolge nur auf Spezialgebieten, täuscht. Längst experimentieren Unternehmen aus verschiedenen Branchen, wie KI bestimmte Arbeiten effizienter, schneller und kostengünstiger erledigen kann – in letzter Konsequenz auch ohne Zutun oder Mithilfe des Menschen.
Watson jobbt in der Versicherungsbranche
So will das Versicherungsunternehmen Fukoku Mutual Life 34 Mitarbeiter durch ein KI-System ersetzen. Deren Arbeit soll künftig IBMs Watson-Technik übernehmen. Das System soll Unterlagen von Hospitälern sowie Ärzten analysieren und prüfen, ob deren Angaben schlüssig und richtig sind. Allerdings, so betonten die Verantwortlichen des japanischen Versicherers, würde die Auszahlung der Versicherungsprämie schlussendlich nach wie vor von einem Menschen und nicht von einer Maschine veranlasst.
Watson helfe lediglich, Daten und Informationen zu prüfen. Fukoku verspricht sich davon eine um 30 Prozent bessere Produktivität sowie handfeste finanzielle Vorteile. Das IBM-System soll 2,36 Millionen Dollar sowie weitere 177.000 Dollar pro Jahr an Wartung kosten. Angesichts der jährlich eingesparten Personalkosten in Höhe von 1,65 Millionen Dollar habe sich die Investition innerhalb von rund zwei Jahren amortisiert, rechnen die Japaner vor.
Mitte Januar berichtete das Medium "China Daily", dass ein KI-System einen Artikel über ein Festival geschrieben hat, der in der "Southern Metropolis Daily" veröffentlicht wurde. Die Maschine sei in der Lage, kurze wie auch längere Stücke zu verfassen. Der jetzt veröffentlichte Artikel sei innerhalb einer Sekunde entstanden. Verglichen mit klassischen Reportern könne KI mehr Informationen und Daten verarbeiten und sei außerdem in der Lage, Artikel deutlich schneller zu schreiben, erläuterte Xiaojun Wan, Professor an der Peking University und Leiter des entsprechenden Entwicklungsprojekts. Allerdings könnten Journalisten nicht von heute auf morgen durch Roboter ersetzt werden, relativierte der Wissenschaftler. Wenn es darum gehe, Interviews zu führen und bestimmte Aspekte durch weitere Fragen zu klären, könne KI noch nicht mit menschlichen Fähigkeiten konkurrieren.
Die vielen Startups, die derzeit mit KI experimentieren, dürften dafür sorgen, dass die Liste mit Anwendungsbeispielen schnell länger wird. Dabei hilft auch die Tatsache, dass sich die KI-Entwicklung deutlich vereinfacht hat. Es braucht keine teuren Rechenboliden und aufwendigen Spezialentwicklungen mehr. Heute reichen für den Anfang Workstations beziehungsweise die Compute-Power von Grafikchips. Und wer mehr Leistung benötigt, kann diese relativ einfach in der Cloud dazubuchen. Zudem können die Entwickler mit zahlreichen KI-Frameworks arbeiten, die zum größten Teil als Open Source frei verfügbar sind.
Deutsche Startups experimentieren
Davon profitiert zum Beispiel Peat. Das Startup aus Hannover hat die App "Plantix" entwickelt, mit deren Hilfe Gärtner und Bauern mittels eines Fotos automatisch Schädlinge und Krankheiten von Pflanzen erkennen können. Dahinter steckt ein KI-System, das anhand von Bilderkennung ständig dazulernt und seine Genauigkeit in der Erkennung kontinuierlich verbessert. Die App liefert darüber hinaus Tipps, wie der betroffenen Pflanze zu helfen und mit welchen vorbeugenden Maßnahmen sie zu schützen ist. Doch die Vision der Peat-Gründer reicht noch weiter. Mit Hilfe von GPS-Daten der Fotos sollen sich Verbreitungswege von Krankheiten und Schädlingen genauer verfolgen lassen, erläutert Korbinian Hartberger, bei Peat verantwortlich für Business Relations. Zudem könnten Korrelationen mit Geodaten Aufschlüsse geben, wie Bodenqualität oder Wetter mit der Verbreitung von Pflanzenkrankheiten zusammenhängen.
Um Bilderkennung geht es auch bei Hellsicht. Das Startup aus München verfolgt dabei allerdings einen eher generischen Ansatz. CEO Philipp Eulenberg spricht von Deep Learning as a Service. Hellsicht hat sein KI-System darauf ausgerichtet, automatisch Anomalien zu erkennen. Das können Lackschäden in der Autoproduktion, Texturfehler auf Teppichböden oder Auffälligkeiten in Zellkulturen sein. Eulenberg zufolge lässt sich das KI-System jeweils an verschiedene Anwendungsbereiche anpassen. Sein Unternehmen übernimmt dafür die gesamte Projektarbeit, die sich von der Sammlung der Bilder über die Implementierung der KI bis hin zur Aufbereitung der Ergebnisse erstreckt. Dem System reichen die Bilddaten, es braucht keine Metadaten und Label-Informationen. Die KI lernt, wie eine Oberfläche oder ein Objekt normalerweise auszusehen hat, und kann dann selbständig Anomalien erkennen.
Technik für jedermann
Das sind nur einige Beispiele, viele weitere dürften folgen und nicht nur herkömmliche Arbeiten revolutionieren, sondern auch völlig neue Möglichkeiten eröffnen, an die heute noch niemand denkt. Dabei hilft auch die Technik. KI-Technik ist heute längst nicht mehr nur Spezialisten vorbehalten. Beispielsweise positioniert sich Grafikchip-Hersteller Nvidia eigenen Angaben zufolge verstärkt als KI-Computing-Firma. Graphic Processing Units (GPUs) würden sich gerade bei Deep Learning und KI besser schlagen als klassische Compute-Prozessoren. Das liege in erster Linie daran, dass GPUs stark parallelisiert arbeiteten. Noch im Lauf des Jahres soll zudem der speziell für KI-Belange ausgelegte Chip "Xavier" auf den Markt kommen.
Auch Intel versucht in diesem Markt, mit seinen auf Hochleistung getrimmten Xeon-Chips Fuß zu fassen. Intel hatte bereits im Oktober 2015 Saffron, einen Anbieter von Cognitive-Computing-Plattformen, übernommen. Erklärtes Ziel ist es, KI breit zugänglich zu machen und stärker zu demokratisieren. Viele IT-Größen forcieren derzeit ihre KI-Strategien. IBM baut kontinuierlich an den Fähigkeiten und Funktionen seiner Cognitive-Computing-Plattform Watson. Microsoft mit dem "Cognitive Toolkit" (CNTK) und Google mit "Tensorflow" bieten Deep-Learning-Frameworks als offene Entwicklungsplattformen an. Zudem arbeiten gerade die großen Cloud-Anbieter, neben Google und Microsoft vor allem auch Amazon Web Services (AWS), daran, KI-Services direkt aus der IT-Wolke heraus anzubieten.
KI zum Staunen
Die Fortschritte sind rasant. Angesichts der vielen neuen KI-Möglichkeiten räumte Google- Mitgründer Sergey Brin kürzlich auf dem World Economic Forum (WEF) im schweizerischen Davos ein, dass ihn das Phänomen der künstlichen Intelligenz überrascht habe. Der Manager erzählte, er habe in den 90er Jahren des vergangenen Jahrhunderts dem Thema keine Aufmerksamkeit geschenkt, weil im Grunde damals jeder davon ausgegangen sei, dass KI niemals funktionieren werde. Heute sei es schwer vorauszusagen, wie sich die Dinge weiterentwickeln werden: "Wir erkennen keine Grenzen."
Das wirft Fragen auf, wie man mit KI umgehen sollte – gerade auch hinsichtlich der Auswirkungen auf Arbeit und Gesellschaft. IBM-Chefin Virginia Rometty glaubt an eine Partnerschaft zwischen Mensch und Maschine. Zwar werde KI einige Jobs obsolet machen, die meisten Menschen würden künftig jedoch mit KI-Systemen arbeiten. Microsoft-CEO Satya Nadella plädierte auf der diesjährigen DLD-Konferenz (Digital, Life, Design) Mitte Januar in München dafür, dass KI-Technik nicht allein Sache der großen IT-Unternehmen sein dürfe. Vielmehr müsse die gesamte Gesellschaft von KI profitieren, indem Wachstum und Produktivität angekurbelt würden. Allerdings sieht Nadella noch etliche Herausforderungen zu bewältigen, beispielsweise wie sich die Transparenz und damit das Vertrauen in KI verbessern lasse. Außerdem müsse man sich dringend mit den Folgen für den Arbeitsmarkt beschäftigen.
SAPs Technikvorstand Bernd Leukert warnte, dass sich die Jobprofile massiv verändern würden. Entsprechend müssten sich Ausbildung und Training wandeln. Dafür seien gemeinsame Anstrengungen von Regierung, Verbänden und Unternehmen erforderlich, mahnte Leukert in einem Gespräch mit dem "Handelsblatt". "Momentan habe ich allerdings der Eindruck, dass sich jeder auf den anderen verlässt."