Hawking sprach anlässlich der Eröffnung des Leverhulme Centre for the Future of Intelligence (CFI) am 19. Oktober 2016. Neben Hawking hielt auch die AI-Pionierin Professor Maggie Boden eine Rede. Boden sagte, AI sei "extrem aufregend". KI-Anwendungen könnten dabei helfen, wichtige soziale Probleme zu lösen und Aufgaben des alltäglichen Lebens zu bewältigen. Zudem habe AI die Wissenschaften in verschiedener Hinsicht fundamental weiterentwickelt. Aber, warnt Boden, KI habe Limitierungen. Die unkritische Nutzung von künstlicher Intelligenz berge erhebliche Gefahren. Das CFI leiste einen Beitrag, genau diesen Gefährdungen vorzubeugen, indem es die AI-Entwicklungen in menschenfreundlicher Weise befördere.
Wichtig für die Zukunft unserer Zivilisation
Hawking, der schon früher neben Micrsoftgründer Bill Gates, Tesla-Chef Elon Musk und Apple-Mitbegründer Steve Wozniak vor den Folgen unkontrollierter AI-Entwicklung warnte, lobte die Gründung des CFI. Ein akademisches Institut, das sich dezidiert der Forschung über die Zukunft der AI widme, sei "wichtig für die Zukunft unserer Zivilisation und der menschlichen Spezies," zitiert der "Guardian" den theoretischen Physiker.
Geschichte der Dummheiten
Hawking, nie verlegen um deutliche Ansagen, meinte, die Menschheit beschäftige sich schon lange und intensiv damit, Geschichte zu studieren: "Aber mal ehrlich, allermeistens ist das die Geschichte der Dummheiten." Da sei es doch sehr willkommen, wenn sich Menschen stattdessen einmal mit der Zukunft der Intelligenz befassen würden.
Hawking hatte sich in der Vergangenheit meistens zurückhaltend zu den Potenzialen der AI geäußert. Diese berge potenziell das Risiko, dass die Menschheit sich selbst zerstöre, indem sie eine Superintelligenz mit eigenem Willen schaffe. Anlässlich der Eröffnung des CFI schlug er nun aber auch positive Töne an.
Kann AI Krankheiten und Armut beseitigen?
Die Potenziale der Artificial Intelligence, so Hawking, seien enorm. Zwar wisse man heute noch nicht, was die Menschheit sich selbst schaffe, wenn sie ihre eigenen geistigen Befähigungen durch künstliche Intelligenz verstärke. Vielleicht könne man mit den Werkzeugen dieser neuen technischen Revolution (Hawking meinte die AI) einige der Schäden wieder beseitigen, die die vorherige industrielle Revolution der Natur angetan habe. Ganz sicher ziele man mit der KI-Entwicklung aber darauf, Krankheiten und Armut zu beseitigen.
Über eins ließ Hawking die Zuhörer nicht im Unklaren: Durch AI "wird sich jeder Aspekt unseres Lebens verändern." Und weiter: "Um es kurz zu machen: Erfolge bei der Entwicklung von AI könnten das größte Ereignis in der Geschichte der Zivilisation sein."
Margaret Boden, die Professorin für Kognitive Wissenschaften an der Universität Sussex ist, betonte die Bedeutung, die die öffentliche Diskussion über AI mittlerweile genieße. Noch im Jahr 2009 habe kaum jemand, "nicht einmal AI-Experten", das KI-Thema ernst genommen.
Huw Price, Direktor des CFI und Bertrand-Russell-Professor der Philosophie an der Cambridge University (an der auch Hawking arbeitet) sagte, das CFI sei zumindest teilweise geboren worden aus dem bereits an der Universität bestehenden Centre for Existential Risk (CER). Diese Forschungseinrichtung habe aber bei Yellow-Press-Blättern den Ruf gehabt, "Terminator Studies" anzubieten. Das CER widme sich einem weiter gesteckten Forschungsraum von möglichen Problemen für die Menschheit. Das jetzt aus der Taufe gehobene CFI hingegen habe einen engeren Fokus auf AI.
Wie KI die Politik übernimmt und uns entmündigt
Das Gefährdungspotenzial sehr kritisch sieht auch Yvonne Hofstetter. Sie ist Autorin der Bücher "Sie wissen alles" (über die Big-Data-Industrie) und neu "Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt". In ihrem jünsten Werk diskutiert sie besonders die Auswirkungen der KI-Entwicklung auf Gesellschaften.
Hofstetter ist Geschäftsführerin der Teramark Technologies GmbH (http://www.teramarktechnologies.de/). Bezeichnend für ihr am 26. September 2016 erschienenes Buch "Das Ende der Demokratie" ist der Untertitel: "Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt". Nicht zufällig rekuriert Hofstetter mit ihrer Kritik auf Hannah Arendts Essay "Macht und Gewalt". Hieraus zitiert sie, "wenn wir die Tyrannei als Herrschaft definieren, in der eine Regierung keine Rechenschaft über sich selbst ablegen muss, dann ist die Herrschaft durch Niemanden die tyrannischste aller Regierungsformen, weil es keinen mehr gibt, der eine Antwort auf die Frage geben könnte, was denn überhaupt vorgeht."
Anhand des Beispiels der USA, wo sich die IT-Industrie mittlerweile zunehmend als heimlicher Gesetzgeber für Gesellschaft und Staat geriert, zeichnet Hofstetter das Bild eines Systems, dass sich zunehmend abkoppelt vom Checks-and-Balances-Modell der gegenseitigen Kontrolle von Exekutive, Legislative und Judikative. Demokratische Kontrolle wird da ausgehebelt von der Herrschaft eines Niemand, der sich als Algorithmus darstellt und insofern nicht angreifbar ist.
Hofstetters Ansatz ist auch deshalb so spannend, weil sie nicht irgendwelche Terminator-Szenarien mit wild gewordenen künstlichen, Mensch gewordenen Robotern heraufbeschwört. Sie arbeitet sich an heute bereits real existierenden Gegebenheiten ab.
Hofstetter argumentiert etwa, dass das vollautomatisierte Einreise-Kontrollsystem der USA zwischen 2003 und 2006 über 50 % aller Passagiere als terrorverdächtig einstufte. Grundlage für solche automatisierten Einschätzungen dürften Bots sein, die etwa die Suchabfrage auf Amazon abgreifen, bei denen jemand beispielsweise - weil geschichtsinteressiert - nach der "Geschichte des Islam" sucht. Wenn derselbe auch noch als Hobbygärtner auf Amazon nach Düngemitteln sucht, könnte ein verquerer Syllogismus in Algorithmusform den Schluß nahelegen, dass hier ein Islaminteressierter auch gleich nach Ingredienzien für den Bombenbau sucht.
Menschliche Intelligenz weit übertroffen
Hofstetter weiß sich ansonsten im Einklang mit Professor Jürgen Schmidhuber, einem Experten aus der KI-Szene, dessen Schüler und Studeten heute bei so bekannten AI-Unternehmen wie Googles DeepMind-Unternehmung arbeiten. Hofstetter wie Schmidhuber argumentieren, dass bereits heute schon AI-Systeme in Arbeitsumfeldern tätig sind, Entscheidungen treffen und dabei menschliche Intelligenz bei weitem übertreffen.
Während aber Schmidhuber davon ausgeht, dass KI-Systeme innerhalb der kommenden 50 Jahre menschliche Intelligenz weit übertreffen werden, sich dann aber lohnenderen Aufgaben wie die Eroberung anderer Galaxien zuwenden werden, ist Hofstetter skeptischer. Sie sieht die Notwendigkeit, heute schon in die europäische Rechtsprechung Regeln einzupflegen, die dann in Algorithmen implementiert werden müssten. Wenn alles nichts mehr hilft, denkt Hofstetter gar daran, das unter der Kuratel internationaler IT-Konzerne stehende Internet durch Parallelnetze zu ergänzen.
Fachleute wie Nick Bostrom, Leiter des Future Humanity Institute (FHI) in Oxford, glauben, "dass die unregulierte und zwanglose Entwicklung im KI-Sektor eine Reihe signifikanter Gefahren mit sich bringt". Neben Auswirkungen auf die Arbeitsmärkte könnten die AI-Entwicklungen auch leicht von "bösen Buben", etwa verantwortungslosen Regierungen, genutzt werden. In seinem neuesten Buch "Superintelligenz: Szenarien einer kommenden Revolution" schreibt der Oxford-Professor, die Menschheit spiele bei der AI-Entwicklung wie ein Kind mit einer Bombe. (jm)