Software kann immer besser schreiben: Sie beendet unsere Sätze, beantwortet unsere E-Mails, schreibt News und sogar komplette Romane. Aber nur weil das möglich ist, heißt das nicht, dass es auch sinnvoll ist.
Artificial-Intelligence-Lösungen haben eine Technologie-Revolution losgetreten, die das Unternehmensumfeld im Laufe des nächsten Jahrzehnts umwälzen wird. Das derzeit interessanteste Einsatzgebiet für Künstliche Intelligenz ist die Entscheidungsfindung - beziehungsweise deren Support über Algorithmen, die uns mit Zusatzwissen und Ratschlägen impfen. Nach Überzeugung der Marktforscher von Gartner wird allein dieser Bereich im Jahr 2021 ein Marktvolumen von circa 2,9 Billionen Dollar erreichen.
Mit Blick auf die IT-Sicherheit in Unternehmen ist diese KI-Evolution unabdingbar - und wenn es nur deshalb ist, weil kriminelle Hacker die Technologie nutzen werden, um intelligentere und bessere Malware zu entwickeln. Dennoch sollten wir bei allen Vorteilen, die der Einsatz von Künstlicher Intelligenz verspricht, nicht vergessen, wie wichtig menschliche Intelligenz ist. Denn diese ist in Gefahr - und zwar durch Software, die schreibt.
Wie der Abstieg mit AI begann
Der Übertritt schriftlicher Business-Ergüsse aus KI-Feder in den Mainstream nahm vor vier Jahren mit Googles "Smart Reply" seinen Lauf. Dabei wurden den Nutzern einige wenige (und ziemlich farblose), automatisierte Antwortmöglichkeiten auf E-Mails feilgeboten. Noch heute können G-Mail User auf dieses Feature zurückgreifen und mit einem Mausklick E-Mails mit generischen Phrasen beantworten. Im vergangenen Jahr wurde das "Smart Compose"-Feature hinzugefügt, das der Software ermöglicht, Sätze zu vervollständigen.
Solche Features sparen wertvolle Zeit, aber die Botschaften selbst verlieren dadurch enorm an Wert. Das liegt einerseits daran, dass Google die automatisierten Antworten so gestaltet, dass keine Person sich angegriffen, beleidigt oder in irgendeiner Weise verletzt fühlt. Andererseits werden die Kommunikationsinhalte aber auch entwertet, weil Millionen von Google-Nutzern auf das exakt selbe Wording zurückgreifen.
Google steht mit diesem "kommunikativen Entwertungsservice" nicht allein: Lightkey etwa bringt dieselben Funktionen in Windows-App-Form. Mit Quillbot steht auch ein cloudbasiertes Tool zur Verfügung, das geschriebene Inhalte (oder solche, die im Copy-Paste-Verfahren entstanden sind) neu formulieren kann. Die Ergebnisse sind typischerweise eher verstörend - Software hat eben kein Sprachgefühl. Sogar komplette Geschichten lassen sich von einer artifiziellen Intelligenz verfassen: Das Tool StoryAI übernimmt das für Sie. Sie müssen sich lediglich ein paar einleitende Sätze aus dem präfrontalen Kortex leiern. Wie gut das in der Praxis funktioniert? Überzeugen Sie sich selbst.
Ein wenig grotesk könnte auch der Umstand anmuten, dass KI-Lösungen für KI-Lösungen schreiben. Bestes Beispiel: Der Finanzmarkt. In diesem Bereich entstammen zum Beispiel Börsennachrichten, die von Menschen konsumiert werden sollen, immer öfter der Feder von KI-Instanzen. Diese Stories werden auch von anderen Software Bots "gelesen", die die Informationen ihrerseits zur Weiterverarbeitung nutzen. Dabei wird automatisiertes Schreiben nicht nur kontinuierlich besser, sondern auch immer mehr zu einem selbstverständlichen Bestandteil der Software-Werkzeuge, die wir zu diesen Zwecken verwenden.
Wo die größte KI-Gefahr lauert
Wenn Künstliche Intelligenz für uns Texte produziert, liegt das Problem aber nicht nur im Schreiben an sich, denn die Fähigkeiten zu Lesen und zu Denken stehen damit in direktem Zusammenhang. Menschen schreiben etwas, lesen es und entdecken so eventuell vorhandene Denkfehler. Im Anschluss feilen sie so lange am geschriebenen Wort, bis ein konsistentes Gesamtbild entsteht.
Das Verfassen von Texten zwingt uns quasi in eine Konfrontation mit unseren eigenen Gedanken - was unsere Fähigkeit klar zu denken kultiviert. Zudem unterstützt kreatives Schreiben unser Gedächtnis. Wenn wir KI stellvertretend für uns kommunizieren lassen, ist die Wahrscheinlichkeit, dass die Kommunikationsinhalte nicht richtig erfasst werden oder in Vergessenheit geraten, hoch. Das gilt auch, wenn es um Business E-Mails geht.
Kreative Prozesse an eine artifizielle Intelligenz auszulagern, lässt unsere Fähigkeit zu schreiben und zu reflektieren mehr und mehr verkümmern. Das wird letztlich dazu führen, dass wir unsere Entscheidungen von oberflächlichen Eindrücken abhängig machen, statt von kritischem oder analytischem Denken. Einige gehen sogar so weit, zu behaupten, dass dieser Prozess längst im Gange ist: Wir ersetzen beispielsweise viele unserer Worte bereits durch die allgegenwärtigen Emojis - und kommunizieren damit vage Eindrücke statt spezifischer Gedanken. Mit Chatsprache, SMS-Kürzel, Autokorrektur, Emojis und Co. steuern wir direkt in die Idiotie. KI-Lösungen, die unsere Business-Kommunikation übernehmen, stellen dabei quasi die Pro-Version der Verdummungssoftware dar.
Damit wir uns nicht falsch verstehen: Angst- und Panikmache gehört im Zusammenhang mit Künstlicher Intelligenz inzwischen ja fast schon zum "guten Ton": Sie klaut unsere Jobs, macht uns überflüssig und hält uns in der Zukunft als Haustiere. Diese technologiegetriebene Panikmache fußt auf der Annahme, dass Software immer schlauer wird. Dabei sollten wir eher Angst davor haben, dass wir immer dümmer werden.
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Computerworld.