Goldman Sachs prognostiziert, dass generative KI künftig weltweit 300 Millionen Vollzeitarbeitsplätze ersetzen wird, weil sie "Inhalte generieren kann, die von menschlichem Output nicht zu unterscheiden sind". Bis es soweit ist, hat IBM-CEO Arvind Krishna einen Einstellungsstopp verhängt, weil KI-Chatbots 7.800 Mitarbeiter ersetzen könnten.
Einige Unternehmen warten gar mal nicht ab, um auf den KI-Zug aufzuspringen. So fand ResumeBuilder.com heraus, dass 25 Prozent der Firmenchefs bereits ChatGPT nutzen, um Mitarbeiter in ihren Unternehmen zu ersetzen... im Februar. Aber kein Grund zur Panik: Sogar der CEO von OpenAI, Sam Altman, hat gesagt, dass man sich nicht auf ChatGPT für "irgendetwas Wichtiges" verlassen sollte.
KI erfindet Sachen
Und in der Tat: ChatGPT ist auf den ersten Blick beeindruckend, aber je genauer man hinschaut, desto mehr stellt man fest, dass es nicht ganz so ist. Erstens: Es erfindet Sachen. Wussten Sie zum Beispiel, dass sich James Joyce und Vladimir Lenin 1916 in Zürich getroffen haben? Nein? Nun, das hat ChatGPT gesagt - aber es ist nie passiert.
Angenommen, Sie versuchen es mit der KI-gesteuerten Bing-Suche, dann verweist diese auf einen Artikel der New York Times, in dem erklärt wird, dass dieses Treffen nie stattgefunden hat. Es wird aber nur die "Behauptung" angegeben - ohne den Hinweis, dass es sich um eine Lüge oder, wie KI-Leute gerne sagen, um eine KI-Halluzination handelt.
Bei anderen falschen Antworten zitiert Bing manchmal erfundene Quellen für seine Antworten. Wenn Sie versuchen, sich zu ihnen durchzuklicken, erhalten Sie einen 404-Fehler. Laut einer neuen Studie der Stanford University stützen die Zitate, die Bing für seine Antworten angibt, in einem von vier Fällen nicht die Schlussfolgerungen.
Tatsache ist: Die Künstliche Intelligenz lügt Sie Tag und Nacht an, und wenn Sie nicht gerade ein Experte auf diesem Gebiet sind oder jede einzelne Antwort auf ihre Richtigkeit überprüfen wollen, werden Sie es nie erfahren.
Traue keiner KI
Man kann diesen KI-Maschinen nicht einmal dann trauen, wenn man sie mit den richtigen Informationen füttert. Mein Lieblingsbeispiel: Während einer Demo wurde die Bing-KI mit einem Finanzbericht von Gap Clothing für das dritte Quartal 2022 gefüttert und lag in weiten Teilen völlig falsch.
Laut Geschäftsbericht betrug die Bruttomarge des Unternehmens 37,4 Prozent, die bereinigte Bruttomarge ohne Berücksichtigung einer Wertminderung belief sich auf 38,7 Prozent. Daher lag Bing falsch, als es die Bruttomarge mit 37,4 Prozent angab, einschließlich der Berichtigungs- und Wertminderungskosten.
Wenn die KI nicht in der Lage ist, einen Finanzbericht korrekt zusammenzufassen, was ich fast im Schlaf könnte, wie kann man ihr dann etwas Wichtiges anvertrauen?
Ich habe ChatGPT in letzter Zeit häufig verwendet, um Berichte und Otter.AI-Transkripte zusammenzufassen. Leider erlebe ich jeden Tag, dass es diese Art von Fehlern macht. Selbst wenn ich ihm die Antworten gebe, versteht es sie falsch.
Es ist immer noch nützlich - aber denken Sie daran, dass ich mit dem Erkennen von Fehlern mein Geld verdiene. Andere Menschen tun das nicht. Stattdessen vertrauen sie blind darauf, dass die Dokumente, Memos und der Code - was auch immer sich der KI-Chatbot einfallen lässt - richtig sind. In diesem Stadium der Künstlichen Intelligenz ist dieser Glaube idiotisch.
ChatGPT und Co. machen gute Miene zum bösen Spiel. Sie klingen überzeugend. Aber sie sind nur so überzeugend, wie jemand mit Dunning-Kruger - der kognitiven Verzerrung, die dumme Menschen, pardon Menschen mit begrenzten Kenntnissen oder Kompetenzen in einem bestimmten intellektuellen oder sozialen Bereich, haben, wenn sie ihre Fähigkeiten oder ihr Wissen überschätzen - überzeugend ist. Sie hören sich an, als wüssten sie, wovon sie reden, aber sie ziehen die Antworten oft einfach aus der ... Luft. Und warum? Weil viel zu viele Menschen sich der Illusion hingeben, sie wüssten, wovon sie reden, und könnten ihre Antworten überprüfen.
Kaum mehr als ein smartes Autocomplete-Tool
Nein, ChatGPT und seinesgleichen sind einfach nur sehr fortschrittliche Maschinen zum automatischen Vervollständigen und Ausfüllen von Lücken. Ihre Antworten ergeben sich aus den Wörtern, die höchstwahrscheinlich als Nächstes auf eine beliebige Anfrage erscheinen werden. Wohlgemerkt, ich habe nicht gesagt, dass es sich um das richtige Wort handelt - nur um das, das statistisch gesehen am wahrscheinlichsten aus ihrem großen Sprachmodell (LLM) hervorgeht.
Wie Nick Kolakowski, Romanautor und leitender Redakteur bei Dice, twitterte: "Leute, die für KI-generierte Cover, Kurzgeschichten, Romane, Drehbücher und so weiter plädieren, sind durchweg unfähig, die eigentliche Arbeit zu leisten, die erforderlich ist, um diese Dinge selbst zu erstellen; sie sind Verlierer, die das Spielfeld nivellieren wollen, damit sie eine Chance haben."
CEOs und Wirtschaftsführer, die glauben, dass KI nach dem Ersatz von Mitarbeitern alles lösen wird, sind ebenfalls Verlierer. Sicherlich kann die KI, wenn sie sorgfältig eingesetzt wird, dazu beitragen, dass Ihre Mitarbeiter viel produktiver arbeiten, sei es am Helpdesk, in der Buchhaltung oder bei der Programmierung - aber sie ersetzen? Von diesem Tag sind wir noch weit entfernt.
Und je länger ich mit KI-Chatbots arbeite, desto mehr wird mir klar, dass sie erst in einigen Jahren bereit sein werden, Mitarbeiter zu ersetzen, wenn überhaupt. (mb)
Dieser Artikel basiert auf einem Beitrag der US-Schwesterpublikation Computerworld.com.