Generative KI-Modelle wie ChatGPT sind in den Augen mancher so schockierend gut, dass sie dem Glauben erliegen, sie seien dem Menschen längst überlegen. Dabei fangen wir alle gerade erst an zu entdecken, was Generative AI leisten kann.
Allerdings gilt das auch für diejenigen unter uns, die entweder nichts Gutes im Sinn haben (beispielsweise kriminelle Hacker) oder es ganz gezielt darauf anlegen, ChatGPT und Co. an ihre Grenzen zu bringen, beziehungsweise den Bots gezielt falsche, moralisch bedenkliche oder beleidigende Informationen zu entlocken. Dieser Artikel beleuchtet zehn - mitunter beängstigende - Schattenseiten von Generative AI.
1. Plagiatskultur
Wenn generative KI-Modelle wie DALL-E und ChatGPT etwas erschaffen, erstellen sie eigentlich nur neue Muster aus den Millionen von Beispielen in ihren Trainingssätzen. Das Ergebnis ist eine Copy-Paste-Synthese der Inhalte verschiedenster Quellen. Ein Mensch, der sich dieser Vorgehensweise bedient, macht sich des Plagiarismus schuldig.
Im Fall der Generative-AI-Tools sind die Quellen dabei manchmal klar erkennbar, andere Male aber so stark vermischt, dass das fast unmöglich ist. Was den KI-generierten Inhalten dabei in jedem Fall fehlt, ist die Einzigartigkeit. So toll ChatGPT, DALL-E und wie sie alle heißen auch scheinen mögen - sie sind nicht in der Lage, etwas wirklich Neues zu produzieren.
2. Urheberrechtsprobleme
Während Plagiate in der Praxis wohl vor allem ein Thema für (manche) Bildungseinrichtungen sein dürften, sieht es beim Urheberrecht schon anders aus. Klaut ein Mensch das geistige Eigentum eines anderen, riskiert er, vor ein Gericht gestellt zu werden. Aber wie sieht das im Fall von künstlicher Intelligenz aus? Gelten für Maschinen die gleichen Regeln?
Es wird noch Jahre dauern, bis Fragen wie diese - und der Status von Generative AI im Allgemeinen - abschließend rechtlich geklärt werden können.
3. Unentgeltliche Nutzerbeiträge
Plagiatskultur und urheberrechtliches Unheil sind nicht die einzigen rechtlichen Unwägbarkeiten, die durch generative KI-Modelle aufgeworfen werden. Und zahlreiche Juristen auf der ganzen Welt beschäftigen sich bereits mit diversen ethischen Fragen in Zusammenhang mit künstlicher Intelligenz, die künftig zu Rechtsstreitigkeiten führen werden.
Dazu könnte beispielsweise die Frage gehören, ob Unternehmen die (kreativen) Daten ihrer menschlichen Nutzer dazu verwenden dürfen, KI-Modelle zu trainieren. Sollten die Nutzer in so einem Fall für ihren Beitrag bezahlt werden? Der Erfolg der aktuellen Generative-AI-Generation fußt im Wesentlichen auf dem Zugang zu Daten. Dass die Menschen, die diese generieren, künftig ein Stück vom Kuchen abhaben wollen, ist nicht unwahrscheinlich.
4. Informationen ungleich Wissen
KI-Instanzen sind besonders gut darin, die Art von Intelligenz zu imitieren, für deren Entwicklung Menschen Jahre brauchen. Wenn ein Mensch in der Lage ist, einen detaillierten Vortrag über einen obskuren Künstler aus dem 17. Jahrhundert zu halten oder neue Musik in einer fast vergessenen Tonstruktur der Renaissance zu schreiben, sind wir aus gutem Grund beeindruckt: Uns ist bewusst, dass es Jahre bedurfte, um das dafür notwendige Knowhow zu entwickeln. Wenn eine künstliche Intelligenz nach wenigen Monaten des Trainings dieselben Dinge erledigt, sind die Ergebnisse möglicherweise verblüffend präzise und korrekt - aber es fehlt etwas.
KI mag den Anschein erwecken, die spielerische und unvorhersehbare Seite der menschlichen Kreativität zu imitieren, ist dazu aber nicht wirklich in der Lage. Das Unvorhersehbare ist jedoch der Motor für kreative Innovation. Manche Branchen - etwa Fashion - werden durch kontinuierliche, unvorhersehbare Veränderungen definiert. Künstliche Intelligenz hat ihren Platz - ebenso wie die menschliche.
5. Intellektuelle Stagnation
Apropos Intelligenz: KIs funktionieren von Natur aus mechanisch und regelbasiert: Sobald eine Instanz einen Satz von Trainingsdaten durchforstet hat, erstellt sie ein Modell - das sich anschließend nicht mehr wirklich verändert. Einige Ingenieure und Datenwissenschaftler erliegen zwar der Vorstellung, KI-Modelle im Laufe der Zeit schrittweise "umtrainieren" zu können, damit die Maschinen lernen, sich anzupassen. In der Praxis geht es in den meisten Fällen jedoch darum, spezifisches Wissen fest einzukodieren. Diese Beständigkeit kann für bestimmte Zwecke beziehungsweise Branchen sinnvoll sein und hat insofern auch ihre Berechtigung. Die Gefahr mit Blick auf die KI: Sie könnte dauerhaft im Zeitgeist ihrer Trainingsdaten verharren.
Die große Frage ist: Was passiert, wenn wir so abhängig von Generative AI werden, dass wir kein neues Material mehr für die Trainingsmodelle produzieren können?
6. Datenschutz & Security
Die Trainingsdaten für KI-Modelle fallen nicht aus dem Himmel, sondern müssen aggregiert werden. Dabei können auch Daten in den neuronalen Netzwerken hängenbleiben, die das nicht sollten - persönliche Informationen zum Beispiel.
Erschwerend kommt hinzu, dass es wegen ihrer flexiblen Natur komplex ist, den Datenbankzugriff für KI-Systeme zu sperren. Eine relationale Datenbank kann den Zugriff auf eine bestimmte Tabelle mit persönlichen Daten beschränken. Eine KI kann jedoch auf Dutzende von verschiedenen Arten abgefragt werden. Angreifer dürften schnell lernen, wie sie die richtigen Fragen auf die richtige Weise stellen, um an sensible Daten zu gelangen. Einer KI Datenschutz beizubringen, ist etwas, das wir noch nicht verstehen.
Davon abgesehen machen sich kriminelle Hacker Generative-AI-Tools bereits für diverse Zwecke zunutze, wie zum Beispiel ein Blogbeitrag von Check Point Research aufzeigt.
7. Unerkannter Bias
Dass Verzerrungen und Bias in KI-Modellen ein Problem sind, ist nichts Neues. Schon die ersten Mainframe-Entwickler erkannten den Kern des Problems, als sie das Akronym GIGO ("Garbage in, garbage out") prägten. Viele KI-Probleme sind auf unzureichende Trainingsdaten zurückzuführen: Wenn die Datensätze inakkurat oder mit Bias behaftet sind, spiegelt sich das in den Ergebnissen wider.
Die Hardware, der Kern der generativen KI, mag logisch funktionieren - seine menschlichen Erschaffer allerdings nicht. Vielleicht hat jemand bei der Modellerstellung den Bias hineingebracht, vielleicht wurden auch Überschreibungen hinzugefügt, um das Modell daran zu hindern, auf bestimmte brisante Fragen zu antworten. Der Mensch hat viele Wege gefunden, um sicherzustellen, die künstliche Intelligenz zu einem vorzüglichen Vehikel für schädliche und destruktive Überzeugungen zu machen.
8. Maschinendummheit
KI-Modellen Fehler zu verzeihen, fällt wegen ihrer Vorzüge allzu leicht. Allerdings sind diese Fehler in vielen Fällen schwer vorherzusehen, weil KIs anders "denken" als Menschen. Viele User von Text-to-Image-Tools haben zum Beispiel festgestellt, dass Künstliche Intelligenz ganz simple Dinge nicht richtig kann, etwa zu zählen.
Im Gegensatz zum Menschen neigt die aktuelle KI-Generation dazu, bei der abstrakten und kontextbezogenen Anwendung von Mathematik zu versagen. Das könnte sich künftig ändern, wenn die Modellarchitekten diesem Versäumnis etwas Aufmerksamkeit widmen. Es ist allerdings damit zu rechnen, dass weitere Versäumnisse folgen werden. Die maschinelle Intelligenz unterscheidet sich von der menschlichen - ebenso verhält es sich mit der Dummheit.
9. Menschliche Leichtgläubigkeit
Wenn eine Behauptung mit Zuversicht aufgestellt wird, neigt der menschliche Verstand dazu, sie als wahr und richtig zu akzeptieren. Gibt die KI aus, dass Heinrich VIII. seine Ehefrauen getötet hat, stellen viele User das gar nicht erst in Frage. Sie gehen davon aus, dass die KI richtig liegt.
Ein wesentliches Problem für die Nutzer von Generative-AI-Tools besteht folglich darin, zu erkennen, wann die KI falsch liegt. Maschineninstanzen lügen nicht wie Menschen, was sie allerdings nur noch gefährlicher macht: Sie können seitenweise völlig korrekte Daten ausgeben, nur um plötzlich in Unsinn, Spekulationen oder gar Verschwörungstheorien abzuschweifen.
10. Unendliche Fülle
Digitale Inhalte sind unendlich reproduzierbar. Das hat schon einige Geschäftsmodelle, die auf Verknappung aufbauten, erschüttert. Generative AI wird diese Entwicklung noch verstärken. Sie hat auch das Potenzial, Kreativarbeiter in einigen Bereichen zu verdrängen. Daraus ergeben sich für die Zukunft diverse Fragen. Etwa:
Werden werbegestützte Inhalte noch funktionieren, wenn sie endlos neu kombiniert werden können?
Wird sich der freie Teil des Internets in ein Bot-Moloch mit unendlich reproduzierbaren Inhalten verwandeln?
Wenn Kunst zu stets reproduzierbarer Massenware wird, wird sie dann noch als etwas Besonderes respektiert werden?
Könnte alles an Wert verlieren, wenn es als selbstverständlich angesehen wird?
Wir haben bewusst davon abgesehen, ChatGPT oder Bard diese Fragen zu stellen. (fm)
Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.