EU AI Act
Scheitert generative KI an der Regulierung?
Sebastian Bluhm ist Managing Partner bei PLAN D. Er ist ein Tech-Optimist, der Impulse gibt, wo strategische Vision und Data Science aufeinandertreffen. Die Entwicklung datengetriebener Geschäftsmodelle und Produkte ist sein Spezialgebiet. Besonders interessiert ihn dabei die nachhaltige Implementierung: Technologie und Strategie müssen langfristig Sinn ergeben. Der studierte Informatiker vereint technologische und strategische Expertise und hat jahrelange Erfahrung in der Leitung und Umsetzung von Technologieprojekten – vom Mittelständler bis zum multinationalen Konzern.
Kennen Sie die "Wo ist Walter"-Bücher? Auf den Bildern des britischen Zeichners Martin Handford herrscht stets ein großes Wirrwarr. Hunderte Menschen sind darauf zu sehen, sie rennen wild umher oder kämpfen miteinander, sie lachen und weinen, tanzen und stolpern. Kurzum: Es ist schrecklich viel los - und unmöglich, den Überblick zu behalten. Die Aufgabe ist es, auf diesen Wimmelbildern eine bestimmte Person zu finden. Nämlich Walter, der meist ungerührt vom ganzen Trubel seinen eigenen Weg geht.
Beim Anblick eines dieser Bilder musste ich kürzlich an die Auseinandersetzungen rund um die Nutzung und Regulierung generativer KI in der EU denken. Denn auch hier wird es zunehmend schwierig, den Überblick zu behalten.
Was wir heute mit Sicherheit sagen können, und was nicht
Bevor wir uns ins Getümmel werfen, beginnen wir mit dem, was wir mit Sicherheit wissen. Erstens: Das Potenzial generativer KI ist riesig. Foundation Models, insbesondere die der amerikanischen Tech-Konzerne, haben in den vergangenen Jahren große Fortschritte gemacht. Trainiert mit Milliarden von Datensätzen sind sie in der Lage, in immer mehr Bereichen Leistungen auf menschlichem Niveau zu erbringen.
Kein Wunder, dass viele Unternehmen prüfen, wie sie die großen Foundation Models, oft auch Large Language Models (LLM) genannt, in ihre Geschäftsmodelle integrieren können. Ob Fachkräftemangel oder effiziente Nutzung von Ressourcen: Die Hoffnung, die Fähigkeiten generativer KI zur Lösung drängender Probleme einsetzen zu können, ist groß.
Zweitens: Die KI-Regulierung kommt. Der EU AI Act, der aktuell im Europäischen Parlament diskutiert wird, soll künftig dafür sorgen, dass in der EU entwickelte beziehungsweise eingesetzte KI-Modelle den gesetzlichen Rahmenbedingungen und Werten der Europäischen Union entsprechen. Sie müssen Anforderungen an Sicherheit, DatenschutzDatenschutz und Transparenz genügen, dürfen bestehende Diskriminierungsmechanismen nicht weiter verstärken und sollen weder der Gesellschaft noch der Umwelt schaden. Alles zu Datenschutz auf CIO.de
Was wir bisher noch nicht wissen, ist, wie diese Dinge ineinander spielen und was am Ende dabei herauskommen wird. Wie wird sich die europäische Gesetzgebung auf die großen Foundation Models auswirken? Wird die Leistung der Modelle unter den strengen Regeln leiden? Könnten eventuell sogar europäische Anbieter von der Regulierung profitieren?
Wird mangelnde Transparenz zum Stolperstein für OpenAI und Co.?
Eine aktuelle Studie des Stanford Center for Research on Foundation Models scheint eine erste Antwort zu geben. Die Forschenden untersuchten, ob - Stand heute - zehn der bekanntesten LLMs den geplanten Anforderungen des EU AI Act entsprechen.
Das Ergebnis: Insbesondere an den Anforderungen in Sachen Transparenz drohen viele der beliebtesten Modelle zu scheitern. Das heißt im Klartext: Würde der AI Act morgen in Kraft treten, dürften sie in der EU in dieser Form womöglich nicht länger angeboten werden. Sechs der zehn betrachteten Modelle - darunter GPT-4 von OpenAI, PaLM 2 von Google und LLaMa von Facebook, aber auch das Modell Luminous des deutschen Start-ups Aleph Alpha - erzielten weniger als die Hälfte der maximal möglichen Punkte.