EU AI Act
Scheitert generative KI an der Regulierung?
Sebastian Bluhm ist Managing Partner bei PLAN D. Er ist ein Tech-Optimist, der Impulse gibt, wo strategische Vision und Data Science aufeinandertreffen. Die Entwicklung datengetriebener Geschäftsmodelle und Produkte ist sein Spezialgebiet. Besonders interessiert ihn dabei die nachhaltige Implementierung: Technologie und Strategie müssen langfristig Sinn ergeben. Der studierte Informatiker vereint technologische und strategische Expertise und hat jahrelange Erfahrung in der Leitung und Umsetzung von Technologieprojekten – vom Mittelständler bis zum multinationalen Konzern.
CIOs sollten deshalb alles daran setzen, ihre unternehmerischen Spielräume zu erhalten. Es gilt eine flexible Strategie zu finden, mit der sie ihrem Unternehmen die größtmögliche Unabhängigkeit bewahren - vom Ausgang des Gesetzgebungsverfahrens genauso wie von den großen amerikanischen Tech-Konzernen.
Generative AI: So reduzieren Sie Risiken und Abhängigkeiten
Hierfür gibt es verschiedene Möglichkeiten. Wer sich für die Nutzung eines Large Language Models im Rahmen eigener Anwendungen entscheidet, kann zum Beispiel eine Abstraktionsschicht zwischen die eigenen Systeme und das Sprachmodell schalten (beispielsweise mit Frameworks wie Langchain oder Haystack). Diese ermöglicht es, das Modell bei Bedarf auszutauschen, ohne den kompletten Code umschreiben zu müssen.
Darüber hinaus sollten Unternehmen einen möglichst großen Teil der Wertschöpfung innerhalb der eigenen Infrastruktur abbilden. Nehmen wir beispielsweise an, Sie möchten einen ChatbotChatbot für Ihren Kundensupport aufbauen. Die Antworten des Bots basieren auf dem Fachwissen Ihres Unternehmens, das Sie mithilfe von Semantic Search und Information Retrieval intern aufbereiten können und sollten. Alles zu Chatbot auf CIO.de
Wenn es aber darum geht, die Antworten eloquent auszuformulieren, ist es sinnvoll, eines der großen Sprachmodelle hinzuzuziehen. Es sei denn, man hat genügend Zeit und Ressourcen, ein eigenes, performantes LLM zu bauen - was bei vielen Unternehmen eher unwahrscheinlich ist. Durch diese klare Aufgabenverteilung zwischen eigenen und externen Systemen stellen Sie sicher, dass dem Foundation Model eine möglichst kleine und austauschbare Rolle zukommt.
Auf Ebene des Datenschutzes wiederum ist meine Empfehlung, immer auf größtmögliche Sicherheit zu setzen. Diese Haltung sehe ich auch bei unseren Kunden. Personenbezogene und andere unternehmensinterne Daten möchte niemand teilen - unabhängig von der aktuellen Gesetzeslage.
Auch hierfür gibt es technische Lösungen, etwa die Bereitstellung zweier verschiedener Subnetze: Die Verarbeitung personenbezogener Daten findet dann in Bereichen statt, die von außen gar nicht erreichbar sind. Und das externe Modell hat nur Zugriff auf die anonymisierten Daten im anderen Subnetz.
KI ist nicht gleich ChatGPT
Zuletzt möchte ich noch erwähnen, dass künstliche Intelligenz und ChatGPT nicht gleichzusetzen sind. CIOs wissen das. Und doch hatte ich im vergangenen Jahr gelegentlich den Eindruck, dass diese Tatsache in Vergessenheit geraten ist. Wenn Sie in Ihrem Unternehmen also den Einsatz von KI planen, sollten Sie zunächst genau prüfen, welche Probleme Sie lösen möchten und welche Technologien hierfür infrage kommen.
Wenn Sie sich dann nach ausgiebiger Prüfung für den Einsatz eines großen Sprachmodells entschieden haben, können Sie die oben beschrieben technischen Vorkehrungen treffen, um Risiken und Abhängigkeiten weitestmöglich zu reduzieren.
Und dann? Dann können Sie wie Walter durch das Wimmelbild der KI-Regulierung spazieren und ganz entspannt Ihrem eigenen Weg folgen. (wh)