Datenlecks und Fehlinformationen vermeiden

So schützen Sie sich vor Schatten-KI



Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Der unerlaubte Einsatz von generativen KI-Tools kann Unternehmen erheblichen Risiken aussetzen. Das können Sie dagegen tun.
Um Schatten-KI zu vermeiden, sollten Unternehmen die (Nicht-)Nutzung durch Policies regeln und Maßnahmen gegen Datenabfluss ergreifen.
Um Schatten-KI zu vermeiden, sollten Unternehmen die (Nicht-)Nutzung durch Policies regeln und Maßnahmen gegen Datenabfluss ergreifen.
Foto: Ollyy - shutterstock.com

Die Versuchung ist groß, OpenAIs ChatGPT, Google Bard/Gemini oder ein anderes kostenloses GenAI-Tool für die Arbeit zu nutzen. Auch wenn das Ergebnis vielleicht noch nachbearbeitet werden muss, sind die Lösungen doch um Welten schneller, wenn es darum geht, E-Mails zu schreiben, Texte zu bearbeiten, Listen zu erstellen, Präsentationen vorzubereiten oder Code zu generieren.

Vorsicht vor Datenlecks

Der unerlaubte Einsatz solcher primär für Privatanwender gedachten KI-LösungenKI-Lösungen im geschäftlichen Umfeld ist jedoch aus verschiedenen Gründen nicht unproblematisch: Alles zu Künstliche Intelligenz auf CIO.de

Zum einen nutzen viele GenAI-Plattformen die von den Nutzern übermittelten Daten, um ihre Modelle zu trainieren. Damit besteht die Gefahr, dass auch sensible oder urheberrechtlich geschützte Daten, Quellcode oder Ähnliches öffentlich zugänglich werden.

Bereits im April 2023 hat beispielsweise Samsung seinen Mitarbeitern die Nutzung von ChatGPT untersagt, nachdem in drei verschiedenen Fällen versehentlich sensible Daten an die generative KI-Plattform übermittelt wurden, darunter auch vertraulicher Quellcode. Inzwischen sind zahlreiche weitere Großunternehmen dem Beispiel der Koreaner gefolgt.

Aus gutem Grund, denn wie Forscher von Google Ende 2023 in einem Research Paper zeigten, ist es möglich, ChatGPT mit wenigen Prompts zur Preisgabe privater Nutzerdaten zu bewegen. Sie konnten Namen, Telefonnummern und Adressen von Einzelpersonen und Unternehmen herausfinden, indem sie ChatGPT mit absurden Befehlen fütterten, die eine Fehlfunktion erzwangen.

Zwar hat OpenAI den Fehler bereits kurz darauf behoben, aber laut Security-Forscher Johann Rehberger, der die Schwachstelle ursprünglich entdeckt und beschrieben hat, gibt es nach wie vor klaffende Sicherheitslücken in der OpenAI-Lösung.

Und da die KI-Chatbots mit Open-Source- (oder geklauten) Daten trainiert werden, besteht eine nicht zu vernachlässigende Gefahr, dass die von ChatGPT & Co. generierten Codezeilen auch von Hackern eingeschleuste Malware enthalten.

Halluzinationen mit Folgen

Zudem ist mittlerweile bekannt, dass die Tools nicht immer das liefern, was man von ihnen erwartet. Während GenAI längere Texte relativ gut zusammenzufassen kann, hapert es beispielsweise bei der Generierung eigener Inhalte: Die KI-Werkzeuge halluzinieren, beziehen sich häufig auf fiktive Quellen und haben insbesondere eine Mathematik-Schwäche.

Damit ist die Gefahr groß, dass sich Nutzer von der Wortgewalt oder dem blitzschnell generierte Code der künstlichen Intelligenz beeindrucken lassen und die Ergebnisse ungeprüft übernehmen. Schädigt dies bei interner Verwendung "nur" die Reputation des Nutzers, kann bei eklatanten Fehlern in der Kommunikation nach außen unter Umständen das Image des gesamten Unternehmens Schaden nehmen.

Hinweis auf fehlende oder falsche Tools

Dabei ist die berufliche Nutzung von GenAI-Tools wie jede Art von Schatten IT grundsätzlich einmal positiv zu bewerten. Sie zeigt auf, dass die Anwender bestimmte Werkzeuge benötigen, um ihren Job einfacher, schneller oder effektiver erledigen zu können.

Ist der GenAI-Einsatz unter Einhaltung bestimmter (Datenschutz-)Richtlinien zulässig, können IT-Entscheider zumindest in Sachen Datenabfluss relativ schnell mit Business-tauglichen Lösungen Abhilfe schaffen, in diesem Fall also beispielsweise durch die Lizenzierung von Tools wie Microsoft Copilot für Windows 365, ChatGPT Team oder Enterprise.

Soweit die Theorie, bei Preisen von 20 Euro und mehr pro Nutzer und Monat für eine einzelne Lizenz kommt schnell eine größere Summe zusammen, für deren Genehmigung man echte Effizienzgewinne oder Kosteneinsparungen nachweisen muss. Ganz zu schweigen von dem dazugehörigen Training, um auch wirklich brauchbare Ergebnisse zu erzielen.

Aufklären statt nur verbieten

Apropos GenAI-Schulung: Im Jahr 2024 sollte sich eigentlich jedes Unternehmen mit mehr als zwei Computern bereits mit den Potenzialen der (generativen) künstlichen Intelligenz für das eigene Geschäft auseinandergesetzt haben. Dazu gehört unbedingt auch die Überlegung, inwieweit die Technologie in welcher Form und für welche Zwecke eingesetzt werden kann und - bei knappen Budgets - von wem.

Darauf aufbauend sollten entsprechende Richtlinien festgelegt werden, die den Beschäftigten (und dem Management) Hilfestellung für eine sichere und vernünftige Nutzung geben. Als wesentliche Bestandteile sollten festgelegt werden,

  • welche Mitarbeiter und Abteilungen generative KI-Modelle für ihre Arbeit nutzen dürfen;

  • welche Arbeitsschritte durch generative KI automatisiert oder verbessert werden können; sowie

  • auf welche internen Anwendungen und Daten diese Modelle in welcher Weise zugreifen dürfen.

Anschließend empfiehlt es sich, die Mitarbeiter durch Schulungen in die sichere und effektive Nutzung einzuweisen.

Da es sich bei GenAI um einen sehr dynamischen Markt handelt, ist es ratsam, die Policy auch bei Verwendung einer Business-konformen Plattform regelmäßig auf Wiedervorlage zu legen und zu überprüfen.

Vertrauen ist gut, Kontrolle ist besser …

Dennoch ist es ratsam, dass IT-Sicherheitsverantwortliche Maßnahmen ergreifen, um die unautorisierte Nutzung von GenAI zu entdecken und - noch wichtiger - den Abfluss sensibler Daten zu verhindern. Die gute Nachricht ist, dass sich generative KI-Plattformen nicht allzu sehr von anderen Zielen im Internet unterscheiden, vor denen sensible Daten geschützt werden müssen.

Da der Zugriff über den Browser erfolgt, ist das Aufspüren zwar nicht so einfach wie bei klassischer Schatten-ITSchatten-IT, also kostenlosen Tools, aber auch SaaS-Anwendungen wie Salesforce, die an der IT vorbei mit der Kreditkarte des Abteilungsleiters beschafft werden. Alles zu Schatten-IT auf CIO.de

Mit den richtigen Tools kann man jedoch zum Beispiel den Zugang zu diesen Plattformen blockieren (URL-Filtering) oder Benutzeraktionen wie das Hochladen und Versenden von sensiblen Daten auf diesen Plattformen unterbinden (Content Filtering).

Sinnvoll ist in diesem Zusammenhang (und generell) auch eine Klassifizierung der Daten. Will man Mitarbeitern die Nutzung von generativer KI nicht gänzlich verbieten, ermöglicht es dieser Schritt, geeignete Daten für bestimmte Anwendungsfälle auszuwählen und andere Informationen von den KI-Systemen fernzuhalten.

Auf diese Weise werden nicht nur die inhärenten Risiken des Einsatzes von GenAI minimiert, sondern das Unternehmen stellt gleichzeitig sicher, dass es und seine Mitarbeiter nicht durch allzu strenge Regeln den technologischen Anschluss verpassen. Denn jenseits des aktuellen Hypes sollte mittlerweile klar sein, dass es sich bei (generativer) KI nicht nur um einen kurzlebigen Trend handelt, sondern um eine Technologie mit dem enormen Disruptionspotenzial handelt.

Zur Startseite