Jetzt mal ehrlich: Wer hält sich denn immer an die Geschwindigkeitsbegrenzung? Ich gebe zu, dass ich manchmal in dieser Hinsicht versage. Es gibt ein Sprichwort, wonach Regeln dazu da sind, gebrochen zu werden. Aber ich glaube nicht, dass das wirklich stimmt. Grundsätzlich sind Regeln dazu gedacht, befolgt zu werden. Wir nehmen halt manchmal eine Abkürzung, wenn wir schnell etwas erreichen müssen und uns eine Option angeboten wird.
Wie es aussieht, bin ich nicht allein. Trotz zahlreicher Berichte über Unternehmen, die die Nutzung generativer KI am Arbeitsplatz einschränken, scheinen die Mitarbeiter sie relativ häufig zu nutzen. Eine von Dell durchgeführte Studie zeigt, dass 91 Prozent der Befragten in ihrem Leben in irgendeiner Form mit generativer KI zu tun hatten, und weitere 71 Prozent gaben an, dass sie künstliche Intelligenzen speziell am Arbeitsplatz eingesetzt haben.
Ähnlich wie die Schatten-IT scheint sich auch die Schatten-KI etabliert zu haben - und das, während viele Unternehmen noch herausfinden, wie sie generative KI nutzen können und wie sie sich dabei verhalten sollten. Das Thema muss in allen Organisationen ganz oben auf der Agenda stehen, denn einerseits können die Kosten eines Fehlers astronomisch werden, und andererseits kann man dieses neue GenAI-Zeitalter nicht aussitzen.
Erst Schatten-IT, dann Schatten-KI
Mit dem Aufkommen der Public Cloud zog die Ära der Schatten-IT auf, in der es hieß: "Kreditkarte einstecken und loslegen." Fachabteilungen, die schnell handeln wollten, nutzten die freien Budgets und bestellten As-a-Service-Angebote, so dass sie nicht mehr auf die IT-Abteilung warten mussten. Das Ergebnis war eine Welle der Innovation sowie die Möglichkeit, Ideen schnell umzusetzen, sie zu testen und dann zu skalieren.
Über den Ad-hoc-Charakter solcher Implementierungen und die Verlagerung hin zu zentralisierten Cloud-Strategien einschließlich Rightsizing ist schon viel geschrieben worden. Ich möchte mich jedoch auf die unbeabsichtigten Folgen der Einführung von Public Clouds konzentrieren, die mehrere Wellen von Datenverlusten und Enthüllungen ausgelöst haben. Ich spreche davon, dass die öffentliche Cloud standardmäßig offen ist, und Entwickler, die mit der Architektur nicht vertraut sind, beispielsweise S3-Buckets von AWS im Internet offenlassen.
Public Cloud und Sicherheit
An Beispielen mangelt es uns nicht - eine einfache Google-Suche ergibt eine Menge Treffer. Diese öffentlich gemachten Versäumnisse führen zu einem Vertrauensverlust in die Marke, zu behördlicher Kontrolle und Strafen, zu Verletzungen der Privatsphäre und zu einer Vielzahl anderer finanzieller und gesellschaftlicher Auswirkungen. Nach einer steilen Lernkurve haben glücklicherweise Sicherheits-Tools, die zunehmende Vertrautheit mit Cloud-Modellen und Anpassungen der Cloud-Angebote das Auftreten dieser Probleme allmählich verringert.
Aus der Geschichte lernen
Schatten-KI jedoch hat das Potenzial, die Schatten-IT zu überflügeln. Sie fragen sich, warum das so ist? Bei der Schatten-IT waren Ihre Entwickler die Fehlerquellen; bei der generativen KI hat jeder Benutzer die Chance, Fehler zu begehen. Das bedeutet, dass sich Organisationen darauf verlassen müssen, dass jeder von den Administratoren bis zu den Führungskräften bei jedem Einsatz von Generative AI die richtige Entscheidung trifft. Dies erfordert ein hohes Maß an Vertrauen, zwingt Ihre Benutzer aber auch dazu, sich selbst zu verwalten.
Zu dieser Komplexität kommt hinzu, dass die Funktionsweise generativer KI ein doppeltes Risiko mit sich bringt, was die Chancen für Fehltritte weiter erhöht. Denn anders als bei IaaS, wo Unternehmen die Sicherheitsschlüssel halten, lernt AI as a Service (AIaaS) standardmäßig von Ihren Daten. Heute bieten zwar Provider privat gehostete Versionen mit Richtlinien an, die dieses Lernrisiko verringern, aber es besteht immer noch das Problem des Zugriffs.
Eine KI, viele Herausforderungen
Um die Sicherheit zu gewährleisten und dafür zu sorgen, dass die KI nicht kompromittiert wird, behalten sich die Anbieter das Recht vor, die Eingabeaufforderungen, den Code und die Ergebnisse zu überprüfen. Mit der Folge, dass die Daten an einem Ort gespeichert sind, auf den eine Regierung möglicherweise zugreifen kann. Der zweite Teil des Risikos ist einzigartig für GenAI: Im Gegensatz zu offenen S3-Buckets im Internet, deren Schadenspotenzial in der Regel limitiert war, können Angreifer mit GenAI größere Datenmengen analysieren: Die Chance, eine Perle zu finden, wächst.
Was steht auf dem Spiel?
Von der Privatsphäre der Kundendaten bis zum geistigen Eigentum ist alles in Gefahr. Eines der besten Beispiele, das mir einfällt, ist das streng gehütete Geschäftsgeheimnis von Coca-Cola. Vor etwa 15 Jahren wurden Pepsi vertrauliche Daten über die Rezeptur von Coca-Cola angeboten, und das Unternehmen hat das Richtige getan: Es hat die Diebe an das FBI verraten. Was würde passieren, wenn die Daten durch ein öffentliches GenAI-Programm laufen würden oder wenn sie in einer privaten Instanz platziert würden, wo autorisiertes Personal den vertrauenswürdigen Zugang missbraucht? Würde das Geschäftsgeheimnis geheim bleiben?
Jedes Unternehmen steckt voller Geschäftsgeheimnisse und vertraulicher privater Daten. Die meisten von uns haben irgendwann einmal ein NDA oder ein Wettbewerbsverbot unterzeichnet. Anwälte entwerfen Vereinbarungen, um geistiges Eigentum durch eine Vielzahl lokaler Schutzklassen abzusichern. Damit will ich nicht sagen, dass man diesen Maßnahmen nicht vertrauen kann, im Gegenteil. Aber die rechtliche Verantwortung für die passenden Richtlinien zum Schutz Ihrer Daten liegt bei Ihrem Unternehmen.
Drei Ansätze zum Schutz vor KI-Risiken
Zunächst müssen Sie eine zentrale Strategie und eine entsprechende Governance ausarbeiten. Generative KI ist eine Initiative, die das ganze Unternehmen tangiert, und daher sollte das Thema auf Führungsebene angesiedelt sein. Die Geschäftsleitung muss aktiv an der Definition der Anwendungsfälle mitwirken und mit der IT-Abteilung zusammenarbeiten, um einen sicheren Zugang zu schaffen und den Schutz der Daten zu gewährleisten.
Die gute Nachricht ist: Die Zentralisierung des Prozesses und des Zugriffs auf diese Technologien wird die Durchsetzung und die Skalierung der KI im gesamten Unternehmen wesentlich erleichtern. Aber es kostet auch Zeit und Mühe. Daher ist es wichtig, ein paar schnelle Erfolge für das Unternehmen zu erzielen, um die Initiative voranzutreiben. Oft orientieren sich diese Anwendungsfälle an sichereren Formen der KI und an solchen, die keine Gefahr für kritische Daten darstellen.
Klassifizierung von Daten und Anwendungsfällen
Wenn Sie wissen, was geschützt werden muss, können Sie einen Großteil der Bedrohungen ausschalten. Daten sind das große Unterscheidungsmerkmal, und wenn das Datenökosystem gesund ist, sind Sie in einer viel besseren Verfassung. Verstehen und teilen Sie praktische Hinweise zu Daten, die niemals in ein öffentliches oder gehostetes privates Cloud-KI-Angebot aufgenommen werden sollten.
Beispiele hierfür sind Geschäftsgeheimnisse, sensible Prozesse sowie Informationen, die noch unter NDA fallen, also etwa Markteinführungen, Sitzungsprotokolle, persönlich identifizierbare Kundendaten und mehr. Für diese Art von Daten sollten Sie KI-Lösungen verwenden, bei denen Sie die vollständige Kontrolle behalten (also On-Premises-Implementierungen). Oder KI-Lösungen, bei denen keine Gesprächsprotokolle geführt werden, der Host keinen Zugriff auf Ihre Abfragen hat und die Maschinen nicht auf Ihre Nutzung trainiert werden.
Bringen Sie KI zu Ihren Daten
KI könnte sich zum größten Treiber in Diskussionen über die richtige Dimensionierung der Cloud und die Rückführung von Workloads in das Unternehmen entwickeln. Wenn Sie den Service kontrollieren und die KI zu den Daten bringen, ergeben sich zahlreiche Vorteile gegenüber gehosteten KI-Varianten. Zudem ist dies auch der einfachste Weg zu einer besseren Governance, Mitarbeiterproduktivität und einem sicheren Datenzugriff in Ihrem Unternehmen.
Wie bei den meisten Sicherheitsdiskussionen lohnt es sich, die Erfahrungen der Anwender zu berücksichtigen und sicherzustellen, dass sie trotz Compliance-Vorgaben von der KI begeistert sind. Die Benutzer werden es lieben, nicht mehr hinterfragen zu müssen, was sie in eine unternehmenseigene KI eingeben - sie werden sich schneller, freier, in mehr Use Cases und mit mehr Kreativität bewegen. Und IT-Manager müssen sich keine Gedanken über Angriffsflächen und Risiken machen, die sie nicht sehen können.