Generative AI
4 Gründe, warum KI-Projekte in Schönheit sterben
Maria Korolov berichtet seit über zwanzig Jahren über aufstrebende Märkte und Technologien. Sie schreibt für die US-amerikanische IDG-Publikation CSO.
Beginnen wir mit einem Beispiel von der anderen Seite des Globus: Im Juni brachte die neuseeländische Supermarktkette Pak'n'Save den "Savey-Meal-Bot" auf den Markt. Es handelte sich um ein generatives KI-Toolgeneratives KI-Tool, mit dem Kunden eine individuelle Liste von Lebensmitteln hochladen konnten - zum Beispiel mit dem Inhalt ihres Kühlschranks. Der Bot sollte ihnen daraufhin Rezepte vorschlagen. Alles zu Generative AI auf CIO.de
Die Lösung wurde den Kunden als Möglichkeit angepriesen, nachhaltig zu wirtschaften und zu sparen: Die Menschen dort werfen jedes Jahr pro Kopf Lebensmittel für rund 1.500 neuseeländische Dollar weg. Pak'n'Save hatte eine Altersbeschränkung von 18 Jahren festgelegt und gewarnt, dass die Rezepte voll automatisch erzeugt und nicht von Menschen geprüft würden. Außerdem dürften ausschließlich Lebensmittel in den Chatbot eingegeben werden.
Geheimtipp des Bots: Reis mit Bleichmittel
Natürlich ging das Vorhaben schief, und das Unternehmen hatte plötzlich einen weltweiten Shitstorm am Hals. Der Meal-Bot hatte beispielsweise einem Nutzer als "überraschendes kulinarisches Abenteuer" vorgeschlagen, eine mit Bleichmittel versetzte "Reisüberraschung" zuzubereiten. Ein tödliches Chlorgas wurde als "aromatische Wassermischung" angegeben: Der Bot hatte es als "das perfekte alkoholfreie Getränk, um Ihren Durst zu löschen und Ihre Sinne zu erfrischen" angepriesen. Ein "mysteriöser Fleischeintopf" sollte der KI zufolge 500 Gramm gehacktes Menschenfleisch enthalten - der Meal-Bot schrieb von einem "köstlich herzhaften Gericht, das Sie mit seinen magischen Aromen überraschen wird".
Gut, dass niemand der KI vertraute: Es gibt zumindest keine Berichte über Kunden, die durch den Verzehr dieser Rezepte vergiftet wurden. Auch wurde das Tool inzwischen aktualisiert, so dass die Benutzer nur mehr aus einer begrenzten Anzahl von vollständig essbaren Zutaten wählen können. Unappetitliche Rezepte werden aber immer noch empfohlen.
5.000 Dollar Strafe für GenAI-generierte Gerichtsunterlagen
Dass Generative AI Risiken birgt, musste auch die Anwaltskanzlei Levidow, Levidow & Oberman P.C. erfahren. Dort reicherten zwei Anwälte Rechtsgutachten mit künstlich generierten Zitaten an, nachdem sie ChatGPT zum Schreiben ihrer Argumentation herangezogen hatten. Ein Richter verdonnerte die Kanzlei im Sommer zu einer Geldstrafe von 5.000 Dollar. Die Anwälte hätten künstlich erzeugte Rechtsgutachten eingereicht und seien damit ihrer Verantwortung nicht gerecht geworden, hieß es in der Begründung.
Bret Greenstein, Partner und Leiter der Go-to-Market-Strategie für generative KI bei PricewaterhouseCoopers, kennt solche Fälle. Sein Beratungshaus hat in letzter Zeit viele Unternehmen bei der Umsetzung von KI-Projekten unterstützt. Er stellt fest, dass vor allem bei GenAI-Vorhaben manches schiefläuft: "Generative KI reicht viel weiter als traditionelle KI oder maschinelles Lernen (ML)", sagt Greenstein. Die "Möglichkeiten, Katastrophen anzurichten", würden durch die neue AI-Generation deutlich zunehmen.
Folgende vier Faktoren sind häufig die Ursache für das Scheitern von Generative-AI-Vorhaben:
1. Schlechte Governance lässt Generative-AI-Projekte scheitern
Wenn GenAI-Projekte ohne ausreichende Steuerung und Aufsicht verfolgt werden, steigen die Risiken. Der Bot von Pak'nSave ist ein prominentes Beispiel dafür, doch viele Unternehmen machen vergleichbare Fehler. So weiß Greenstein von einem mittelgroßen Finanzinstitut zu berichten, das Im Frühjahr 2023 GenAI auf Basis einer privaten Cloud-Instanz eines kommerziellen KI-Tools implementiert hat. "Sie stellten die API zur Verfügung, damit die Anwender ihre eigenen Anwendungen erstellen konnten", so der Berater. Als erstes sei ein HR-Chatbot entwickelt worden, der Empfehlungen zur Bereitstellung von Benefits geben sollte.
Tatsächlich setzte sich das Unternehmen damit unbewusst massiven Haftungsrisiken aus. Manchmal empfahl das Tool die falsche Option - mit der Folge, dass der betreffende Mitarbeiter ein ganzes Jahr lang überhaupt keine Benefits erhielt. Die Betroffenen ärgerten sich zwar, aber sie gingen davon aus, dass das HR-Tool schon korrekt arbeiten würde.
Greenstein hält es für einen Fehler, wenn Unternehmen einfach den KI-Zugang über eine API öffnen und ihre Mitarbeitenden dann einfach machen lassen. Seiner Ansicht nach bedarf es eines durchdachten, diszipliniert verfolgten Ansatzes mit einer ausreichenden Governance. "Es gibt professionelle Wege, um generative KI zu entwickeln. Man muss die Genauigkeit bewerten und mit Verzerrungen oder Halluzinationen umzugehen lernen. Und man braucht jemanden, der sicherstellt, dass alles richtig gemacht wird", fügt er hinzu.
Sie interessieren sich für KI-Governance? Dann lesen Sie auch:
Das Unternehmen ließ den Chatbot etwa einen Monat laufen. Das Feedback war nicht gut. Glücklicherweise erkannten die Verantwortlichen den Fehler, so dass die Beschäftigten nicht ernsthaft geschädigt wurden. Allerdings war das Vertrauen in die Führungsetage erst einmal getrübt. Trotzdem will man dort die Nutzung von GenAI weiterverfolgen: Zu groß sei das Risiko, eine Chance zu verpassen und hinter den Wettbewerb zurückzufallen.
Einer im Juli veröffentlichten Umfrage der AI Infrastructure Alliance (AIIA) zufolge, an der mehr als 1.000 Führungskräfte großer Unternehmen teilnahmen, haben 54 Prozent aufgrund von Versäumnissen bei der Governance von KI- oder ML-Anwendungen Verluste erlitten. Aus dieser Gruppe gaben sogar 63 Prozent an, dass sie Einbußen von mehr als 50 Millionen US-Dollar verkraften mussten.
2. Kostenexplosion - bei Generative AI nicht ungewöhnlich
Chatbots wie ChatGPT sind bekanntlich in der Basisversion kostenlos. Mit ein wenig Experimentierfreude ist es nicht schwierig und außerdem billig, Anwendungsfälle zu identifizieren, mit denen sich geschäftliche Vorteile erzielen lassen. Doch wenn Unternehmen solche Pilotprojekte skalieren, werden die Kosten, die ein größerer Roll-out verursachen kann, oft unterschätzt.
Rob Lee, Chief Curriculum Director am SANS Institute, gibt zu bedenken, dass es oft an Erfahrung im Umgang mit Gen-AI in größerem Maßstab fehle. Das gelte auch, wenn ein Unternehmen einen externen Anbieter mit einem Projekt beauftrage. "Wenn Sie so etwas schon einmal gemacht haben und die Kosten genau vorhersagen können, sind Sie im Moment sehr gefragt", sagt Lee.
Wird KI beispielsweise über die Cloud bereitgestellt, wachsen die Kosten mit jedem API-Aufruf. Dabei lässt sich das Nutzungsverhalten oft nur schwer vorhersagen. Lee warnt davor, das Verhalten der Anwender im Umgang mit ihren bisherigen Systemen eins zu eins auf die GenAI-Welt zu übertragen: "In Wirklichkeit weiß niemand, wie die Menschen die neue KI-Lösung nutzen werden."
Hinzu kämen schwer kalkulierbare Übergangskosten. Lee wählt den Vergleich eines Immobilienkaufs: "Wenn Sie ein neues Haus erwerben wollen, müssen Sie Ihr vorhandenes Haus möglicherweise verkaufen. Gelingt das nicht schnell genug, müssen Sie zwei Häuser gleichzeitig finanzieren." Das gelte auch für die IT: Anwender sollten sich fragen, ob sie es sich leisten können, wenn eine Umstellung länger dauert als geplant. Bei der KI handele es sich um eine neue, schwer kalkulierbare Technik.
Ein Kostenfaktor sei auch die Größe des Datensatzes: "Ich muss für den Storage und die Abrufe zahlen. Für bestimmte Anwendungen müssen Konzerne zudem weltweit mehrere Speicherlokationen sowie Backups bereitstellen." Die Kosten von GenAI-Vorhaben sind also nicht zu unterschätzen: Laut der AIIA-Umfrage sind sie in vielen Unternehmen das zweitgrößte Hindernis für die Einführung von KI in großem Stil.