KI-Praxis

CIOs üben den Umgang mit Generative AI



Maria Korolov berichtet seit über zwanzig Jahren über aufstrebende Märkte und Technologien. Sie schreibt für die US-amerikanische IDG-Publikation CSO.

"Der Wert liegt in der Verwendung bestehender Modelle und dem Bereitstellen eigener Daten", sagt CTO McCurdy. "Darin besteht die eigentliche InnovationInnovation und Produktivität." Der Ansatz sei funktional gleichbedeutend mit dem Einfügen von Dokumenten in ChatGPT, damit es diese analysiert, bevor es Fragen beantwortet - mit dem Unterschied, dass die Dokumente nicht jedes Mal neu eingefügt werden müssen. Insight hat zum Beispiel alle jemals geschriebenen Whitepaper und alle Transkripte von Interviews in eine Vektordatenbank geladen, auf die sich die generative KI beziehen kann. Alles zu Innovation auf CIO.de

Wie sichern wir Daten, Kunden und Mitarbeiter ab?

Einem PWC-Bericht zufolge geben fast alle Führungskräfte an, dass ihr Unternehmen in nächster Zeit mindestens eine Initiative im Zusammenhang mit KI-Systemen priorisiert. Aber nur 35 Prozent der Manager stimmen zu, dass sich ihr Unternehmen in den nächsten zwölf Monaten auf die Verbesserung der Governance von KI-Systemen konzentrieren wird, und lediglich jeder Dritte Risikoexperte ist derzeit in der Planungs- und Strategiephase von Anwendungen generativer KI beteiligt.

CIO Skinner von SmileDirectClub beispielsweise schaut sich Plattformen wie ChatGPT wegen der potenziellen Produktivitätsvorteile an, zeigt sich aber besorgt über die Risiken in Bezug auf Daten und DatenschutzDatenschutz. "Es ist wichtig zu verstehen, wie die Daten geschützt werden, bevor man sich darauf einlässt", sagt er. Das Unternehmen wird demnächst eine interne Kommunikations- und Aufklärungskampagne für die Mitarbeiter starten. "Sie müssen in Ihrem Unternehmen Sicherheitsrichtlinien aufstellen, die ihre Teammitglieder kennen", sagt er. "Im Moment lautet unsere Richtlinie, dass man keine Kundendaten auf diese Plattformen hochladen darf." Alles zu Datenschutz auf CIO.de

Laut Matt Barrington, Leiter für Emerging Technologies bei Ernst & Young Americas, ist etwa die Hälfte seiner Gesprächspartner aus Unternehmen angesichts potenzieller Risiken besorgt. Sie blockierten ChatGPT und ähnliche Plattformen komplett, "solange sie sie nicht verstehen können". In diesen Organisationen würde ChatGPT von vielen Menschen jedoch immer noch genutzt, fügt er hinzu. "Der Zug ist abgefahren - die Macht dieser KI-Tools ist so groß, dass sie schwer zu kontrollieren ist. Es ist wie in den frühen Tagen des Cloud Computing."

Wie können wir uns vor Verzerrungen schützen?

Der Umgang mit Voreingenommenheit ("Bias") ist in herkömmlichen maschinellen Lernsystemen, bei denen ein Unternehmen mit einem klar definierten Datensatz arbeitet, schwierig genug. Bei großen Basismodellen, wie sie für die Code-, Text- oder Bilderzeugung verwendet werden, kann der Trainingsdatensatz jedoch völlig unbekannt sein. Darüber hinaus ist die Art und Weise, wie die Modelle lernen, meist intransparent - selbst Forscher, die sie entwickelt haben, verstehen nicht vollständig, wie das Ganze abläuft. Dies bereitet vor allem den Regulierungsbehörden große Sorgen.

"Die Europäische Union ist Vorreiter", sagt Barrington von EY. "Sie hat ein KI-Gesetz vorgeschlagen, und Sam Altman von OpenAI fordert strenge Vorschriften. Da kommt noch viel auf uns zu." Und Altman ist nicht der Einzige. Laut einer Umfrage der Boston Consulting Group befürworten 79 Prozent der befragten Führungskräfte eine Regulierung von KI. Je sensibler die gesammelten Daten sind, so Barrington, desto vorsichtiger müssten die Unternehmen sein. "Wir sind optimistisch bei den Auswirkungen von KI auf die Wirtschaft, aber ebenso vorsichtig, was eine verantwortungsvolle und ethische Implementierung angeht", sagt er. Der verantwortungsvolle Einsatz von KI sei künftig ein erfolgsentscheidender Faktor.

Mit wem können wir zusammenarbeiten?

Für die meisten Unternehmen werde der effektivste Einsatz generativer KI über vertrauenswürdige Partner laufen, prognostiziert Michele Goetz, Analystin bei Forrester Research. Es dauere wahrscheinlich noch mindestens drei Jahre, bis Unternehmen ihre eigenen generativen KI-Fähigkeiten praktisch nutzen. Bis dahin würden sie in sicheren Zonen mit der Technologie spielen und experimentieren, während sie sich im Fall einer sofortigen Bereitstellung auf Partner verlassen.

Zur Startseite