Der Mensch an sich ist in seinen Entscheidungen von vielen verschiedenen Eindrücken geprägt. Unser Gehirn ist so strukturiert, dass wir Informationen wie in "Schubladen" ablegen - ein Vorgang, der die Bildung von Stereotypen und Vorurteilen stark begünstigt. Laut einer Theorie des renommierten Psychologen Daniel Kahneman existieren in uns zwei Denksysteme. Eines funktioniert schnell und unreflektiert sowie eines langsam und reflektiert. Unsere Entscheidungen sind demnach stets eine Mischung aus objektiven Fakten und subjektiven Einflüssen. Wenn wir also eine Wahl treffen, ist diese vielleicht objektiv geprägt, aber immer auch subjektiv beeinflusst.
Künstliche Intelligenz verspricht uns Objektivität und Sachlichkeit, ohne den Einfluss von menschlichen Emotionen. KI analysiert, kategorisiert und bewertet Informationen - dennoch ist die Annahme, dass sie dabei ohne Vorurteile agiert, vorschnell getroffen.
Generative KI kann rassistisch sein
Das wird an einem Phänomen schnell deutlich. Wenn man einen Menschen nach einem Bild einer schönen Frau fragt, wird die Wahl sehr subjektiv sein. Vielleicht wird einem das Bild der Mutter gezeigt, der Partnerin oder des Lieblingsmodels der Person. Wenn man hingegen eine generative KI fragt, so ein Bild zu erstellen, sieht die Antwort anders aus, denn das KI-generierte Bild ist fast immer: eine junge Frau, Sanduhrfigur, glatte Haut, lange Haare, perfekte Gesichtszüge, schlanke Taille, üppige Oberweite - und meistens weiße Haut, was dem Ganzen auch noch einen rassistischen Beigeschmack gibt. Dieses Schönheitsideal ist stark männlich geprägt und von Stereotypen durchzogen. Aber wie kann das sein, wenn KI doch neutral sein sollte?
KI arbeitet mit dem, was sie an "Futter" bekommt, und das sind Informationen und Reaktionen. Diese sind selten neutral, außer es handelt sich um klare Fakten wie 1+1=2. Viel eher sind sie geprägt und untermauert von Meinungen, Vorurteilen und Denkmustern, welche sich konstant durch unsere Gesellschaft ziehen. Das geschieht durch das gezielte "Liken" von Bildern, der Weiterverarbeitung der KI-Inhalte und dem Feedback, was das Tool daraus generiert - ein Teufelskreis, der bestehende Vorurteile nicht neutralisiert, sondern sie vielmehr verstärkt.
Männliches Verhalten prägen die KI-Tools
Doch wer sind die Personen, die KI-Tools nutzen und trainieren? Tatsächlich sind es aktuell noch zum größten Teil Männer. Dadurch geben sie den Tools deutlich mehr Input und Feedback, als Frauen das tun. Das Ganze beginnt bereits im Jugendalter. Es sind eher Jungs, die Interesse an KI-Tools zeigen, wie eine Studie des Medienpädagogischen Forschungsverbunds Südwest zeigt.
Die Konsequenz: Da KI-Tools konstant lernen, wird ihre Entwicklung einseitig geprägt durch männliches Verhalten - wodurch dann zum Beispiel KI-generierte Bilder eher dem männlichen Schönheitsideal entsprechen. Hinzu kommt, dass nicht nur die Nutzung, sondern auch die Entwicklung und Programmierung der Tools eher männlich orientiert ist, da wesentlich mehr Männer in diesen Berufen arbeiten.
Und auch auf Unternehmensebene sind die negativen Konsequenzen der Verstärkung von Stereotypen und Vorurteilen durch KI zu spüren: Bereits 2018 konnte dies beobachtet werden, als Amazon ihr KI-basiertes Recruiting Tool einstellen musste, da es Männer für technische Jobs bevorzugte. Das Tool hatte gelernt, dass sich deutlich mehr Männer auf diese Stellen bewerben und sie somit folglich präferiert, während Bewerbungen, die Begriffe wie "women's" enthielten, abgestraft wurden.
Dem kann entgegengewirkt werden - und zwar auf vielen Ebenen. Frühkindliche Bildung, die besonders Mädchen beim Umgang mit KI ermutigt und ihnen starke weibliche Vorbilder an die Hand gibt, wäre ein Gedanke. Auch sind Frauen im MINT-Bereich immer noch unterrepräsentiert.
Laut Daten des Statistischen Bundesamts lag der Anteil an MINT-Studentinnen an deutschen Hochschulen zum Wintersemester 2022/23 bei etwa 32 Prozent - zwar mit den Vorjahren verglichen eine steigende Tendenz, aber immer noch nicht ausgeglichen. Ich sehe aber in einem Bereich einen besonderen Spielraum, den vor allem Führungskräfte zukünftig nutzen sollten: Unternehmen als KI-Enabler für Frauen.
Folgende vier Punkte lege ich Arbeitgebern ans Herz:
1. Schließt euer Digitalisierungs-Gap
Unternehmen müssen noch wettbewerbsfähiger werden, um sich auf dem Markt zu behaupten und mit den neuesten Technologien mitzuhalten. Dennoch hängen viele hinterher und setzen eher auf analoge Papierwirtschaft statt auf digitale Vereinfachung.
Auch in den Unternehmen selbst lässt sich dieses "Digitalisierungs-Gap" beobachten: Jüngere Mitarbeitende sind deutlich sicherer im Umgang mit neuen technischen Systemen, während ältere Kollegen und Kolleginnen eher überfordert sind. Hier liegt die Kunst darin, diese Lücke im ersten Schritt zu schließen. Unternehmen müssen ihre gesamte Belegschaft - Frauen und Männer, jung und alt - zum Umgang mit neuen Technologien ermutigen und auch für KI fit machen.
2. Bietet Schulungen für den Umgang an
Der nächste Schritt liegt darin, den Umgang mit KI zu erlernen. Viele Unternehmen scheuen sich aus Datenschutzgründen oder aus Unsicherheit noch davor, KI-Tools für die Prozesse zu nutzen. Einige setzen daher auf eine unternehmensinterne KI-Variante, die diesen Datenschutz garantieren kann. So oder so gilt es, sowohl Männer als auch Frauen beim Umgang mit den Tools abzuholen. Hierfür könnte es verpflichtende Schulungen in allen Abteilungen geben, die zusätzlich für die Gefahr der Verstärkung von Vorurteilen sensibilisieren und somit einen starken Motivator für Frauen zur Nutzung liefern.
3. Errichtet "Safe Spaces" zum Austausch
Weibliche Führungskräfte, die selbst schon sicher im Umgang mit KI-Tools sind, können ihr Wissen mit Kolleginnen in sogenannten "Safe Spaces" teilen. Hierdurch entsteht ein geschützter Raum für Rückfragen, zum Üben vom Schreiben von Prompts und ein Verständnis für die Bedenken bei der Nutzung. Auch mit Männern sollte es diese Möglichkeit des Austausches geben, damit alle Perspektiven in einen Dialog miteinander treten können.
4. Fördert "menschliche" Fähigkeiten
Ein wichtiger Punkt ist zusätzlich, dass Unternehmen bei der Nutzung von KI auch die "menschlichen" Fähigkeiten - Soft Skills - ihrer Mitarbeitenden schulen. Diese beziehen sich auf Kompetenzen, die den Menschen in den Mittelpunkt stellen wie Empathie, Kommunikation oder kritisches Denken. In Zeiten von KI gewinnen menschenzentrierte Fähigkeiten immer mehr an Bedeutung und ergänzen die Technologie auf einzigartige Weise. Sie können zukünftig ein wichtiges Gegengewicht zur Vermeidung von Vorurteilen in KI-Systemen darstellen.
Unternehmen und Führungskräfte haben einen gewaltigen Spielraum, wenn es darum geht, den Umgang mit KI zu verbessern und Vorurteile bei der Nutzung nicht weiter zu verstärken, sondern auszugleichen. Dafür muss die Angst vor der KI einer gesunden Neugier und dem Willen zum Wandel weichen.