Update für Imagen 3

Googles KI erstellt wieder Bilder von Menschen

29.08.2024
Im Februar folgte Googles KI-Software stur Vorgaben zur Diversität und erzeugte unter anderem Bilder von schwarzen Nazi-Soldaten. Die Funktion wurde umgehend gesperrt. Jetzt hat Google sie wieder freigeschaltet.
Nach Diskussionen um Vorgaben zur Diversität hatte Google bei seiner KI-Software Imagen 3 zunächst keine Personenbilder mehr erlaubt. Jetzt macht der Konzern einen neuen Anlauf.
Nach Diskussionen um Vorgaben zur Diversität hatte Google bei seiner KI-Software Imagen 3 zunächst keine Personenbilder mehr erlaubt. Jetzt macht der Konzern einen neuen Anlauf.
Foto: Koshiro K - shutterstock.com

Ein halbes Jahr nach der Blamage mit Bildern von schwarzen Nazi-Soldaten lässt Google mit seiner KI-Software wieder Darstellungen von Menschen zu. Die Funktion wird zunächst Abo-Kunden des KI-Chatbots Gemini offenstehen, wie Google in einem Blogeintrag ankündigte.

Die Google-Software Imagen 3 kann - ähnlich wie Programme der Konkurrenz - Bilder auf Basis von Sprachvorgaben erzeugen. Die Möglichkeit, auch Abbildungen von Menschen zu generieren, wurde im Februar abgeschaltet. Davor hatten Nutzer festgestellt, dass die KIKI auch bei Bilddarstellungen zu längst vergangenen Zeiten heutige Diversitätsvorgaben einhielt. Das führte zu teils absurden Ergebnissen. So wurden etwa Abbildungen von schwarzen Soldaten in Uniformen des "Dritten Reichs" erzeugt. Alles zu Künstliche Intelligenz auf CIO.de

Google erläuterte damals, man habe es versäumt, Ausnahmen für Fälle zu programmieren, in denen Diversität definitiv fehl am Platz sei. Zugleich verteidigte der Konzern grundsätzlich die Vielfalt bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. In diesem konkreten Fall sei man aber übers Ziel hinausgeschossen.

Stereotypen bei KI ein echtes Problem

In Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren oft Probleme mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft hauptsächlich Weiße dargestellt.

Nicht nur bei Google, sondern auch in anderen Unternehmen bemühen sich Entwickler daher um mehr Diversität. Manchmal geraten sie damit zwischen die Fronten. Gerade in den USA gibt es eine lautstarke Bewegung, zu der auch Tech-Milliardär Elon Musk gehört, die vermeintlichen Rassismus gegenüber Weißen anprangert. Insbesondere die Weigerung der Google-Software, nur Bilder von weißen Personen zu generieren, erregte ihren Zorn.

Keine KI-Bilder mit bekannten Personen

Weiterhin verweigern wird sich die Google-KI dem Versuch, fotorealistische Darstellungen bekannter Personen zu generieren. Einige Konkurrenten wie etwa Grok von Musks KI-Angebot xAI machen das hingegen. Insbesondere vor der US-Präsidentenwahl im November gibt es Angst vor per KI erzeugten Fake-Bildern, die zur Manipulation der Meinungsbildung genutzt werden könnten. (dpa/rs/pma)

Zur Startseite