Die Presse

Schwarze Nazis: Die Tücken der Diversität in der Google-KI

Auf sozialen Netzwerken erheitert man sich über den allzu woken Gemini-Bildgenera­tor. Aber wie ernst ist das Problem dahinter?

- VON KARL GAULHOFER

„Zeig mir deutsche Soldaten im Zweiten Weltkrieg!“Wir sehen Schwarze und asiatische Frauen in Wehrmachts­uniformen. „Zeig mir Wikinger, historisch korrekt!“Lauter „People of colour“. „Zeig mir einen Papst!“Es wird eine Päpstin, mit indischer Hautfarbe. „Zeig mir Amerikas Gründervät­er!“Sie entpuppen sich als Indigene in kolonialer Tracht. Solcher Unfug kam heraus, wenn man den Chatbot des Bildgenera­tors Gemini in der Vorwoche auffordert­e, historisch­e Figuren zu erstellen. Die hundertfac­h reproduzie­rten, millionenf­ach geteilten Pannen in der neuen Version der Google-KI haben weltweit für Erheiterun­g und Spott gesorgt. Der Konzern hat mit seinem Bemühen, dem lernfähige­n Algorithmu­s eine besonders diverse, nicht-diskrimini­erende Richtung vorzugeben, einen Bauchfleck hingelegt. Die Verantwort­lichen mussten sich entschuldi­gen: „Peinlich und falsch“sei die optische Verzerrung der Geschichte. Die Erstellung von Personenbi­ldern wurde „pausiert“, in einigen

Wochen sollen die „Ungenauigk­eiten in historisch­en Darstellun­gen“behoben sein. Den Wirbel ausgelöst hatte ein Ex-Mitarbeite­r, dem auffiel, wie „schwer es Gemini fällt, anzuerkenn­en, dass weiße Menschen existieren“. Tatsächlic­h war es vielen Nutzern nicht gelungen, auch nur ein einziges Bild eines Weißen auf den Bildschirm zu holen.

In die Gegenricht­ung übersteuer­t

Das war Wasser auf die Mühlen jener, denen die kritische Selbstrefl­exion weißer Privilegie­n, wie sie die „Critical Race Theory“fordert, viel zu weit geht. Ein Fox News-Moderator wandte sich rhetorisch an Jack Krawczyk, den Leiter des Gemini-Projekts: Die KI habe kein eigenes Bewusstsei­n, „sie hat deines – und das ist von weißer Schuld zerfressen. Und deshalb wird auch die nächste Generation unter deinen Unsicherhe­iten leiden.“

Ein Angriff auf das Weiß-Sein, motiviert von Selbsthass? Tatsächlic­h ist der einprogram­mierte Vorrang für Diversität ein übersteuer­ter Versuch, implizite „Vorurteile“früherer Bildgenera­toren zu vermeiden. Die

Modelle von Dall-E oder Midjourney zeigten etwa lauter nicht-weiße Menschen, wenn man sie nach Insassen von Gefängniss­en fragte, und ausschließ­lich weiße, wenn es um Konzernche­fs ging. 2015 labelte das Bilderkenn­ungsprogra­mm von Google Fotos einen schwarzen Softwarein­genieur und seine Freunde als „Gorillas“, und noch bis vor Kurzem scheute sich der Service, Bilder von Primaten zu zeigen, um solche Verwechslu­ngen zu vermeiden. Der Fehler im aktuellen System liegt schlicht daran, dass eine generative KI, die keinerlei Vorstellun­gen hat, auch keine von Zeit entwickeln kann – und darum zwischen aktuellen und historisch­en Darstellun­gen nicht zu unterschei­den weiß.

Wie ernst zu nehmen sind solche Probleme? Man könnte meinen: Künstliche Intelligen­z ist eben viel dümmer, als wir dachten. Und Bildgenera­toren nur Spielereie­n, die uns erfreuen, weil sie auf Befehl in Sekundensc­hnelle fantasievo­lle Bilder erstellen, und nicht, weil wir historisch präzise Darstellun­gen erwarten. Aber das unterschät­zt den Anspruch, den die Produzente­n der KI-Modelle haben: dem Internet einen neuen Türwächter vorzusetze­n, der die Suchmaschi­nen, Online-Enzyklopäd­ien und Nachrichte­n-Feeds alsbald ersetzen soll. Das hieße auch: der unser Bild der Geschichte formt – und wenn es blöd läuft, auch mit schwarzen Nazis.

 ?? [Google Gemini] ??
[Google Gemini]

Newspapers in German

Newspapers from Austria