Sexistische Software
Gender Data Gap. Algorithmen sind wie ihre Programmierer: Voller Vorurteile. Frauen werden dadurch diskriminiert.
Mehr als 30.000 Stellen sind beim USOnlineriesen Amazon derzeit weltweit unbesetzt. Um die Tausenden Bewerbungen, die bei Amazon täglich eintrudeln, besser bearbeiten zu können, wurde in jahrelanger Arbeit ein Algorithmus programmiert. Er sollte in der Flut an Lebensläufen die besten Bewerber finden. Diese künstliche Intelligenz wurde tatsächlich zum Leben erweckt – zumindest zu Testzwecken. Bloß stellte sich heraus: Sie mochte keine Frauen. Diese wurden von dem Bewerbungsroboter systematisch aussortiert. Warum? Die künstliche Intelligenz (KI) lernte aus bestehenden Daten. Und weil Amazon bisher vor allem Männer eingestellt hatte, ging die Software davon aus, dass diese besser geeignet wären. Das Programm wurde gestoppt – und zumindest laut Angaben des Konzerns nie eingesetzt.
Technik wird meist als objektiv wahrgenommen. Sie ist es aber nicht. Künstliche Intelligenzen lernen aus Datensätzen – und diese werden von Menschen erstellt. Informatiker der Universität Pisa testeten Datensammlungen auf Diskriminierung. Das Ergebnis: Algorithmen räumten Forschungsprojekten von Wissenschafterinnen weniger Chancen ein. Auch der seit Anfang des Jahres eingesetzten Software des AMS wurde vor dem Start vorgeworfen, Frauen zu diskriminieren. Das Arbeitsmarktservice dementierte das – und verwies darauf, dass die Rankings des Algorithmus jedenfalls von Menschen überprüft werden. Sabine Theresia Köszegi sieht den Einsatz dennoch kritisch. Die Professorin an der TU Wien ist Vorsitzende des Österreichischen Rats für Robotik und Künstliche Intelligenz. „KI-Systeme werden anhand von riesigen Datensätzen trainiert. Sie arbeiten mit Erfahrungen aus der Vergangenheit, die mithilfe neuronaler Netze oder anderen Methoden analysiert werden, um aktuelle Zustände zu klassifizieren oder zukünftige Zustände vorherzusagen“, erklärt Köszegi. „Das Problem ist: Daten sind ein gesellschaftlicher Spiegel. Sie können Stereotype und Diskriminierungen enthalten, die sich durch den Einsatz von KI-Systemen in der Zukunft weiter verfestigen. Es besteht also die Gefahr, dass das System für Frauen geringere Chancen ausrechnet, weil sie in der Vergangenheit auf dem Arbeitsmarkt unterrepräsentiert waren“, warnt die TU-Professorin.
Prinzipiell sei es möglich, diskriminierungsfreie Algorithmen zu programmieren – und Verzerrungseffekte herauszurechnen. „Wir wissen aber oft nicht, welche Vorurteile in den Daten stecken.“Zudem seien Entscheidungen einer KI oft nicht nachvollziehbar. „Das ist eine Blackbox. Man weiß in vielen Fällen nicht, welche Faktoren wie gewichtet wurden und wie die Entscheidung zustande kam.“
Köszegi, die auch Mitglied der Expertengruppe der Europäischen Kommission für künstliche Intelligenz ist, empfiehlt, Verfahren und Standards zu entwickeln, damit Entscheidungen, die mithilfe von algorithmischen Prognoseverfahren und KI-Systemen zustande kommen, niemanden benachteiligen. „Man soll die Technologie nicht verteufeln. Sie hat unglaubliche Potenziale und kann durch die Verarbeitung komplexer Daten den Menschen in wichtigen Entscheidungen gut unterstützen.“
Dass nahezu alle Sprachassistenten weiblich sind, stößt ihr sauer auf: „Da werden eindeutig Geschlechterstereotype bedient: Die Assistentin, die immer zu Diensten ist, freundlich und nett, und selbst auf Beleidigungen mit Freundlichkeit reagiert“, sagt Köszegi, die sich seit Jahren mit dem Thema Diskriminierung von Frauen beschäftigt. Das bestätigt auch ein aktueller UNESCO-Report. Laut den Experten der UNO verstärken die weiblichen Stimmen hinter Apples Sprachassistentin Siri und Amazons Alexa Geschlechtervorurteile. Die Unterwürfigkeit der digitalen Assistentinnen könne Männer dazu verleiten, auch Frauen aus Fleisch und Blut stärker herumzukommandieren. Die Gefahr der Benachteiligung durch Technik werde dadurch erhöht, dass generell in der IT, speziell aber im Bereich künstliche Intelligenz, wenige Frauen arbeiteten. „Entwicklerteams bestehen fast ausschließlich aus Männern. Das ist ein Problem. Je diverser eine Gruppe ist, umso eher kann man davon ausgehen, dass Bedürfnisse und Charakteristika von unterschiedlichen Nutzerinnen und Nutzern berücksichtigt werden“, sagt die TU-Professorin. Das ist allerdings nicht in Sicht. Laut UNESCO-Studie sind nur zwölf Prozent der KI-Entwicklerinnen weiblich. Der aktuelle „Global Gender Gap Report“des Weltwirtschaftsforums und des Karrierenetzwerks LinkedIn geht zumindest noch von einem 22-prozentigen Frauenanteil aus. Mehr Diversität sei hier aber unerlässlich, um sicherzustellen, dass bestehende Geschlechterungerechtigkeiten durch künstliche Intelligenz nicht noch verstärkt würden, schreiben die Studienautoren. Diskriminierung betrifft aber nicht nur Frauen: Googles Gesichtserkennung identifizierte etwa schwarze Menschen als Gorillas. Der automatische Seifenspender eines Herstellers reagierte nur, wenn ein Hellhäutiger seine Hand unter den Sensor hielt. Bei einem Schwarzen passierte nichts. Und laut einer Studie der Universität von Georgia haben auch autonome Fahrzeuge ein Rassismusproblem. Dunkelhäutige Menschen können von der Software selbst fahrender Autos schlechter erkannt werden – weil die Systeme vor allem mit hellhäutigen Menschen trainiert wurden. Um auf das Problem der diskriminierenden Algorithmen aufmerksam zu machen, programmierte die koreanische Software-Entwicklerin Jihyun Kim ein eigenes Computerspiel, das nachvollziehen lässt, wie es dazu kommen kann. In dem Spiel namens „Survival of the Best Fit“schlüpft man in die Rolle eines Personalleiters, der mehr Mitarbeiter einstellen soll. Zuerst tut man das „normal“: Sieht sich Lebensläufe an und entscheidet zwischen verschiedenen blauen und orangen Kandidaten. Nach und nach übernimmt die künstliche Intelligenz diese Aufgabe. Das Problem: In der ersten Phase, in der noch der Mensch entschieden hatte, konnten orange Kandidaten bessere Lebensläufe vorweisen. In der Folge übernahm die KI dieses Muster – auch wenn blaue Kandidaten bessere Referenzen hatten, wurden sie automatisch abgestraft. „Der Algorithmus ist so voreingenommen, wie er trainiert wurde. Unser Spiel soll zeigen, wie menschliche Fehler, Vorurteile und Achtlosigkeit Software beeinflussen“, erklärt Kim. Gemeinsam mit drei Studienkollegen an der New York University in Abu Dhabi und einem Stipendium des Unternehmens Mozilla wurde das Lernspiel programmiert. „Algorithmen arbeiten nicht in einem Vakuum, sie sind das Ergebnis von menschlichen Entscheidungen. Wenn die Daten vorurteilsbehaftet sind, ist es auch der Algorithmus, der mit ihnen gespeist wird“, erklärt Kim.
Dass das Problem heute zumindest bewusst geworden ist, zeigt ein anderes Beispiel. Nach häufiger Kritik an seiner „Autocomplete“-Funktion, mit der eingegebene Sätze automatisch vervollständigt werden, hat Google vor einem Jahr angekündigt, nun stärker darauf zu achten, dass Software nicht nach Hautfarbe, Geschlecht, sexueller Orientierung oder Einkommen diskriminiere. Das zeigt auch ein Praxistest: Wer früher in der Google-Suchmaschine die Worte „Frauen sollten“eintippte, bekam als Fortsetzung „keine Rechte haben“vorgeschlagen. Heute finden sich andere Angebote: Frauen sollten aufhören Kuchen zu backen, zum Beispiel. Oder auch: Frauen sollten mehr verdienen.