Die Maschine ist ein Macho
Künstliche Intelligenz soll die Arbeit erleichtern, doch diskriminiert dabei Frauen.
Ein bemerkenswerter Bericht aus der Tech-Industrie sorgte vergangene Woche für Gesprächsstoff. Bei Amazon hatte man in den vergangenen Jahren an einer Software gearbeitet, um geeignete Mitarbeiter für das Unternehmen zu ermitteln. Die Maschine sollte selbstständig aus einem Berg von Bewerbungen die vielversprechendsten Talente herausfiltern. Das Problem: Das Programm bevorzugte kategorisch Männer.
Der Fehler ist bei der „Erziehung“des Systems entstanden. Künstliche Intelligenz (KI) muss trainiert werden, ähnlich wie ein Kleinkind das Laufen lernt. Dabei wird die Maschine mit Daten gefüttert, anhand derer sie lernt. Bei Amazon wurde das Programm dabei mit schon vorhandenen Personaldaten gefüttert. Und die waren – wie üblich in der Tech-Industrie – überwiegend männlich.
Das System identifizierte, ohne dass es von Amazon so gedachtwar, Frauen als Schwachstelle. Selbst als die Geschlechterangabe aus den Bewerberdaten entfernt wurde, suchte die Maschine eigenständig nach Hinweisen und stufte Kandidatinnen herunter. Amazon beendete das Experiment und erklärte gegenüber Reuters, dass es bei tatsächlichen Bewerbungsverfahren keine Rolle spielte.
Komplett beerdigt wurde das Projekt allerdings nicht. KI soll künftig dabei helfen, Personaldaten besser zu strukturieren, um beispielsweise Doppelbewerbungen zu erkennen. Das ist auch dringend nötig, denn mit 575.700 Personen weltweit hat sich die Mitarbeiterzahl bei Amazon seit 2015 verdreifacht. In einer aktuellen Umfrage gibt jeder zweite Personalchef in den USA an, KI-Systeme innerhalb der nächsten fünf Jahre bei der Kandidatensuche einführen zu wollen. Nicht viel Zeit, um der Maschine beizubringen, diskriminierungsfrei zu arbeiten.