Algorithmen lernen zu diskriminieren
Big Data. Ob bei der Einschätzung von medizinischen Notfällen oder der Reihung von Jobinteressenten – KI-Systeme schreiben den Rassismus und Sexismus unserer Gesellschaft fort.
Ein automatischer Seifenspender, der schwarze Menschen diskriminiert, weil seine auf Nahinfrarot basierenden Sensoren dunklere Hautfarben nicht erkennt, ist lästig. Eine kostspielige Pulsuhr, deren optische Herzfrequenzmessung nur bei hellen Hauttönen einwandfrei funktioniert, ein Ärgernis.
Wenn schwarze Kleinkriminelle jedoch zweimal häufiger als weiße eine Gefängnisstrafe bekommen, weil das ein Algorithmus zur Risikobewertung den US-Behörden empfiehlt, ist das eine neue, gefährliche Dimension von strukturellem Rassismus. Das Gleiche gilt für künstliche Intelligenz (KI), die entscheidet, wer Anspruch auf Asyl hat oder wer im Krankenhaus priorisiert Hilfe benötigt.
Die Mär von neutraler Technik
Technik ist nie objektiv. Sie ist immer ein Produkt der Gesellschaft – und von denselben Ungleichheiten geprägt. Naturgemäß setzt künstliche Intelligenz bestehende Formen von Diskriminierung gegen Frauen, Minderheiten und
Randgruppen fort. Ja, legitimiert diese womöglich unter dem Deckmantel der vermeintlichen technischen Neutralität. „KI-Systeme sind freilich nicht intrinsisch voreingenommen, aber sie treffen ihre Entscheidungen auf Basis der Daten, mit denen sie trainiert werden. Und diese können Verzerrungen enthalten, historische zum Beispiel“, erklärt die Physikerin und Komplexitätsforscherin Fariba Karimi vom Complexity Science Hub Vienna und der TU Wien.
Sie hat sich auf Netzwerke und sozial verantwortliche Datenwissenschaft spezialisiert und ist Teil des dreijährigen Mammoth-Projekts der EU (Multi-Attribute, Multimodal Bias Mitigation in AI-Systemen). Zwölf Partnerorganisationen forschen darin an Strategien gegen die KI-Tendenz zur Diskriminierung. Ebenfalls eingebunden sind Vertreterinnen und Vertreter von Minderheiten und vulnerablen Gruppen.
In einem ersten Schritt will man verstehen, welche Arten von Diskriminierung KI-Systeme in Zusammenhang mit Daten aus Texten, Videos und Bildern fortschreiben oder erzeugen. Karimi: „Wir müssen nachvollziehen können, welche Verzerrungen wie in den Daten enthalten sind, um sie zu bekämpfen.“Das Forschungsteam prüft darauf aufbauend etwa, ob KI-Entscheidungsprozesse fairer ausfallen, wenn das System mit simulierten Daten ohne implizite Vorurteile gespeist werden.
Ein prominentes KI-Diskriminierungsbeispiel ist der Versuch von Amazon, den Bewerbungsprozess durch einen Algorithmus zu beschleunigen. „Aber die KI schlug hauptsächlich Männer für TechJobs wie Programmierer vor“, so Karimi. „Nicht, weil der Algorithmus dachte, dass sie wirklich besser sind als Frauen, aber er wurde fast nur mit Daten von Männern trainiert.“Der Fehlschluss: Der ideale Programmierer ist ausgehend von den Mustern in den Statistiken jedenfalls männlich. Nach ähnlichen Prinzipien bevorzugt KI Wissenschaftler gegenüber ihren Kolleginnen bei der Reihung durch Suchmaschinen oder in Online-Netzwerken und benachteiligt Frauen oder Minderheiten bei der Prüfung von Kreditwürdigkeit.
Die Algorithmen werden mit Daten trainiert, die historische Verzerrungen enthalten.
Die KI Gerechtigkeit lehren
Auch die Verquickung unterschiedlicher Diskriminierungsformen müsse berücksichtigt werden, betont Karimi. Sie will eine antidiskriminatorische Praxis für Algorithmen durch die Etablierung multikriterieller Fairness-Messungen erreichen. „Bisherige Methoden spiegeln nicht die Komplexität und die Anforderungen der realen Anwendungen wider.“Derzeit gelte der Fokus meist lediglich einer Diskriminierungsform, und da vor allem der von Frauen.
„Aber wir leben nicht einem dualen System von Männern und Frauen, es gibt weiße und schwarze Frauen. Manche von ihnen sind auch Mütter“, sagt Karimi. „Es könnte sein, dass Betroffene durch Algorithmen auf eine Weise diskriminiert werden, die mehr ist als die Summe der Benachteiligungen einzelner Kategorien.“Die Forscherin verweist zur Verdeutlichung auf ein analoges Problem des Gesundheitssystems in den USA: „Die Gruppe, die am meisten benachteiligt wird, sind schwangere Schwarze. Die Sterberaten von schwarzen Frauen bei der Geburt sind vergleichbar mit denen im globalen Süden, die für weiße Frauen mit denen in Schweden.“
Die im Mammoth-Projekt entwickelten Lösungen werden in drei Pilotprojekten zu den Themen Kreditwürdigkeit, Identitätsprüfung in Asylverfahren und akademische Online-Rankings demonstriert. Karimi ist für Letzteres verantwortlich. „Die Etablierung von KI-Systemen in der Entscheidungsfindung gab uns Hoffnung, menschliche Fehler zu vermeiden. Diese Hoffnung hat sich nicht erfüllt.“Nachsatz: Noch nicht.