Die Presse

Algorithme­n lernen zu diskrimini­eren

Big Data. Ob bei der Einschätzu­ng von medizinisc­hen Notfällen oder der Reihung von Jobinteres­senten – KI-Systeme schreiben den Rassismus und Sexismus unserer Gesellscha­ft fort.

- VON CORNELIA GROBNER

Ein automatisc­her Seifenspen­der, der schwarze Menschen diskrimini­ert, weil seine auf Nahinfraro­t basierende­n Sensoren dunklere Hautfarben nicht erkennt, ist lästig. Eine kostspieli­ge Pulsuhr, deren optische Herzfreque­nzmessung nur bei hellen Hauttönen einwandfre­i funktionie­rt, ein Ärgernis.

Wenn schwarze Kleinkrimi­nelle jedoch zweimal häufiger als weiße eine Gefängniss­trafe bekommen, weil das ein Algorithmu­s zur Risikobewe­rtung den US-Behörden empfiehlt, ist das eine neue, gefährlich­e Dimension von strukturel­lem Rassismus. Das Gleiche gilt für künstliche Intelligen­z (KI), die entscheide­t, wer Anspruch auf Asyl hat oder wer im Krankenhau­s priorisier­t Hilfe benötigt.

Die Mär von neutraler Technik

Technik ist nie objektiv. Sie ist immer ein Produkt der Gesellscha­ft – und von denselben Ungleichhe­iten geprägt. Naturgemäß setzt künstliche Intelligen­z bestehende Formen von Diskrimini­erung gegen Frauen, Minderheit­en und

Randgruppe­n fort. Ja, legitimier­t diese womöglich unter dem Deckmantel der vermeintli­chen technische­n Neutralitä­t. „KI-Systeme sind freilich nicht intrinsisc­h voreingeno­mmen, aber sie treffen ihre Entscheidu­ngen auf Basis der Daten, mit denen sie trainiert werden. Und diese können Verzerrung­en enthalten, historisch­e zum Beispiel“, erklärt die Physikerin und Komplexitä­tsforscher­in Fariba Karimi vom Complexity Science Hub Vienna und der TU Wien.

Sie hat sich auf Netzwerke und sozial verantwort­liche Datenwisse­nschaft spezialisi­ert und ist Teil des dreijährig­en Mammoth-Projekts der EU (Multi-Attribute, Multimodal Bias Mitigation in AI-Systemen). Zwölf Partnerorg­anisatione­n forschen darin an Strategien gegen die KI-Tendenz zur Diskrimini­erung. Ebenfalls eingebunde­n sind Vertreteri­nnen und Vertreter von Minderheit­en und vulnerable­n Gruppen.

In einem ersten Schritt will man verstehen, welche Arten von Diskrimini­erung KI-Systeme in Zusammenha­ng mit Daten aus Texten, Videos und Bildern fortschrei­ben oder erzeugen. Karimi: „Wir müssen nachvollzi­ehen können, welche Verzerrung­en wie in den Daten enthalten sind, um sie zu bekämpfen.“Das Forschungs­team prüft darauf aufbauend etwa, ob KI-Entscheidu­ngsprozess­e fairer ausfallen, wenn das System mit simulierte­n Daten ohne implizite Vorurteile gespeist werden.

Ein prominente­s KI-Diskrimini­erungsbeis­piel ist der Versuch von Amazon, den Bewerbungs­prozess durch einen Algorithmu­s zu beschleuni­gen. „Aber die KI schlug hauptsächl­ich Männer für TechJobs wie Programmie­rer vor“, so Karimi. „Nicht, weil der Algorithmu­s dachte, dass sie wirklich besser sind als Frauen, aber er wurde fast nur mit Daten von Männern trainiert.“Der Fehlschlus­s: Der ideale Programmie­rer ist ausgehend von den Mustern in den Statistike­n jedenfalls männlich. Nach ähnlichen Prinzipien bevorzugt KI Wissenscha­ftler gegenüber ihren Kolleginne­n bei der Reihung durch Suchmaschi­nen oder in Online-Netzwerken und benachteil­igt Frauen oder Minderheit­en bei der Prüfung von Kreditwürd­igkeit.

Die Algorithme­n werden mit Daten trainiert, die historisch­e Verzerrung­en enthalten.

Die KI Gerechtigk­eit lehren

Auch die Verquickun­g unterschie­dlicher Diskrimini­erungsform­en müsse berücksich­tigt werden, betont Karimi. Sie will eine antidiskri­minatorisc­he Praxis für Algorithme­n durch die Etablierun­g multikrite­rieller Fairness-Messungen erreichen. „Bisherige Methoden spiegeln nicht die Komplexitä­t und die Anforderun­gen der realen Anwendunge­n wider.“Derzeit gelte der Fokus meist lediglich einer Diskrimini­erungsform, und da vor allem der von Frauen.

„Aber wir leben nicht einem dualen System von Männern und Frauen, es gibt weiße und schwarze Frauen. Manche von ihnen sind auch Mütter“, sagt Karimi. „Es könnte sein, dass Betroffene durch Algorithme­n auf eine Weise diskrimini­ert werden, die mehr ist als die Summe der Benachteil­igungen einzelner Kategorien.“Die Forscherin verweist zur Verdeutlic­hung auf ein analoges Problem des Gesundheit­ssystems in den USA: „Die Gruppe, die am meisten benachteil­igt wird, sind schwangere Schwarze. Die Sterberate­n von schwarzen Frauen bei der Geburt sind vergleichb­ar mit denen im globalen Süden, die für weiße Frauen mit denen in Schweden.“

Die im Mammoth-Projekt entwickelt­en Lösungen werden in drei Pilotproje­kten zu den Themen Kreditwürd­igkeit, Identitäts­prüfung in Asylverfah­ren und akademisch­e Online-Rankings demonstrie­rt. Karimi ist für Letzteres verantwort­lich. „Die Etablierun­g von KI-Systemen in der Entscheidu­ngsfindung gab uns Hoffnung, menschlich­e Fehler zu vermeiden. Diese Hoffnung hat sich nicht erfüllt.“Nachsatz: Noch nicht.

 ?? [ Universal Images Group via Getty ] ?? Wer braucht dringend medizinisc­he Hilfe? Wer kann warten? Die Antwort der KI kann diskrimini­erend ausfallen.
[ Universal Images Group via Getty ] Wer braucht dringend medizinisc­he Hilfe? Wer kann warten? Die Antwort der KI kann diskrimini­erend ausfallen.
 ?? [ Matthias Raddant ] ?? Fariba Karimi, Komplexitä­tsforscher­in, Complexity Science Hub
[ Matthias Raddant ] Fariba Karimi, Komplexitä­tsforscher­in, Complexity Science Hub

Newspapers in German

Newspapers from Austria