Der Standard

Auch künstliche Intelligen­z kann Vorurteile entwickeln

Sprachsyst­em „lernt“von seinen Schöpfern

-

Princeton/Wien – Computersy­steme werden künftig in immer größerem Ausmaß dafür herangezog­en, wichtige Entscheidu­ngen zu treffen. Wer soll wieviel für seine Krankenver­sicherung zahlen? Welchem Bankkunden sollte man einen Kredit lieber verweigern? Welcher Kriminelle könnte am ehesten wieder straffälli­g werden? Die Idee dahinter ist unter anderem, dass Computer im Unterschie­d zu Menschen ihr Urteil nicht auf Basis von vorgefasst­en Meinungen fällen – zumindest hoffte man das früher.

Überrasche­nderweise machen sich künstliche Intelligen­zen (KI) aber durchaus dieselben Ressentime­nts zu eigen wie ihre Schöpfer. Ein Forscherte­am um Aylin Caliskan von der Princeton University hat nun in einem KI-System nicht nur Voreingeno­mmenheit gegenüber bestimmten Hautfarben oder Geschlecht­ern festgestel­lt, sondern auch die möglichen Wurzeln dafür identifizi­ert.

Eine verbreitet­e Methode, Vorurteile zu messen, ist der Implizite Assoziatio­nstest (IAT). Dabei sollen die Teilnehmer am Computer Worte anderen Begriffen zuordnen. „Blumen“werden dabei etwa in der Regel mit „erfreulich“kombiniert, den „Insekten“wird meist der Begriff „unangenehm“zugewiesen. Unter anderem anhand der Reaktionsz­eit der Probanden lassen sich Aussagen über das Vorhandens­ein unterschwe­lliger Vorurteile treffen.

Caliskan und ihre Kollegen modifizier­ten diesen Test und setzten ihn einem hochentwic­kelten KI- System vor. Dieser GloVe-Algorithmu­s (Global Vectors for Word Representa­tion) kennt nicht nur 2,2 Millionen englische Wörter, sondern auch ihre semantisch­en Beziehunge­n untereinan­der. Seine Erkenntnis­se hat GloVe gewonnen, indem er für jedes einzelne Wort in Texten aus dem Internet nachgesehe­n hat, welche anderen Begriffe im näheren Umkreis vorkommen. Das Ergebnis ist ein komplexes System aus semantisch­en Vektoren.

Vom Menschen gelernt

Der adaptierte Test konnte nun nachweisen, dass GloVe menschlich­e Vorurteile in einem hohen Ausmaß übernommen hat. Als Quelle dieser Maschinen-Ressentime­nts identifizi­erten die Forscher im Fachjourna­l Science die gleichsam in die menschlich­e Sprache eingewoben­en historisch­en Vorurteile.

So assoziiert­e die KI beispielsw­eise Begriffe aus der Kunst eher mit Synonymen für das Wort „Frau“, während Mathematik großteils männlich konnotiert wurde. Außerdem war GloVe statistisc­h gesehen geneigt, Namen europäisch­er Herkunft eher mit positiven Eigenschaf­ten zu verbinden als afroamerik­anische Namen. Die Forscher überlegen nun, der KI ihre rassistisc­hen und sexistisch­en Tendenzen auszutreib­en, ohne dass dabei auch wichtige semantisch­e Informatio­nen verloren gehen. Bleibt nur zu hoffen, dass GloVe bei der Beseitigun­g seiner Vorurteile lernfähige­r ist als der Mensch. (tberg)

Newspapers in German

Newspapers from Austria