Auch künstliche Intelligenz kann Vorurteile entwickeln
Sprachsystem „lernt“von seinen Schöpfern
Princeton/Wien – Computersysteme werden künftig in immer größerem Ausmaß dafür herangezogen, wichtige Entscheidungen zu treffen. Wer soll wieviel für seine Krankenversicherung zahlen? Welchem Bankkunden sollte man einen Kredit lieber verweigern? Welcher Kriminelle könnte am ehesten wieder straffällig werden? Die Idee dahinter ist unter anderem, dass Computer im Unterschied zu Menschen ihr Urteil nicht auf Basis von vorgefassten Meinungen fällen – zumindest hoffte man das früher.
Überraschenderweise machen sich künstliche Intelligenzen (KI) aber durchaus dieselben Ressentiments zu eigen wie ihre Schöpfer. Ein Forscherteam um Aylin Caliskan von der Princeton University hat nun in einem KI-System nicht nur Voreingenommenheit gegenüber bestimmten Hautfarben oder Geschlechtern festgestellt, sondern auch die möglichen Wurzeln dafür identifiziert.
Eine verbreitete Methode, Vorurteile zu messen, ist der Implizite Assoziationstest (IAT). Dabei sollen die Teilnehmer am Computer Worte anderen Begriffen zuordnen. „Blumen“werden dabei etwa in der Regel mit „erfreulich“kombiniert, den „Insekten“wird meist der Begriff „unangenehm“zugewiesen. Unter anderem anhand der Reaktionszeit der Probanden lassen sich Aussagen über das Vorhandensein unterschwelliger Vorurteile treffen.
Caliskan und ihre Kollegen modifizierten diesen Test und setzten ihn einem hochentwickelten KI- System vor. Dieser GloVe-Algorithmus (Global Vectors for Word Representation) kennt nicht nur 2,2 Millionen englische Wörter, sondern auch ihre semantischen Beziehungen untereinander. Seine Erkenntnisse hat GloVe gewonnen, indem er für jedes einzelne Wort in Texten aus dem Internet nachgesehen hat, welche anderen Begriffe im näheren Umkreis vorkommen. Das Ergebnis ist ein komplexes System aus semantischen Vektoren.
Vom Menschen gelernt
Der adaptierte Test konnte nun nachweisen, dass GloVe menschliche Vorurteile in einem hohen Ausmaß übernommen hat. Als Quelle dieser Maschinen-Ressentiments identifizierten die Forscher im Fachjournal Science die gleichsam in die menschliche Sprache eingewobenen historischen Vorurteile.
So assoziierte die KI beispielsweise Begriffe aus der Kunst eher mit Synonymen für das Wort „Frau“, während Mathematik großteils männlich konnotiert wurde. Außerdem war GloVe statistisch gesehen geneigt, Namen europäischer Herkunft eher mit positiven Eigenschaften zu verbinden als afroamerikanische Namen. Die Forscher überlegen nun, der KI ihre rassistischen und sexistischen Tendenzen auszutreiben, ohne dass dabei auch wichtige semantische Informationen verloren gehen. Bleibt nur zu hoffen, dass GloVe bei der Beseitigung seiner Vorurteile lernfähiger ist als der Mensch. (tberg)