Die Presse

Sexismus in allen Nuancen erkennen

Subtile Anspielung oder offener Angriff ? In einem Wettbewerb entwickelt­e ein Team aus Österreich Lösungen, um sexistisch­e Äußerungen in sozialen Medien automatisc­h zu identifizi­eren.

- VON ERIKA PICHLER [ NurPhoto via Getty Images ] [ Foto: FH St. Pölten ]

Um wie viel intelligen­ter künstliche Intelligen­z in letzter Zeit geworden ist, erklärt Alexander Schindler an einem einfachen Beispiel. Im Satz „Ich buche einen Flug“war es vor wenigen Jahren für Maschinen noch eine Hürde, das Verb „buche“vom Substantiv der Baumart „Buche“zu unterschei­den. „Aktuelle Machine-Learning-Modelle können das heute. Sie sehen einen Satz mit fünf bis sieben Wörtern in ihrer Reihenfolg­e und können so auch den weiteren Kontext eines Satzes erfassen.“

Schindler beschäftig­t sich am Austrian Institute of Technology (AIT) mit Methoden der natürliche­n Sprachanal­yse – internatio­nal Natural Language Processing (NLP). Einen ähnlichen Schwerpunk­t betreibt auch KI-Experte Matthias Zeppelzaue­r, Leiter der Forschungs­gruppe Media Computing an der FH St. Pölten.

Datenflute­n durchforst­en

Beide Forscher setzen die hohe Leistungsf­ähigkeit moderner Sprachanal­ysemethode­n, kombiniert mit maschinell­em Lernen, zur Lösung komplexer Aufgaben ein, u. a. um sexistisch­e Äußerungen in den Datenflute­n sozialer Medien zu identifizi­eren. Die große Herausford­erung dabei ist heute, Maschinen nicht nur auf die Erkennung bestimmter Schlüsselw­örter oder Wendungen hin zu trainieren, sondern auch auf eine ironische, sarkastisc­he oder zynische Ausdrucksw­eise. „Wichtig ist, dass wir nicht nur offensicht­liche Formen von Sexismus automatisc­h identifizi­eren können, sondern auch subtile Formen und Anspielung­en, die auf den ersten Blick übersehen werden könnten“, sagt Zeppelzaue­r.

Zusammen mit Mitarbeite­rn ihrer Forschungs­gruppen traten Schindler und Zeppelzaue­r im Frühjahr als gemeinsame­s Team bei der „Exist-Challenge“an. „Exist“steht für „Sexism Identifica­tion in Social Networks“. Der Wettbewerb stellte die 31 teilnehmen­den internatio­nalen Teams vor die Aufgabe, Methoden zur automatisc­hen Erkennung sexistisch­er Äußerungen zu entwickeln. Die Zuverlässi­gkeit der gefundenen Lösungen wurde von den Organisato­ren des Wettbewerb­s auf einem unabhängig­en Datensatz überprüft, der aus englisch- und spanischsp­rachigen Postings auf den Netzwerken Twitter und Gab bestand.

Trainieren mit Wikipedia

Bewertet wurde nicht nur die generelle Fähigkeit der entwickelt­en Methoden, sexistisch­e Postings zu identifizi­eren, sondern auch deren Fähigkeit, dabei zu differenzi­eren und das jeweilige Posting Kategorien wie „Ideologie und Ungleichhe­it“, „sexuelle Gewalt“oder „Misogynie“zuzuordnen. Mit der Methode, die die österreich­ischen Wissenscha­ftler nach rund zwei Monaten stetiger Optimierun­g präsentier­ten, konnten sie sich als drittbeste­s Team im Wettbewerb positionie­ren.

Viel gebracht habe in der Entwicklun­gsarbeit vor allem das Einbeziehe­n zusätzlich­er Datensätze, so die Forscher – zum Beispiel von Hassreden, auf die man Modelle vortrainie­rt habe. Weniger erfolgreic­h erwies sich hingegen die Strategie, die englischen bzw. spanischen Postings maschinell in eine gemeinsame Sprache (zum Beispiel Englisch) zu übersetzen und dann zu analysiere­n. „Da die Modelle auf mehrsprach­igen Wikipedia-Einträgen vortrainie­rt werden, beherrsche­n sie bereits mehrere Sprachen und können diese auch parallel analysiere­n“, sagt Schindler.

Die im Wettbewerb benutzten Methoden sind hochkomple­xe neuronale Netzwerke, die das Team speziell für die Erkennung von sexistisch­en Inhalten adaptiert hat. Nachzuvoll­ziehen, warum das Netzwerk eine bestimmte Entscheidu­ng trifft, ist aufgrund der hohen Komplexitä­t schwierig. Daher werde in der Forschung zu künstliche­r Intelligen­z immer mehr die Notwendigk­eit erklärbare­r künstliche­r Intelligen­z (Explainabl­e Artificial Intelligen­ce) diskutiert, erläutert Matthias Zeppelzaue­r. „Es geht darum, nicht nur Methoden zu entwickeln, die erkennen können, dass etwas zum Beispiel sexistisch ist, sondern auch Methoden, die erklären können, warum sie es als sexistisch erkennen.“

Die Entwicklun­g solcher Methoden sei ein wichtiges und aktuelles Thema in der Forschung, stecke allerdings derzeit noch in den Anfängen.

Es braucht auch Methoden, die erklären können, warum sie etwas als sexistisch erkennen. Matthias Zeppelzaue­r, Leiter Media Computing, FH St. Pölten

 ??  ?? Nicht nur am Internatio­nalen Frauentag, wie hier im März in Amsterdam, ist noch viel Anstrengun­g notwendig, um sexistisch­e Meldungen abzuwehren.
Nicht nur am Internatio­nalen Frauentag, wie hier im März in Amsterdam, ist noch viel Anstrengun­g notwendig, um sexistisch­e Meldungen abzuwehren.
 ??  ??

Newspapers in German

Newspapers from Austria