Sexismus in allen Nuancen erkennen
Subtile Anspielung oder offener Angriff ? In einem Wettbewerb entwickelte ein Team aus Österreich Lösungen, um sexistische Äußerungen in sozialen Medien automatisch zu identifizieren.
Um wie viel intelligenter künstliche Intelligenz in letzter Zeit geworden ist, erklärt Alexander Schindler an einem einfachen Beispiel. Im Satz „Ich buche einen Flug“war es vor wenigen Jahren für Maschinen noch eine Hürde, das Verb „buche“vom Substantiv der Baumart „Buche“zu unterscheiden. „Aktuelle Machine-Learning-Modelle können das heute. Sie sehen einen Satz mit fünf bis sieben Wörtern in ihrer Reihenfolge und können so auch den weiteren Kontext eines Satzes erfassen.“
Schindler beschäftigt sich am Austrian Institute of Technology (AIT) mit Methoden der natürlichen Sprachanalyse – international Natural Language Processing (NLP). Einen ähnlichen Schwerpunkt betreibt auch KI-Experte Matthias Zeppelzauer, Leiter der Forschungsgruppe Media Computing an der FH St. Pölten.
Datenfluten durchforsten
Beide Forscher setzen die hohe Leistungsfähigkeit moderner Sprachanalysemethoden, kombiniert mit maschinellem Lernen, zur Lösung komplexer Aufgaben ein, u. a. um sexistische Äußerungen in den Datenfluten sozialer Medien zu identifizieren. Die große Herausforderung dabei ist heute, Maschinen nicht nur auf die Erkennung bestimmter Schlüsselwörter oder Wendungen hin zu trainieren, sondern auch auf eine ironische, sarkastische oder zynische Ausdrucksweise. „Wichtig ist, dass wir nicht nur offensichtliche Formen von Sexismus automatisch identifizieren können, sondern auch subtile Formen und Anspielungen, die auf den ersten Blick übersehen werden könnten“, sagt Zeppelzauer.
Zusammen mit Mitarbeitern ihrer Forschungsgruppen traten Schindler und Zeppelzauer im Frühjahr als gemeinsames Team bei der „Exist-Challenge“an. „Exist“steht für „Sexism Identification in Social Networks“. Der Wettbewerb stellte die 31 teilnehmenden internationalen Teams vor die Aufgabe, Methoden zur automatischen Erkennung sexistischer Äußerungen zu entwickeln. Die Zuverlässigkeit der gefundenen Lösungen wurde von den Organisatoren des Wettbewerbs auf einem unabhängigen Datensatz überprüft, der aus englisch- und spanischsprachigen Postings auf den Netzwerken Twitter und Gab bestand.
Trainieren mit Wikipedia
Bewertet wurde nicht nur die generelle Fähigkeit der entwickelten Methoden, sexistische Postings zu identifizieren, sondern auch deren Fähigkeit, dabei zu differenzieren und das jeweilige Posting Kategorien wie „Ideologie und Ungleichheit“, „sexuelle Gewalt“oder „Misogynie“zuzuordnen. Mit der Methode, die die österreichischen Wissenschaftler nach rund zwei Monaten stetiger Optimierung präsentierten, konnten sie sich als drittbestes Team im Wettbewerb positionieren.
Viel gebracht habe in der Entwicklungsarbeit vor allem das Einbeziehen zusätzlicher Datensätze, so die Forscher – zum Beispiel von Hassreden, auf die man Modelle vortrainiert habe. Weniger erfolgreich erwies sich hingegen die Strategie, die englischen bzw. spanischen Postings maschinell in eine gemeinsame Sprache (zum Beispiel Englisch) zu übersetzen und dann zu analysieren. „Da die Modelle auf mehrsprachigen Wikipedia-Einträgen vortrainiert werden, beherrschen sie bereits mehrere Sprachen und können diese auch parallel analysieren“, sagt Schindler.
Die im Wettbewerb benutzten Methoden sind hochkomplexe neuronale Netzwerke, die das Team speziell für die Erkennung von sexistischen Inhalten adaptiert hat. Nachzuvollziehen, warum das Netzwerk eine bestimmte Entscheidung trifft, ist aufgrund der hohen Komplexität schwierig. Daher werde in der Forschung zu künstlicher Intelligenz immer mehr die Notwendigkeit erklärbarer künstlicher Intelligenz (Explainable Artificial Intelligence) diskutiert, erläutert Matthias Zeppelzauer. „Es geht darum, nicht nur Methoden zu entwickeln, die erkennen können, dass etwas zum Beispiel sexistisch ist, sondern auch Methoden, die erklären können, warum sie es als sexistisch erkennen.“
Die Entwicklung solcher Methoden sei ein wichtiges und aktuelles Thema in der Forschung, stecke allerdings derzeit noch in den Anfängen.
Es braucht auch Methoden, die erklären können, warum sie etwas als sexistisch erkennen. Matthias Zeppelzauer, Leiter Media Computing, FH St. Pölten