Die Presse

Gegenrede für Respekt im Internet

Ein Wiener Forscherte­am erstellt Algorithme­n, die gegen Rassismus in sozialen Medien aktiv werden sollen: Mit beruhigend­en Meldungen, die Hassposter und Mitlesende zum Nachdenken bringen.

- VON VERONIKA SCHMIDT

Wiener Forscher erstellen Algorithme­n, die gegen Rassismus in sozialen Medien aktiv werden sollen.

Rassismus und Diskrimini­erung sollte niemand aushalten müssen“, sagte Justizmini­sterin Alma Zadic,´ die selbst zur Zielscheib­e von Hasspostin­gs wurde, im Jänner zur „Presse“. Das Phänomen „Hass im Netz“betrifft viele, und das nicht erst seit den jüngsten Entwicklun­gen: Allein die von der Antidiskri­minierungs­stelle Steiermark entwickelt­e App „BanHate“erfasste 5500 Fälle von Hasspostin­gs seit 2017 in Österreich.

Ein Projekt des Ludwig-Boltzmann-Instituts (LBI) für Menschenre­chte, gefördert von der Stadt Wien, erstellt nun eine Basis dafür, dass Rassismus im Internet automatisc­h erkannt wird und dass solche Meldungen nicht unkommenti­ert weiteren Hass schüren. Das Konzept heißt „Gegenrede“(Counter Speech) und wird als Strategie gegen Angriffe auf sozialen Medien schon lang den Betroffene­n beigebrach­t.

„Das Ziel von ,Gegenrede‘ ist weniger ein Umstimmen derjenigen, die Hass verbreiten, als eine Bewusstsei­nsbildung: Man versucht, Menschen zum Nachdenken zu bringen, was sie mit ihren Hasspostin­gs auslösen. Und dabei den vielen Mitlesende­n, die sich nicht aktiv einbringen, zu zeigen, dass das nicht okay ist“, erklärt Barbara Liegl, die das Projekt Counter-Bot und die Abteilung für Asyl, Anti-Diskrimini­erung und Diversität am LBI für Menschenre­chte leitet – und eine der Geschäftsf­ührerinnen von Zara (Zivilcoura­ge und Anti-Rassismus-Arbeit) ist.

Kalmieren ist ermüdend

Rainer Alexandrow­icz vom Institut für Psychologi­e der Uni Klagenfurt fügt hinzu: „Gegenrede soll die ungehinder­te Abfolge von Meldungen, die sich immer weiter zu übertreffe­n versuchen, kalmierend unterbrech­en.“Aus Experiment­en und Verhaltens­trainings ist bekannt, dass das Einwerfen von beruhigend­en Meldungen hassproduz­ierende Dynamik durchbrech­en kann. Das gilt sowohl offline als auch online. „Auch bei Fällen, die nicht strafrecht­lich relevant sind, ist die Gegenrede ein sehr wichtiges Instrument, um auf gesamtgese­llschaftli­cher Ebene Respekt und Nichtdiskr­iminierung auszubreit­en“, sagt Liegl.

Ihr Team, an dem auch das Institut für Sprachwiss­enschaft der Uni Wien und die IT-Entwickler von Tunnel23 beteiligt sind, will nun künstliche Intelligen­z dafür einsetzen, dass respektvol­le Gegenrede im Netz automatisc­h geschieht: durch Algorithme­n, die man Bots nennt, also digital erstellte Postings in sozialen Medien, die nicht von einem Menschen eingetippt werden. „In Trainings hat sich gezeigt, dass Menschen, die sich zur Wehr setzen und der Hassrede entgegentr­eten, viel schneller ermüden als jene, die Hass produziere­n“, sagt Liegl. Auch wenn die Gegenredne­r in einem Setting in der Mehrzahl sind, haben diese Personen meist das Gefühl, gegenüber den Menschen, die Hass produziere­n, in der Minderheit zu sein.

„Die Gegenrede ist ermüdend, sodass viele einfach aufgeben.“Der Psychologe Alexandrow­icz erklärt, dass hier ein heuristisc­hes Prinzip wirksam ist, bei dem die Wahrnehmun­g der negativen Meldungen überwiegt, auch wenn die positiven Stimmen real mehr sind: „Das ist, wie wenn Sie nach der zweiten roten Ampel denken, dass Sie eine rote Welle haben, obwohl Sie davor schon mehr grüne Ampeln durchfahre­n haben.“

Das Computerpr­ogramm Counter-Bot soll also den Druck von Menschen nehmen, die sich im Internet für Respekt und Antidiskri­minierung einsetzen. Die Software müsste sich in Diskussion­en einklinken, etwa mit Texten wie „Ihre Äußerungen sind rassistisc­h. Ich finde das schlimm, hören Sie auf damit!“– oder Fotos und Videos als Antwort auf Hass posten. „Bei der Entwicklun­g müssen wir überlegen, welche Strategien zu welchem Ziel führen sollen“, sagt Liegl. Soll der Counter-Bot Personen unterstütz­en, die Hasspostin­gs ausgesetzt sind, oder soll er die Person, die Hass verbreitet, dazu bewegen aufzuhören? „All diese komplexen Vorgänge müssen in die künstliche Intelligen­z integriert werden“, so Liegl.

Signalwört­er und Sarkasmus

Derzeit arbeiten die Forscher an der Erstellung von Signalwört­erlisten, mit denen das System trainiert werden kann, in Zukunft rassistisc­he Äußerungen zu erkennen: nicht nur solche gegen schwarze Menschen, sondern breit gefächert von antisemtis­ch, antimuslim­isch bis antizigani­stisch. „Dabei ist Sarkasmus eine besondere Schwierigk­eit“, sagt Alexandrow­icz. Auch Emojis, Jugendslan­g und Dialekte stellen die beteiligte­n Sprachwiss­enschaftle­r und Statistike­r noch vor Herausford­erungen, wenn Twitter-Postings analysiert werden.

„Wichtig ist auch, dass die künstliche Intelligen­z sich nicht in eine Richtung entwickelt, die wir selbst nicht mehr steuern können“, betont Liegl. D. h. schon bei der Planung soll verhindert werden, dass ein Counter-Bot irgendwann selbst die Hassposter rassistisc­h beschimpft oder gegen gut gemeinte Äußerungen vorgeht.

 ?? [ Reuters ] ?? Die Gegenrede ist ein wichtiges Instrument gegen Diskrimini­erung: Doch die Gegenredne­r fühlen sich oft in der Minderheit.
[ Reuters ] Die Gegenrede ist ein wichtiges Instrument gegen Diskrimini­erung: Doch die Gegenredne­r fühlen sich oft in der Minderheit.

Newspapers in German

Newspapers from Austria