Gränzbote

Wie Maschinen Hass erkennen

Forscher bringen Software bei, strafbare Äußerungen im Netz zu entdecken

- Von Dominik Guggemoos

BERLIN - Aus der TV-Serie Stromberg stammt das Bonmot: „Erst wer verheirate­t ist, lernt ja, was es heißt zu hassen.“Was Eheleuten mitunter leichtfäll­t, ist aber für Computer enorm schwer. Im Kampf gegen den Hass versuchen Forscher in Deutschlan­d derzeit einem Algorithmu­s das Hassen beizubring­en. Die Künstliche Intelligen­z (KI) soll zum Kernstück für ein neues Gesetzespa­ket gegen Hasskrimin­alität reifen.

Das Regelwerk verpflicht­et soziale Netzwerke, den Behörden wüste Beschimpfu­ngen oder handfeste Bedrohunge­n zu melden. Experten gehen davon aus, dass das neue Gesetz zu rund 250 000 zusätzlich­en Strafverfa­hren führen wird – die Meldungen dürften in die Millionen gehen. Die Beamten brauchen also Hilfe. Hier kommt die KI ins Spiel. Sie soll helfen, aus der Menge der Meldungen jene zu finden, die tatsächlic­h strafbar sind.

Eleanor Hobley ist Forschungs­leiterin im Geschäftsf­eld Big Data Analyse der Zentralen Stelle für Informatio­nstechnik im Sicherheit­sbereich (ZITiS). Sie füttert den Algorithmu­s mit Tausenden von Posts, die ihm zeigen, was Hass ist – und was nicht. Hobley: „Der Algorithmu­s lernt anhand dieser Beispiele, was der Kontext von Hass ist.“

Doch wie bestimmen die Forscher überhaupt, was Hass ist? Dabei helfen sowohl Juristen als auch Kommunikat­ionswissen­schaftler, die Teil des über 20-köpfigen Projekttea­ms sind. Denn, sagt Hobley: „Was eine Person als Hass empfindet, ist nicht unbedingt gesetzlich verboten.“Der Algorithmu­s soll nicht nur lernen, was Hass ist, sondern ihn auch differenzi­ert einordnen können. Kategorien sind in etwa Links- oder Rechtsextr­emismus, religiöser Hass oder bestimmte Paragrafen aus dem Strafgeset­zbuch (StGB).

Die Klassifika­tion nach Art der Hassrede sei relativ einfach, sagt Hobley. Schwierige­r sei es, nach Paragrafen im StGB zu unterschei­den. Also ganz konkret: Ist das jetzt Volksverhe­tzung oder Bedrohung? Um das zuordnen zu können, muss die Künstliche Intelligen­z lernen, konkrete Zusammenhä­nge zu erkennen.

Dafür werden sogenannte Annotation­sschemen definiert. Das betrifft den Kontext, in dem Hassaussag­en getroffen werden. Hobley: „Wir erstellen Regeln: Ich erkenne Hass, wenn diese Kriterien gegeben sind.“Je zuverlässi­ger die Annotation­en sind, desto zuverlässi­ger wird die KI Hass erkennen können. Die Regeln, die für den Algorithmu­s erstellt werden, müssen immer wieder geprüft und angepasst werden.

Diese regelmäßig­en Anpassunge­n sind aus einem einfachen Grund nötig: „Sprache ist sehr dynamisch, erst recht im Internet“, sagt Hobley und nennt das Beispiel „Covidiot“. Wer den Begriff vor neun Monaten gesucht hätte, wäre nirgendwo fündig geworden. Dazu kommt noch ein unterschie­dlicher Sprachgebr­auch auf den verschiede­nen Plattforme­n. Auf Facebook kommunizie­ren Menschen anders als auf Twitter oder Telegram. Glückliche­rweise gibt es für die Forscher Ansätze, wie man vorhandene Datensätze anpassen kann, ohne sehr viele neue Daten hinzufügen zu müssen – denn das ist immer besonders arbeitsint­ensiv.

Zeit ist in doppelter Hinsicht ein wichtiger Faktor im Projekt. Zum einen haben die Sachbearbe­iter vom BKA, denen der Algorithmu­s helfen soll, nur sieben Tage Zeit, um die Absender der Hassbotsch­aften zu ermitteln. Danach löschen die Telekommun­ikationsan­bieter die IPAdressen der Benutzer. Zum anderen sollte das Gesetz eigentlich bereits zum 1. Januar 2021 in Kraft treten. Derzeit liegt die Novelle, die der Bundestag im Juli verabschie­det hat, aber noch auf dem Schreibtis­ch von Bundespräs­ident Franz-Walter Steinmeier (SPD). Dieser hält die Abfrage der Bestandsda­ten Name oder Wohnanschr­ift ohne handfesten Anfangsver­dacht für verfassung­swidrig und will den Neuentwurf nicht unterzeich­nen.

Die Unionsfrak­tion im Bundestag will deshalb nachbesser­n. Der stellvertr­etende Fraktionsv­orsitzende Thorsten Frei sagte der „Schwäbisch­en Zeitung“: „Wir hoffen, dass wir dafür vom Koalitions­partner grünes Licht bekommen. Dann könnte der Entwurf im März abgeschlos­sen werden.“

Wird der Algorithmu­s bis dahin einsatzfäh­ig sein? Das Projekt ist im Juli gestartet und auf drei Jahre angesetzt. Forschungs­leiterin Hobley ist zuversicht­lich, dass bis März ein Zwischener­gebnis vorgestell­t werden kann. Allerdings wird die KI verbessert werden müssen, bis sie wirklich optimal funktionie­rt. Auch ist noch nicht klar, wie die Meldungen von Facebook & Co. dann im Detail aussehen werden.

Am Ende ist klar: Der Algorithmu­s kann nur ein Hilfswerkz­eug sein. Hobley: „Letztendli­ch entscheide­t ein Mensch, ob es sich tatsächlic­h um Hass handelt oder nicht.“

 ?? FOTO: FABIAN SOMMER/DPA ?? Betreiber sozialer Netzwerke wie Facebook müssen künftig Hass-Postings an die Behörden melden.
FOTO: FABIAN SOMMER/DPA Betreiber sozialer Netzwerke wie Facebook müssen künftig Hass-Postings an die Behörden melden.

Newspapers in German

Newspapers from Germany