Wie Maschinen Hass erkennen
Forscher bringen Software bei, strafbare Äußerungen im Netz zu entdecken
BERLIN - Aus der TV-Serie Stromberg stammt das Bonmot: „Erst wer verheiratet ist, lernt ja, was es heißt zu hassen.“Was Eheleuten mitunter leichtfällt, ist aber für Computer enorm schwer. Im Kampf gegen den Hass versuchen Forscher in Deutschland derzeit einem Algorithmus das Hassen beizubringen. Die Künstliche Intelligenz (KI) soll zum Kernstück für ein neues Gesetzespaket gegen Hasskriminalität reifen.
Das Regelwerk verpflichtet soziale Netzwerke, den Behörden wüste Beschimpfungen oder handfeste Bedrohungen zu melden. Experten gehen davon aus, dass das neue Gesetz zu rund 250 000 zusätzlichen Strafverfahren führen wird – die Meldungen dürften in die Millionen gehen. Die Beamten brauchen also Hilfe. Hier kommt die KI ins Spiel. Sie soll helfen, aus der Menge der Meldungen jene zu finden, die tatsächlich strafbar sind.
Eleanor Hobley ist Forschungsleiterin im Geschäftsfeld Big Data Analyse der Zentralen Stelle für Informationstechnik im Sicherheitsbereich (ZITiS). Sie füttert den Algorithmus mit Tausenden von Posts, die ihm zeigen, was Hass ist – und was nicht. Hobley: „Der Algorithmus lernt anhand dieser Beispiele, was der Kontext von Hass ist.“
Doch wie bestimmen die Forscher überhaupt, was Hass ist? Dabei helfen sowohl Juristen als auch Kommunikationswissenschaftler, die Teil des über 20-köpfigen Projektteams sind. Denn, sagt Hobley: „Was eine Person als Hass empfindet, ist nicht unbedingt gesetzlich verboten.“Der Algorithmus soll nicht nur lernen, was Hass ist, sondern ihn auch differenziert einordnen können. Kategorien sind in etwa Links- oder Rechtsextremismus, religiöser Hass oder bestimmte Paragrafen aus dem Strafgesetzbuch (StGB).
Die Klassifikation nach Art der Hassrede sei relativ einfach, sagt Hobley. Schwieriger sei es, nach Paragrafen im StGB zu unterscheiden. Also ganz konkret: Ist das jetzt Volksverhetzung oder Bedrohung? Um das zuordnen zu können, muss die Künstliche Intelligenz lernen, konkrete Zusammenhänge zu erkennen.
Dafür werden sogenannte Annotationsschemen definiert. Das betrifft den Kontext, in dem Hassaussagen getroffen werden. Hobley: „Wir erstellen Regeln: Ich erkenne Hass, wenn diese Kriterien gegeben sind.“Je zuverlässiger die Annotationen sind, desto zuverlässiger wird die KI Hass erkennen können. Die Regeln, die für den Algorithmus erstellt werden, müssen immer wieder geprüft und angepasst werden.
Diese regelmäßigen Anpassungen sind aus einem einfachen Grund nötig: „Sprache ist sehr dynamisch, erst recht im Internet“, sagt Hobley und nennt das Beispiel „Covidiot“. Wer den Begriff vor neun Monaten gesucht hätte, wäre nirgendwo fündig geworden. Dazu kommt noch ein unterschiedlicher Sprachgebrauch auf den verschiedenen Plattformen. Auf Facebook kommunizieren Menschen anders als auf Twitter oder Telegram. Glücklicherweise gibt es für die Forscher Ansätze, wie man vorhandene Datensätze anpassen kann, ohne sehr viele neue Daten hinzufügen zu müssen – denn das ist immer besonders arbeitsintensiv.
Zeit ist in doppelter Hinsicht ein wichtiger Faktor im Projekt. Zum einen haben die Sachbearbeiter vom BKA, denen der Algorithmus helfen soll, nur sieben Tage Zeit, um die Absender der Hassbotschaften zu ermitteln. Danach löschen die Telekommunikationsanbieter die IPAdressen der Benutzer. Zum anderen sollte das Gesetz eigentlich bereits zum 1. Januar 2021 in Kraft treten. Derzeit liegt die Novelle, die der Bundestag im Juli verabschiedet hat, aber noch auf dem Schreibtisch von Bundespräsident Franz-Walter Steinmeier (SPD). Dieser hält die Abfrage der Bestandsdaten Name oder Wohnanschrift ohne handfesten Anfangsverdacht für verfassungswidrig und will den Neuentwurf nicht unterzeichnen.
Die Unionsfraktion im Bundestag will deshalb nachbessern. Der stellvertretende Fraktionsvorsitzende Thorsten Frei sagte der „Schwäbischen Zeitung“: „Wir hoffen, dass wir dafür vom Koalitionspartner grünes Licht bekommen. Dann könnte der Entwurf im März abgeschlossen werden.“
Wird der Algorithmus bis dahin einsatzfähig sein? Das Projekt ist im Juli gestartet und auf drei Jahre angesetzt. Forschungsleiterin Hobley ist zuversichtlich, dass bis März ein Zwischenergebnis vorgestellt werden kann. Allerdings wird die KI verbessert werden müssen, bis sie wirklich optimal funktioniert. Auch ist noch nicht klar, wie die Meldungen von Facebook & Co. dann im Detail aussehen werden.
Am Ende ist klar: Der Algorithmus kann nur ein Hilfswerkzeug sein. Hobley: „Letztendlich entscheidet ein Mensch, ob es sich tatsächlich um Hass handelt oder nicht.“