Mittelschwaebische Nachrichten
So wird mit Robotern Stimmung gemacht
Nicht jeder Kommentar auf Facebook oder Twitter stammt tatsächlich von einem Menschen. Wie Maschinen Debatten manipulieren und wie man solche automatisch erstellten Nachrichten erkennt
Augsburg Sie verbreiten Hasskommentare, mischen in politischen Diskussionen mit oder setzen selbst Trends, um die Aufmerksamkeit der Menschen auf bestimmte Themen zu lenken: Social Bots. Übersetzt: soziale Roboter. Dahinter stecken falsche Profile in sozialen Netzwerken wie Twitter oder Facebook. Sie werden von einer Software gesteuert, gaukeln anderen Nutzern aber vor, von realen Personen zu stammen. So heizen sie den demokratischen Diskurs im Internet an. Schätzungsweise 100 Millionen solcher falscher Profile gibt es auf allen den Plattformen.
Während Experten mit Computerprogrammen Social Bots aufspüren, ist es für den Laien gar nicht so einfach, zwischen Mensch und Maschine zu unterscheiden. Am schnellsten erkennen Nutzer die Roboter, wenn sie sie in ein Gespräch verwickeln. „Sie können zwar etwas posten, das plausibel klingt, aber wenn man gezielt nachfragt, verstehen sie die Frage nicht und können nicht sinnvoll antworten“, sagt Simon Hegelich, Professor für Political Data Science an der Technischen Universität München. „Die meisten Programme, die momentan benutzt werden, überzeugen nur auf den ersten Blick. Sobald man sich mit ihnen beschäftigt, erkennt man das unnatürliche Verhalten“, fügt er hinzu.
Das Problem: Social Bots werden immer intelligenter. Laut Hegelich werden wir in fünf Jahren kaum noch unterscheiden können, ob wir mit Mensch oder Roboter diskutieren. Diesem technischen „Fortschritt“stünden Nutzer gegenüber, die erst lernen müssten, mit den neuen Möglichkeiten kritisch umzugehen, sagt Christian Schwarzenegger. Er ist Kommunikationswissenschaftler an der Universität Augsburg und hat festgestellt, dass bei vielen Diskussionen plötzlich das Thema gewechselt wird. Dann reden zum Beispiel alle über Flüchtlinge, obwohl die gar nichts mit dem ursprünglichen Artikel zu tun hatten. Manchmal reicht dann schon ein manipulativer Kommentar eines Roboters aus, um eine Hasstirade realer Nutzer auszulösen.
„Es geht darum, eine bestimmte Meinung massenhaft zu verbreiten, sodass der Eindruck erweckt wird, dass eine Position von mehr Menschen vertreten wird, als es wirklich der Fall ist“, sagt Schwarzenegger. Oder andersrum: Kritische Stimmen werden von einer Flut an Automaten-Kommentaren so überladen, dass die sinnvollen Inhalte dazwischen kaum noch zu finden sind und die echten Nutzer genervt sind. „So kann eine Debatte einfach abgetötet werden“, sagt er.
Schwarzenegger fürchtet langfristige Auswirkungen auf den demokratischen Diskurs. „Es kann dazu beitragen, dass wir die Meinung anderer diskreditieren, verlernen zuzuhören und die Regeln des demokratischen Austauschs verloren gehen.“Denn dieser lebt davon, über die Meinung des anderen nachzudenken. Je mehr diese falschen Profile zunehmen, desto mehr werde versucht, die Meinungen der Menschen zu steuern. Besonders bedenklich wird es, wenn sich Social Bots in Wahlkämpfe einmischen. Experten haben herausgefunden, dass rund 60 Prozent der „Anhänger“der US-Präsidentschaftskandidaten Hillary Clinton und Donald Trump auf Twitter in Wirklichkeit Social Bots sind. Den Auftraggeber zu identifizieren, sei schwierig, sagt Hegelich. Es ist nicht ausgeschlossen, dass die Wahlkampfteams der Politiker selbst dahinterstecken. Es können aber auch politische Aktivisten oder andere zwielichtige Personen sein, die dem Kandidaten schaden oder helfen wollen.
Und es gibt noch eine weitere Komponente: Werbemacher nutzen gezielt die Popularität von Personen, um Produkte oder Firmen zu vermarkten. „Bei 80 Prozent dieser Bot-Aktivitäten geht es nicht um politische Absichten, sondern darum, Werbung prominent zu platzieren“, sagt Hegelich.
Es geht also nicht nur um politische Stimmung. Hinter Social Bots steckt ein Markt. Es geht auch – oder vor allem? – um Geld.