Roboter als Meinungsmacher im Internet
Co mp uter-Pro gramme beeinflussen Diskussio nen in Fo ren und Netzwerken. Sie vo n echten Nutzern zu unterscheiden, wird immer schwieriger.
(dpa) Von Mensch zu Mensch zu kommunizieren, ist heute nicht mehr selbstverständlich. US-Forscher gehen davon aus, dass allein bei Twitter bis zu 15 Prozent der Nutzer-Konten automatisch von Software mit Beiträgen versorgt werden. Diese sogenannten Bots auszumachen, ist inzwischen schwierig. Wenn sie nicht ganz plump programmiert sind, sehen viele Bot-Profile auf den ersten Blick wie ganz normale Nutzer aus. Auch Erkennungsprogramme versagen. Lässt sich ihnen trotzdem auf die Schliche kommen?
Zunächst sollte man prüfen, wer dem angeblichen Konto-Inhaber überhaupt folgt. Denn Bot und Bot gesellt sich gern. Hilfreich kann es auch sein, Profilbild und -beschreibung genauer unter die Lupe zu nehmen. Ein aus dem Netz kopiertes Foto sei ebenso verdächtig wie eine fehlende oder sinnlose Profilbeschreibung, so das von der Landesmedienanstalt NordrheinWestfalen mitgetragene Portal „Handysektor.de“.
Ein Indiz dafür, dass hinter einem Konto ein Bot steht, kann sein, dass dessen Beiträge immer ähnliche Themen, Meinungen und Quellenverweise aufweisen. Bots posten zudem oft sehr viele Inhalte, führen aber kaum Dialoge oder stören sie gezielt, etwa mit Beleidigungen oder Provokationen. Verdächtig sind auch seltsamer Satzbau und wiederkehrende Grammatikfehler. Verteilt ein Konto massenhaft Likes, kann das „Handysektor .de“zufolge ein weiteres Indiz für einen Bot sein.
Können mehrere Dutzend Beiträge am Tag von einem einzigen Menschen stammen? Regelmäßig wird in diesem Zusammenhang die Zahl 50 genannt: Ab so vielen Beiträgen pro Tag habe man es wahrscheinlich mit einem Bot zu tun. „Das ist natürlich eine beliebige Definition. Es gibt auch Menschen, die so oft posten“, sagt der Wirtschaftsinformatiker Christian Grimme, der an der Uni Münster das Forschungsprojekt Propstop leitet, das Propaganda-Angriffe über Online-Medien untersucht. „Daran allein kann man es nicht festmachen.“Auf der Suche nach Gewissheit könne man etwa auch schauen, ob der Account einen menschlichen Tag-Nacht-Zyklus verfolgt. „Aber selbst das reicht nicht aus.“
Ein etwas verlässlicheres Merkmal ist die Reaktionszeit. Bots können rasend schnell reagieren, weil sie rund um die Uhr das jeweilige soziale Netzwerk nach den vom Programmierer vorgegebenen Schlüsselwörtern durchsuchen. Ganz plakativ zeigt das auf Twitter etwa der bekannte Bot-Account Pfannkuchenpolizei. Schreibt jemand in einem Beitrag das Wort „Berliner“, meldet der Bot sich umgehend mit einem Hinweis, dass der Berliner in Berlin nun einmal Pfannkuchen heißt.
Diese Anhaltspunkte sind allerdings allesamt nicht eindeutig. Zumal es längst Bots gibt, deren Entwickler versuchen, bekannte Erkennungsmerkmale zu vermeiden. Einige haben echte Profilbilder, setzen absichtlich nicht zu viele und nicht zu wenige Nachrichten ab und simulieren in ihrem Beitragsverhalten sogar menschliche Tagesabläufe, Denkpausen oder Nachtruhe, um nicht aufzufallen.
Automatisch lassen sich diese Bots oft nicht zuverlässig erkennen, sagt Christian Grimme. Von Social-BotPrüfseiten wie Botometer (Indiana University) oder Debot (University of New Mexico), die per Mustererkennung arbeiten, hält Grimme nicht viel. Im Rahmen des Propstop-Projektes haben die Wissenschaftler „unauffällige“Bots gebaut und die Konten zur Prüfung auf den Seiten angegeben. „Diese Verfahren haben auch bei unseren Bots weitgehend versagt“, fasst Grimme die Ergebnisse zusammen. Die Erkennungsraten hätten bei rund 50 Prozent gelegen. „Mit dieser Information kann ich natürlich nichts anfangen, ich muss mich dann doch hinsetzen und mir den Account selber angucken“, sagt der Informatiker. Einfach gestrickte Bots identifizierten die Prüfseiten relativ leicht. Das schaffen Menschen meist aber auch.
Immer wieder treten Bots nicht nur als Einzelkämpfer, sondern auch als ganze Armee auf, warnt Simon Hegelich, Professor für Political Data Science an der TU München. Solche Bot-Heere seien etwa bei Twitter entdeckt worden. Technisch sei das kein großes Problem. „Wer ein Programm hat, mit dem sich ein Bot steuern lässt, kann damit auch eine ganze Armee von Bots lenken.“
Eine hochwertige Software, mit der sich ein Verbund von bis zu 10 000 Twitter-Konten steuern lässt, ist Simon Hegelich zufolge für 500 US-Dollar (rund 425 Euro) zu haben. Fehlen nur noch Konten für die Bots. Aber auch die sind laut Hegelich käuflich: 1000 gefälschte Konten kosten zwischen 45 USDollar (38 Euro) für einfache Twitterund 150 US-Dollar (128 Euro) für Facebook-Konten.
Social Bots werden meist als vollständig automatisierte Programme wahrgenommen. „Ich glaube, das ist nur zum Teil wahr“, sagt Wirtschaftsinformatiker Christian Grimme. Oft sei nur ein Teil der Aktivität automatisiert, eben alles, was lästig ist. „Die andere Seite ist, Inhalte zu produzieren. Und Inhalte so zu produzieren, dass hinterher nicht mehr auffällt, dass dieser Account ein Bot ist.“Diese Aufgabe komme im Zweifel wieder einem Menschen zu, was automatische Erkennungsmethoden extrem erschwere.
Der Trend gehe in Richtung einer Hybridform: „Durch die Entwicklung unserer eigenen Bots konnten wir zeigen, dass das nicht besonders schwer ist“, sagt Christian Grimme. „Der Aufwand dafür ist nicht mehr als drei, vier Tage Entwicklungsarbeit.“Auch die Idee, Bots mit komplexen Fragen, auf die keine adäquate Antwort zurückkommt, zu enttarnen, greift daher unter Umständen zu kurz, meint der Wissenschaftler. „Wenn es ein hybrides System ist, könnte ich das als Bot-Betreiber einfach umgehen, indem ich tatsächlich auch selbst antworte.“