Schwäbische Zeitung (Alb-Donau)
Christchurch-Video zeigt Grenzen von Online-Kontrollen
Das soziale Netzwerk Facebook hat das Video bereits 1,5 Millionen Mal gelöscht – Ganz lässt es sich nicht verbannen
BERLIN/CHRISTCHURCH (dpa) Das äußerst brutale Video des Anschlags auf zwei Moscheen in Neuseeland ist schwer aus dem Netz zu bekommen. Der Fall zeigt, wie schwer es ist, die Verbreitung solcher Videos im Internet zu kontrollieren.
Wie gehen Online-Plattformen gegen Videos mit unerlaubten Inhalten vor?
Ursprünglich waren die Unternehmen auf Hinweise angewiesen. Inzwischen setzen sie auch Software dafür ein: um Kinderpornografie oder Gewalt automatisch zu erkennen, aber auch, um Datenbanken für Fotos und Videos anzulegen, die bereits entdeckt wurden. Darin wird eine Art digitaler Fingerabdruck der Dateien gespeichert. Ziel ist, sie bei einem erneuten Hochladen sofort wiederzuerkennen und zu entfernen.
Wie gut funktionierte das System im Fall Christchurch?
Der Angreifer hatte seine Bluttat per Facebook live übertragen, der Plattform des Online-Netzwerks, auf der jeder Videobilder in Echtzeit ins Netz bringen kann. Facebook löschte das 17-minütige Video nach einem Hinweis der Polizei. Aber zuvor schon hatten Nutzer Mitschnitte davon gemacht, die sie zum Beispiel auf Youtube hochluden.
Um welches Ausmaß geht es?
Allein Facebook entfernte nach eigenen Angaben von Sonntag 1,5 Millionen Videos – und zwar nur in den ersten 24 Stunden. In 1,2 Millionen Fällen wurde dabei schon das Hochladen unterbunden. „Wir arbeiten rund um die Uhr daran“, sagte eine Sprecherin. Facebook-Chefin Sheryl Sandberg war dazu mit Neuseelands Premierministerin Jacinda Ardern in Kontakt. Dort will man nun prüfen, wie das künftig verhindert werden kann.
Schafft man es, das Video aus dem Netz zu verbannen?
Nein. Denn selbst wenn die InternetRiesen Facebook, Youtube und Twitter erfolgreich sind – es gibt auch andere Plattformen, die wenig dagegen unternehmen. Aus Sicht von Kritikern machen die US-Konzerne grundsätzlich viel zu wenig. Tatsächlich wird die Kontrolle oft auf SubUnternehmer ausgelagert, die Leute zu Billiglöhnen in ärmeren Ländern beschäftigen. Ein Zentrum davon ist Manila, die Hauptstadt der Philippinen. Dort sind viele Tausend „Cleaner“von früh bis spät beschäftigt, derartiges Material aus dem Internet zu entfernen.
Was sagt der Fall über die Fähigkeiten der Dienste aus, verbotene Inhalte fernzuhalten?
Es ist schier unmöglich, die Masse ständig neu geteilter Inhalte von Menschen kontrollieren zu lassen. Facebook ist aber noch nicht so weit, dies komplett einer Software überlassen zu können. Auch bei Youtube offenbarten sich Defizite der Software.
Woran liegt das?
Ein Problem dürfte sein, dass Algorithmen immer noch ausgetrickst werden können – zum Beispiel wenn jemand Änderungen an den Bildern vornimmt. Eine weitere Herausforderung ist, dass Fragmente aus solchen Videos auch in Medienberichten enthalten sein können, die nicht gelöscht werden sollen. Heute muss noch fast immer ein Mensch den Kontext bewerten.
Was könnten die Folgen sein?
Die Online-Plattformen stehen schon seit Jahren unter massivem Druck aus der Politik, Beiträge mit Gewalt, Hassrede oder Terrorpropaganda schneller zu entfernen. Sie verweisen immer wieder darauf, wie viel besser das inzwischen funktioniert, und dass viele Inhalte schnell gelöscht werden.