Wie viel Verantwortung tragen soziale Medien?
Nachdem das Tatvideo vom Massaker in neuseeländischen Moscheen in voller Länge von Facebook-usern angeschaut und unzählige Male geteilt wurde, steht die soziale Plattform unter heftigster Kritik. Wie weit reichen die realistischen Möglichkeiten der Kontrolle heute?
Während sich Neuseelands Premierministerin Jacinda Ardern (siehe Porträt auf Seite 3) weiter nach Kräften bemüht, einende Stärke zu zeigen und ihre traumatisierte Heimat wieder aufzurichten, brennen auch andere Fragen weiter: Wie konnte es sein, dass der Massenmord von Christchurch live auf Facebook übertragen und in voller Länge – es waren immerhin 17 Minuten – von unzähligen Usern angeschaut werden konnte? Wo beginnt die Verantwortung solcher Plattformen, wo darf diese keinesfalls enden?
Facebook hat nach eigenen Angaben in den ersten 24 Stunden nach dem Anschlag auf zwei Moscheen in Christchurch 1,5 Millionen Videos der Tat aus sozialen Netzwerk gelöscht: „Wir arbeiten weiter rund um die Uhr, um gegen die Regeln verstoßende Inhalte zu entfernen“, ließ Facebook Neuseeland ein wenig zu trocken und leidlich zufriedenstellend wissen. Das Video, in dem der Täter sich inszeniert und skrupellos mordet, wurde von unzähligen Usern verbreitet, flugs auch auf Youtube hochgeladen – und kursiert indes weiter im Netz. Als Kopie, als Original und in bearbeiteten Versionen.
Bis vor einigen Jahren waren die Global Players darauf angewiesen, dass sie jemand auf indiskutable Inhalte hinweist. Seit einiger Zeit wird auch Software eingesetzt, um Kinderpornografie oder Gewalt automatisch zu erkennen. Zudem werden Datenbanken für jene Fotos und Videos angelegt, die bereits ent- deckt wurden. Darin wird eine Art digitaler Fingerabdruck der Dateien gespeichert – werden solche Dateien hochgeladen, sollen sie wiedererkannt und in weiterer Folge entfernt werden.
weiter auf menschliche Kontrolle und stockte dafür die Kapazitäten auf: Die Anzahl der Mitarbeiter in Löschzentren, die verbotene Inhalte entfernen, stieg bis Ende 2018 binnen eines Jahres um 45 Prozent auf gut 33.600. Er verliere aber das Gleichgewicht von Kosten und Einnahmen nicht aus den Augen, versicherte Facebook-boss Mark Zuckerberg zugleich aufmerksamen Analysten. Auf wiederkehrende Kritik kontern Facebook und andere Plattformen mit dem Hinweis, dass es sehr wohl Fortschritte gebe: Beiträge mit Gedem walt, Hassreden oder Terrorpropaganda würden rascher als früher gelöscht, oft schneller, als sie User zu Gesicht bekämen. Doch auch im aktuellen Fall mehrt sich Kritik am obersten Netzwerker: „Mark Zuckerberg, vier Tage danach ist Ihr Schweigen zu Christchurch ohrenbetäubend“, fragt etwa die Online-plattform „The Spinoff “nach der oft beschworenen „moralischen Verantwortung“des Datenkraken. Man baue nicht mehr auf Versprechen, wonach bald Mittel zur Beseitigung aller bedenklichen Inhalte bereitstehen. Faktum ist: Den ultimativen Suchalgorithmus für Bild- oder Videoerkennung im Netz gibt es (noch) nicht.
„Alles zu kontrollieren ist unmöglich, aber es wäre möglich, viel mehr und mit viel besserer Qualität zu kontrollieren, wenn