Thüringer Allgemeine (Arnstadt)
Was Facebook löscht – und was nicht
Interne Dokumente zeigen, nach welchen fragwürdigen Regeln beim weltgrößten Sozialen Netzwerk zensiert wird
Berlin.
Es geht um Kindesmissbrauch, Erpressung, Mobbing und Tierquälerei. Um Sätze wie diesen: „Ihr Arschlöcher solltet zu Gott beten, dass ich klar im Kopf bleibe, denn wenn nicht, werde ich Hunderte von euch töten.“Oder um die Aufforderung, den US-Präsidenten Donald Trump zu erschießen. Und immer geht es um die Frage: Hat das was im Internet zu suchen oder nicht? Was 1,9 Milliarden Facebook-Nutzer weltweit sehen dürfen und was nicht, regelt eine Art Handbuch. Teile daraus sind dem britischen „Guardian“zugespielt worden. Sie dokumentieren erstmals die Vorgaben, nach denen Inhalte geprüft und gelöscht werden sollen.
Schulungsunterlagen, Präsentationen, Diagramme mit Handlungsanweisungen: Auf Tausenden Seiten steht geschrieben, welche Inhalte ignoriert, gesperrt oder an Strafverfolger weitergeleitet gehören. Vom Löschpersonal werden schnelle Entscheidungen verlangt. Manchmal geht es um Leben oder Tod. Ein Beispiel: Suizidversuche. Facebook will Nutzern auch in Zukunft erlauben, solche Dramen live zu streamen. „Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie – diese zu entfernen könnte verhindern, dass sie gehört werden“, heißt es in den FacebookRegeln. Für die Sicherheit der Betroffenen sei es besser, wenn sie live mit ihren Zuschauern in Kontakt bleiben könnten. Die Aufnahmen würden deshalb erst entfernt, wenn es keine Möglichkeiten mehr gebe, der Person zu helfen.
Für die Mitarbeiter des Netzwerks führen die Bestimmungen oft zu absurden Abwägungen: So hält Facebook fest, dass Videos, die einen „gewaltsamen Tod eines Menschen zeigen und feiern, zu entfernen sind“. Was genau das Wort „feiern“bedeutet, hat Facebook in einem Extrakapitel definiert: Wenn derjenige, der das Video gepostet hat, sich gleichzeitig positiv über den Tod beziehungsweise die Ermordung äußert, gilt dies als „fei- ern“. Was im Video selbst geschieht, ist für die Definition jedoch nicht relevant. Videos, die den gewaltsamen Tod eines Menschen zeigen, ohne dass dieser nach den Regeln von Facebook „gefeiert“wird, können sichtbar bleiben, weil ein solches Video in der Firmenphilosophie von Facebook das Bewusstsein des Betrachters für das Thema schärfen könnte.
So musste eine Frau aus dem thailändischen Phuket, auf Facebook per Live-Video die Ermordung ihres Kindes mit ansehen – es dauerte 24 Stunden, bevor das Video gelöscht wurde. Facebook kennt die Probleme und will sie angehen. Doch der Konzern stößt an Grenzen. Das Problem sind auch die Arbeitsbedingungen, unter denen Angestellte bei Facebook und Drittfirmen über das Löschen entscheiden müssen.
Eine Recherche des „SZ-Magazins“deckte auf, dass allein in Berlin 600 Menschen beim Dienstleister Arvato angestellt sind, die im Auftrag von Facebook Inhalte prüfen – für ein Gehalt knapp über dem Mindestlohn und mit wenig psychologi- scher Unterstützung. Die allerdings wäre nötig, da viele der Mitarbeiter regelmäßig Fotos und Videos von Folter, Mord oder Kindesmissbrauch vor Augen haben.
„Die Leute auf Facebook zu halten, ist das Wichtigste, was wir tun“, sagte Monika Bickert, Managerin für die globale Facebook-Konzernstrategie, dieser Zeitung. Man arbeite „hart daran“, das Netzwerk „so sicher wie möglich zu machen und freie Rede zu ermöglichen“. Facebook werde nicht nur die Zahl der weltweiten Kontrolleu- re von 4500 auf 7500 erhöhen. Der Konzern werde auch Meldungen über verletzte Standards vereinfachen, um eine bessere Strafverfolgung zu ermöglichen.
„Facebook ist keine Hilfspolizei“, meint dagegen der Informationsrechtler Niko Härting. Nützlicher seien „mehr Personal und hochmoderne Computertechnik“für die Justiz, um Verstöße zu ahnden. Und: „Es werden Staatsanwälte und Richter gebraucht, die Beleidigungen nicht als Bagatellen behandeln und Strafverfahren vorschnell einstellen.“