Facebook verspricht T ransparenz: Ein regelmäßiger Bericht soll zeigen, wie man sich für die Nutzersicherheit einsetzt.
Ein regelmäßig veröffentlichter Bericht soll zeigen, wie sehr sich der Konzern für die Sicherheit seiner Nutzer einsetzt.
Was genau das soziale Netzwerk als „Inhalt“versteht, ist unklar. Grundsätzlich wird ein Facebook-Eintrag mit einem Text und drei Bildern als vier Inhalte gewertet. Werden zwei der Bilder entfernt, verzeichnet das System zwei gelöschte Inhalte. Sollte der Eintrag jedoch direkt gelöscht werden, zählt er als ein einziger Inhalt. In diesem Sinne seien 2018 knapp 2,5 Millionen Inhalte als Hassreden identifiziert worden. Ende 2017 lag die Zahl noch bei 1,6 Millionen, von denen Facebook selbst knapp 23,6 Prozent erkannte. Dieses Jahr waren es 38 Prozent – zufrieden sei das Unternehmen damit aber nicht. Die niedrige Rate zeige, dass auch sehr gute Such-Algorithmen nach wie vor schnell an ihre Grenzen gelangen. Daher, so Facebook, seien es auch immer noch Menschen, die im Fall von Hassreden darüber entscheiden, ob ein Beitrag gelöscht würde oder nicht.
Ein weiterer Verstoß gegen Facebooks Gemeinschaftsstandards ist die Darstellung von Gewalt. Dabei muss es sich nicht zwingend um reale Gewaltausübung handeln, auch besonders brutale oder realistische Simulationen sind verboten. Während Ende vergangenen Jahres etwa 0,2 Prozent der Beiträge solche Tendenzen aufwiesen, waren es 2018 ein wenig mehr: 0,25 Prozent. In anderen Worten enthalten von 10 000 geposteten Beiträgen auf Facebook aktuell also zwischen 22 und 27 Beiträge Darstellungen von Gewalt.
Mit seinem Report will Facebook nicht nur zeigen, dass es weltweit für Recht und Ordnung sorgt. Der Konzern stellt auch Datensätze von einzelnen Ländern zur Verfügung, aus denen hervorgehen soll, wie er mit deren Regierungen zusammenarbeitet. Die Zahlen zeigen, dass in Deutschland mehr Inhalte gesperrt werden als in den meisten anderen Ländern. Ganze 21 Millionen Beiträge soll Facebook im ersten Quartal dieses Jahres gelöscht haben, weil sie Nacktheit oder sexuelle Handlungen zeigten.
Davon noch einmal abzugrenzen sind Beiträge, die gelöscht werden, weil sie nationale Gesetze verletzen. Hierzulande wurden so etwa Beiträge gesperrt, in denen Nutzer den Holocaust leugneten, konkrete Personengruppen beleidigten oder gegen das Jugendschutzgesetz verstießen. Mit 1893 solcher Fälle liegt Deutschland im internationalen Vergleich auf Platz vier, hinter der Türkei, Mexiko und Indien.