Wie der Apparat zensuriert
Überwachung. Ein sogenannter „Moderator“packte über Methoden aus, wie die Volksrepublik mittels privater TechFirmen unliebsame Inhalte aus den sozialen Medien tilgt.
Ein sogenannter Moderator packte über Methoden aus, wie die Volksrepublik mittels privater Techfirmen unliebsame Inhalte aus den sozialen Medien tilgt.
Peking. Li An hat sich nie wohl dabei gefühlt, Familienmitgliedern und Freunden von seinem früheren Beruf zu erzählen. Viele seiner Kollegen hatten Journalismus studiert, sind hochgebildet und würden sich als politisch liberal beschreiben. Und dennoch halfen sie als sogenannte „content moderators“für das Pekinger Tech-Unternehmen „Bytedance“dabei, politisch sensible Inhalte zu unterdrücken. „Wir fühlten alle, dass wir nichts dagegen tun konnten“, sagte Li, der unter einem Pseudonym gegenüber dem US-Fachmedium „Protocol“erstmals Einblicke in den umfassenden Zensurapparat gab.
Bereits heute ist das Internet in China ein Paralleluniversum: Weder lassen sich Plattformen wie Twitter und Facebook nutzen, Google und Wikipedia aufrufen noch Nachrichtenseiten wie die „New York Times“lesen. Und wer auf chinesischen Suchmaschinen über das Tiananmen-Massaker 1989 recherchiert, wird keine Resultate finden.
2017 hat schließlich ein Cyber-Sicherheitsgesetz die Verantwortung vornehmlich an private Tech-Firmen delegiert, ihre Inhalte auf Gesetzeskonformität zu überprüfen. Soziale Medien, die illegale Inhalte publizieren, müssen mit drakonischen Geldstrafen sowie dem Entzug ihrer Betriebslizenz rechnen. In China schwingt immer die politische Komponente mit: Schließlich landen regelmäßig Blogger im Gefängnis, weil sie etwa den Machtanspruch der Kommunistischen Partei in Frage stellen oder von Menschenrechtsverbrechen berichten.
20.000 Online-Wächter
Für Bytedance, Pekings wohl erfolgreichstes Start-up, das international die Videoplattform TikTok betreibt, arbeiten rund 50 Software-Ingenieure, die hauptsächlich Algorithmen programmieren, um automatisch „illegale“Inhalte zu identifizieren – Pornofilme, raubkopierte Filmmitschnitte oder politisch sensible Diskussionen. Zusätzlich zum technischen Team hat die Firma rund 20.000 sogenannte Moderatoren, die auf der untersten Ebene darüber entscheiden, ob Nutzer gegen die Richtlinien verstoßen.
Ohne technische Hilfsmittel würden sie den über 500 Millionen Nutzern in China, die täglich Videos anschauen und hochladen, ohnmächtig gegenüberstehen.
Ein Trick, den die Moderatoren anwenden, ist es beispielsweise, bestimmte als „problematisch“eingestufte Protovideos in die Datenbank zu werfen, die dann automatisch ähnliche Videoinhalte identifizieren.
Bei sämtlichen Live-Streams wird zudem die Audiospur der Nutzer automatisch in eine Textdatei umgewandelt. Diese wird mithilfe eines technischen Algorithmus auf „sensible“Schlagwörter überprüft. Auf dieser Basis entscheidet das Programm, ob ein Videostream individuelle Überwachung erfordert oder nicht. Die Entscheidung, ob Inhalte gesperrt werden, wird nach wie vor von einem Menschen getroffen. Die Direktiven dafür, wo die Grenzen des Sagbaren verlaufen, werden täglich neu von der CyberspaceBehörde vorgegeben.
„Was chinesische Nutzerplattformen am meisten fürchten, ist es zu versäumen, politisch sensible Inhalte zu löschen“, sagt der ehemalige Bytedance-Zensor Li An. Das junge Start-up, dessen 37-jähriger Gründer Zhang Yiming kein Parteimitglied ist, verfügt zudem über kein ausgeprägtes Netzwerk zu hochrangigen Kadern in Peking. Ein politischer Skandal kann schnell zum unternehmerischen Tod führen.
Doch manchmal schätzen die Zensoren des Landes die Lage auch falsch ein. Der bisher größte öffentliche Aufschrei auf Chinas sozialen Medien ereignete sich, als das Zentralkrankenhaus Wuhan den tragischen Covid-Tod des „Whistleblower-Arzts“Li Wenliang bekannt gab. Als die Regierung Nachrichten über den neuartigen Lungenerreger zensierte, hatte Li Ende Dezember 2019 in einem Gruppenchat seine Kollegen vor dem neuen Coronavirus gewarnt – und wurde wenig später von den Sicherheitsbehörden zum Verhör geladen, wo er eine Art Schweigegelübde unterschreiben musste.
Die „Kochtopf-Metapher“
Nach seinem Tod erfuhren Hunderttausende chinesische Internetnutzer selbst jene Ohnmacht gegenüber dem Zensurapparat. Zunächst wurde es den Onlinemedien verboten, via Push-Benachrichtigungen über dessen Tod zu informieren oder ihn prominent auf sozialen Medien zu platzieren. Trotzdem verbreiteten sich innerhalb weniger Stunden nicht nur Trauerbekundungen, sondern auch Hashtags wie „Wir wollen Pressefreiheit“, die jedoch rasch gelöscht wurden. Die Onlinegemeinde überlistete schließlich das System mit kreativen Codewörtern und Emojis, die für die Algorithmen nicht sofort als Protest zu entschlüsseln waren.
Ob die Zensoren von der Flut an Kommentatoren überwältigt waren, ist fraglich. Wahrscheinlicher passierte das, was viele China-Beobachter als „Kochtopf-Metapher“bezeichnen: Die chinesische Zensur ist nämlich nur deshalb so effizient, weil sie stets ein gewisses Ventil zum Ablassen des öffentlichen Frusts offenlässt. Genau wie bei einem Kochtopf wird der Deckel hin und wieder einen Spalt offengelassen – genau so weit, dass das kochende Wasser nicht überläuft.