Vom Suchen nach „gefährlichen“Inhalten
Ein „Content Moderator“der Firma Bytedance erklärt, wie Zensur in China funktioniert
Li An hat sich nie wohl dabei gefühlt, Familienmitgliedern und Freunden von seinem ehemaligen Beruf zu erzählen. Viele seiner Kollegen hatten Journalismus studiert, sind hochgebildet und würden sich als politisch liberal beschreiben. Und dennoch halfen sie als sogenannte „Content Moderators“für das Pekinger Tech-Unternehmen Bytedance dabei, politisch sensible Inhalte zu unterdrücken. „Wir fühlten alle, dass wir nichts dagegen tun konnten“, sagte Li, der unter einem Pseudonym gegenüber dem US-Fachmedium „Protocol“erstmals Einblicke in den Zensurapparat gibt.
Ein Paralleluniversum
Nirgendwo ist dieser umfangreicher als in der Volksrepublik. Bereits heute ist das Internet in China ein regelrechtes Paralleluniversum: Weder lassen sich Plattformen wie Twitter und Facebook nutzen, Google und Wikipedia aufrufen oder Nachrichtenseiten wie die „New York Times“lesen. Und wer auf heimischen Suchmaschinen über das Tiananmen-Massaker 1989 recherchiert, wird keine Resultate finden.
2017 hat schließlich ein CyberSicherheitsgesetz die Verantwortung vornehmlich auf private Tech-Firmen delegiert, ihre Inhalte nach Gesetzeskonformität zu überprüfen. Soziale Medien, die illegale Inhalte publizieren, müssen mit drakonischen Geldstrafen rechnen sowie dem Entzug ihrer Betriebslizenz. Natürlich sind solche Gesetze sinnvoll und weltweit üblich, allein schon, um gezielte Falschmeldungen oder Hassaufrufe zu vermeiden. In China schwingt immer jedoch auch die politische Komponente mit: Schließlich landen regelmäßig Blogger im Gefängnis, etwa weil sie etwa den
Machtanspruch der Kommunistischen Partei in Frage stellen oder von Menschenrechtsverbrechen berichten.
Für Bytedance, Pekings wohl erfolgreichstes Start-up, das international die Videoplattform „Tiktok“betreibt, arbeiten rund 50 Software-Ingenieure, die hauptsächlich Algorithmen programmieren, um automatisch „illegale“Inhalte zu identifizieren – das können etwa pornografische Videos sein, raubkopierte Filmmitschnitte oder aber politisch sensible Diskussionen.
Zusätzlich zum technischen Team hat das Start-up rund 20 000 sogenannte Moderatoren, die auf der untersten Ebene darüber entscheiden, ob bestimmte Nutzer gegen die Richtlinien verstoßen.
Diese sind entweder fest angestellt oder freie Mitarbeiter.
Täglich neue Direktiven
Ohne technische Hilfsmittel würden sie den über 500 Millionen Nutzern in China, die täglich Videos anschauen und hochladen, ohnmächtig gegenüberstehen. Ein Trick, den die Moderatoren anwenden, ist beispielsweise, bestimmte, als „problematisch“eingestufte Protovideos in die Datenbank zu werfen, welche dann automatisch ähnliche Videoinhalte identifizieren. Bei sämtlichen Livestreams wird zudem die Audiospur der Nutzer automatisch in eine Textdatei umgewandelt. Diese wird dann mithilfe eines technischen Algorithmus abgeglichen auf „sensible“Schlagwörter.
Basierend darauf entscheidet dann das Programm, ob ein Videostream individuelle Überwachung erfordert oder nicht. Die Entscheidung, ob Inhalte gesperrt werden, wird nach wie vor von einem Menschen getroffen. Die Direktiven dafür, wo die Grenzen des Sagbaren verlaufen, werden täglich neu in den Direktiven der Cyberspace-Behörde ausgegeben.
„Was chinesische Nutzer-Plattformen am meisten fürchten, ist es zu versäumen, politisch sensible Inhalte zu löschen“, sagt der ehemalige Bytedance-Zensor Li An. Das junge Start-up, dessen 37-jähriger Gründer Zhang Yiming kein Parteimitglied ist, verfügt zudem über kein ausgeprägtes Netzwerk zu hochrangigen Kadern in Peking. Ein politischer Skandal kann schnell zum unternehmerischen Tod führen.
Doch manchmal schätzen die Zensoren des Landes die Lage auch falsch ein. Der bisher größte öffentliche Aufschrei auf Chinas sozialen Medien ereignete sich am 7. Februar 2020 mit dem tragischen Covid-Tod vom „Whistleblower-Arzt“Li Wenliang. Li war von den Sicherheitsbehörden zum Schweigen über den neuartigen Lungenerreger gezwungen worden.
Ein Ventil für den Frust
Nach seinem Tod erfuhren Hunderttausende chinesische Internetnutzer selbst jene Ohnmacht gegenüber dem Zensurapparat. Zunächst wurde es den Online-Medien verboten, via Push-Benachrichtigungen über die tragische Nachricht zu informieren oder diese prominent auf sozialen Medien zu platzieren.
Trotzdem verbreiteten sich innerhalb weniger Stunden nicht nur Trauerbekundungen über Lis Tod, sondern auch Hashtags wie „Wir wollen Pressefreiheit“, die jedoch schon rasch wieder gelöscht wurden. Die Online-Gemeinde überlistete schließlich das System mit kreativen Codewörtern und Emojis, die für die Algorithmen nicht sofort als Protest zu entschlüsseln waren.
Ob die Zensoren schlicht von der Flut an Kommentatoren überwältigt waren, ist fraglich. Wesentlich wahrscheinlicher passierte, was viele China-Beobachter als „Kochtopf-Metapher“bezeichnen: Die chinesische Zensur ist nämlich nur deshalb so effizient, weil sie stets ein gewisses Ventil zum Ablassen des öffentlichen Frusts offenlässt. Genau wie bei einem Kochtopf wird der Deckel hin und wieder einen Spalt offengelassen – genau so weit, dass das kochende Wasser nicht überläuft.