Wer kontrolliert jene, die Bilder löschen?
Eine Expertin verlangt angesichts des „Formenwandels der Zensur“Institutionen, deren Entscheidungen für die Plattformen bindend sind.
Twitter blockt Trump. Autoritäre Regime sperren unliebsame Inhalte. Content-Moderation und Bilderkennungssoftware filtern, was in sozialen Medien nicht zu sehen sein soll. Die Kontrollformen im Netz sind vielfältig – bloß nach welchen Regeln funktionieren sie? Katja Müller-Helle, Leiterin der Forschungsstelle „Das Technische Bild“an der Humboldt-Uni Berlin, hat den „Formenwandel der Zensur“im Buch „Bildzensur“(Verlag Klaus Wagenbach) untersucht. Sie beschreibt, wie sich das staatliche Machtmonopol bei der Regulierung von Inhalten zunehmend in den Verantwortungsbereich von USMedienkonzernen verschiebt.
Die SN haben bei der Expertin nachgefragt, welche Möglichkeiten einer Kontrolle dieser „parastaatlichen“Infrastrukturen es geben kann. Beim privatwirtschaftlichen Machtmonopol gehe es einerseits darum, die Unternehmen in ihrer Rolle als Inhalte bereitstellende Plattformen stärker zur Verantwortung zu ziehen, sagt Müller-Helle.
Andererseits müssten effektive unabhängige Gremien geschaffen werden, welche die Entscheidungen über die Kriterien, was gezeigt oder gelöscht werden darf, regulieren, sagt sie: „Im europäischen Kontext steigt zwar der Druck auf Instagram & Co. durch das Netzwerkdurchsetzungsgesetz (NetzDG) oder den Digital Service Act, die im Kern auf verstärkte Medienregulierung und Transparenz der Kriterien bei der Veröffentlichung von Wort und Bild abzielen. Durchschlagend war ihr Erfolg bisher jedoch nicht.“
Entscheidend wäre, so MüllerHelle, die Etablierung unabhängiger Institutionen, deren Entscheidungen im Feld der Meinungs- und Kunstfreiheit für die großen Plattformen bindend sind: „Einen Anfang macht das Oversight Board von Facebook, ein unabhängiges Organ, welches die Entscheidungen der Plattform kontrollieren soll.“Ob eine fortgeschrittene KI die Fehleranfälligkeit der zunehmend automatisierten Lösch- und Sperrvorgänge – Bilder der Venus von Willendorf wurden etwa von Facebook blockiert – entschärfen kann? „Angesichts der Frage, was eine Gesellschaft als legitime Bilder ansieht und welche Bilder verboten werden sollten, geht es nicht primär um den Fortschritt von Technologien“, sagt Müller-Helle. Es bedürfe vielmehr einer abwägenden, längeren Betrachtung, die in manchen Bereichen letztlich nur von Menschen geleistet werden könne. Eine fundiertere Diskussion über globale Kriterien für die Beurteilung von Bildern wäre daher wünschenswert. Die Sichtbarkeit der Bilder sollte „nicht zu stark von automatisierten Prozessen abhängig gemacht werden“, betont sie.
Im Fall des vom Wiener Naturhistorischen Museum auf sozialen Medien geposteten Fotos der Venus von Willendorf sei in der algorithmischen Bilderkennung die Unterscheidung zwischen der Darstellung eines echten menschlichen Körpers und eines bildhistorischen Artefakts ins Leere gelaufen: „Das sollte uns aufhorchen lassen.“Facebook hatte bekanntlich nachträglich einen Fehler eingeräumt.