Schwäbische Zeitung (Alb-Donau)
Kritik an Facebooks Suizidbekämpfung
Mit Hilfe künstlicher Intelligenz fahndet das Netzwerk nach Hinweisen
KÖLN (KNA) - 42 Minuten dauerte das Video, auf dem eine zwölfjährige Amerikanerin 2017 ihren Suizid auf Facebook live streamte. Bereits am Tag zuvor soll sie in ihrem OnlineTagebuch ihren Stiefvater beschuldigt haben, sie geschlagen zu haben.
Rund 9800 Menschen haben sich 2016 in Deutschland das Leben genommen, darunter 205 Jugendliche im Alter zwischen 15 und 20 Jahren. Menschen, die ihren Tod planen, kündigen ihn oft vorher an. Auch in sozialen Netzwerken. Für Facebook ist das ein Image-Schaden.
Seit Längerem engagiert sich Facebook in der Prävention von Selbsttötungen. Nutzer werden aufgerufen, andere zu melden, wenn sie Suizidabsichten vermuten. Seit 2017 verwendet Facebook auch künstliche Intelligenz, um Suizide zu verhindern. Ein Algorithmus scannt Beiträge auf verdächtige Hinweise und meldet Personen mit Suizidrisiko an einen Mitarbeiter. Dieser kann der Person Hilfsangebote wie Telefonnummern oder Adressen zukommen lassen oder kann sich an Behörden oder die Polizei wenden. Facebook-Chef Mark Zuckerberg erklärte im November, die Warnungen hätten weltweit zu 3500 Einsätzen von Ersthelfern geführt.
Das Engagement weckt zugleich Misstrauen. Handelt Facebook wirklich so selbstlos? Wer kann die sensiblen Daten nutzen? Facebook verrät nicht, nach welchen Kriterien gesucht wird. Und Zuckerberg hat angekündigt, dass man auch terroristische Propaganda mit solcher Technik ausfindig machen wolle. Kontrolle? Fehlanzeige. Am Montag meldeten deutsche Ethikexperten und Wissenschaftler Bedenken an. Sie forderten mehr Datenschutz und wissenschaftliche Nachweise dafür, dass das Programm mehr nutzt als schadet. Aus Sicht des Paderborner Philosophen und Informatikers Tobias Matzner wird deutlich, welch intimes Wissen Firmen inzwischen erlangen können. „Dass hier ein hehrer Zweck verfolgt wird, sollte nicht davon ablenken, dass dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten.“Laut amerikanischen Medien überprüfe Facebook nicht einmal, ob die Alarme zutreffend waren.
Ziemlich eindeutig äußerte sich die Vorsitzende des Europäischen Ethikrates (EGE), Christiane Woopen: Sie hielt Facebook vor, ohne Einwilligung der Kunden zu handeln und die Privatsphäre zu verletzen. „Das ist ethisch nicht vertretbar.“Auf jeden Fall müsse sich das Unternehmen an die wissenschaftlichen Standards für Screeningverfahren halten. „Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind“, so die Professorin für Ethik und Theorie der Medizin an der Universität zu Köln.
Eine Facebook-Sprecherin erklärte am Dienstag, die Tools kämen „bislang“in der EU nicht zur Anwendung. „Wir arbeiten seit mehr als zehn Jahren an dem Thema Suizidprävention und werden uns auch weiterhin mit Experten dazu austauschen, was für Menschen in derartigen Notsituationen hilfreich ist“, fügte sie hinzu. Jeder Nutzer könne Inhalte melden, wenn jemand mit Suizid oder Selbstverletzung verbundene Inhalte poste.