“Con la faccina non è suicidio”: l’assurda censura di Facebook
Cosa può restare, cosa no. “Qualcuno spari a Tr um p” d ev ’ essere rimosso, ma “Per spezzare il collo a una ‘puttana’ assicurati di applicare abbastanza pressione sulla sua gola” può restare. “Colpire e diventare il terrore del sionista” deve essere rimosso, ma “Picchia un ragazzo con i capelli rossi” può rimanere. Il Guardian ieri ha diffuso le indicazioni con cui Facebook addestra i suoi moderatori sulla gestione dei contenuti. Una prima breccia nella poca trasparenza della piattaforma denunciata da tempo da istituzioni e utenti. Di seguito, una sintesi della casistica.
ABUSI SUI BAMBINI. Non devono essere rimossi. Ecco cosa prevede il capitolo “Not sexual Child Abuse” (abuso su bambini non a sfondo sessuale): “Permettiamo la pubblicazione di ‘prove’ di abuso su minore per far sì che i bambini siano identificati e messi al sicuro. Ma aggiungiamo delle protezioni (avviso di immagini cruente, ndr) per gli utenti”. Circolano così immagini di bambini picchiati, maltrattati, colpiti, tagliati, punti, avvelenati, soffocati e così via (casistica testuale dalle linee guida). La rimozione avviene solo se le immagini sono accompagnate da frasi celebrative o sadiche. Regole molto simili sono applicate anche alla violenza sugli animali.
AUTOLESIONISMO. Stesso principio per autolesionismo e suicidi. Bloccare questi contenuti, secondo Facebook, impedirebbe di rintracciare la vittima e metterla al sicuro. Il filmato, garantisce il social, sarà rimosso quando “non c’è più modo di salvare la persona”. Resta il pericolo emulazione: eppure nei documenti si dice ai mo- deratori di ignorare le minacce suicide quando “l’intenzione è espressa solo attraverso hashtag o emoticon” o quando il metodo proposto non è probabile che abbia successo. Può anche essere ignorata qualsiasi minaccia di suicidio pianificato oltre 5 giorni dalla pubblicazione del post. VIOLENZA. Qui in generale la credibilità dipende dal livello di dettaglio con cui vengono espresse minacce e previsioni. Ci sono target più sensibili di altri (capi di stato, politici, figure di rilievo o luoghi specifici) e frasi più accettabili di altre. “Ti ammazzo, John!”, ad esempio, è ammessa. “Ti ammaz- zo, John, ho il coltello perfetto!”, no. Non si possono minacciare di morte appartenenti a categorie “protette” come politici, capi di stato, attivisti, giornalisti, senzatetto e categorie razziali. Ma si tollera il linguaggio violento. Curioso il post scriptum su “Ti darò fuoco”. “Osservate il contesto - suggerisce Facebook ai suoi moderatori - è fuoco o una presa in giro?”
ABORTO/ARTE.
Sono permesse immagini che riproducono aborti ma con una condizione: non devono esserci immagini di nudo. “La politica sessuale è quella in cui i moderatori commettono la maggior parte degli errori - ha detto una fonte al Guardian-. È molto complessa”. È vero. In alcune vecchie slide, ad esempio, sono etichettate come inammissibili opere d’arte come il Ratto delle Sabine di Giambologna o il Ratto di Europa di Tiziano. “Gli aggiornamenti osservati - spiegava ieri il Guardian - non rendono chiaro se queste immagini siano ora consentite o meno”.
SESSO. Se i nudi artistici sono ammessi, completamente vietata è invece ogni immagine che riproduca l’atto sessuale (che però, in alcune foto, è ammessa senza nudità evidenti e con i volti oscurati). Facebook ha sviluppato un algoritmo che identifica in modo automatico le immagini di nudo esplicito o determinate parole vietate. Ma anche per il linguaggio, come per la violenza, vale la regola del dettaglio: frasi come “Vorrei scoparti” o “Voglio leccare i tuoi seni” sono ammesse. Vietato, invece, scendere nei particolari dell’atto sessuale. Nessun processo alle intenzioni.
REVENGE PORN. Stretta, invece, sulla pornografia amatoriale pubblicata per vendetta, il cosiddetto revenge porn, monitorato con particolare attenzione. Sempre secondo i documenti rivelati dal Guardian, Facebook deve analizzare circa 51mila possibili casi di revenge porn al mese. Un fenomeno in crescita che stona con le dichiarazioni di alcuni moderatori, secondo cui hanno solo 10 secondi di tempo per valutare ogni segnalazione, e con la sproporzione tra numero di utenti di Facebook e numero di moderatori: Zuckerberg ha recentemente annunciato l’assunzione di altre 3mila persone. Peccato che gli utenti sono quasi due miliardi.