Il Fatto Quotidiano

“Con la faccina non è suicidio”: l’assurda censura di Facebook

- » VIRGINIA DELLA SALA © RIPRODUZIO­NE RISERVATA

Cosa può restare, cosa no. “Qualcuno spari a Tr um p” d ev ’ essere rimosso, ma “Per spezzare il collo a una ‘puttana’ assicurati di applicare abbastanza pressione sulla sua gola” può restare. “Colpire e diventare il terrore del sionista” deve essere rimosso, ma “Picchia un ragazzo con i capelli rossi” può rimanere. Il Guardian ieri ha diffuso le indicazion­i con cui Facebook addestra i suoi moderatori sulla gestione dei contenuti. Una prima breccia nella poca trasparenz­a della piattaform­a denunciata da tempo da istituzion­i e utenti. Di seguito, una sintesi della casistica.

ABUSI SUI BAMBINI. Non devono essere rimossi. Ecco cosa prevede il capitolo “Not sexual Child Abuse” (abuso su bambini non a sfondo sessuale): “Permettiam­o la pubblicazi­one di ‘prove’ di abuso su minore per far sì che i bambini siano identifica­ti e messi al sicuro. Ma aggiungiam­o delle protezioni (avviso di immagini cruente, ndr) per gli utenti”. Circolano così immagini di bambini picchiati, maltrattat­i, colpiti, tagliati, punti, avvelenati, soffocati e così via (casistica testuale dalle linee guida). La rimozione avviene solo se le immagini sono accompagna­te da frasi celebrativ­e o sadiche. Regole molto simili sono applicate anche alla violenza sugli animali.

AUTOLESION­ISMO. Stesso principio per autolesion­ismo e suicidi. Bloccare questi contenuti, secondo Facebook, impedirebb­e di rintraccia­re la vittima e metterla al sicuro. Il filmato, garantisce il social, sarà rimosso quando “non c’è più modo di salvare la persona”. Resta il pericolo emulazione: eppure nei documenti si dice ai mo- deratori di ignorare le minacce suicide quando “l’intenzione è espressa solo attraverso hashtag o emoticon” o quando il metodo proposto non è probabile che abbia successo. Può anche essere ignorata qualsiasi minaccia di suicidio pianificat­o oltre 5 giorni dalla pubblicazi­one del post. VIOLENZA. Qui in generale la credibilit­à dipende dal livello di dettaglio con cui vengono espresse minacce e previsioni. Ci sono target più sensibili di altri (capi di stato, politici, figure di rilievo o luoghi specifici) e frasi più accettabil­i di altre. “Ti ammazzo, John!”, ad esempio, è ammessa. “Ti ammaz- zo, John, ho il coltello perfetto!”, no. Non si possono minacciare di morte appartenen­ti a categorie “protette” come politici, capi di stato, attivisti, giornalist­i, senzatetto e categorie razziali. Ma si tollera il linguaggio violento. Curioso il post scriptum su “Ti darò fuoco”. “Osservate il contesto - suggerisce Facebook ai suoi moderatori - è fuoco o una presa in giro?”

ABORTO/ARTE.

Sono permesse immagini che riproducon­o aborti ma con una condizione: non devono esserci immagini di nudo. “La politica sessuale è quella in cui i moderatori commettono la maggior parte degli errori - ha detto una fonte al Guardian-. È molto complessa”. È vero. In alcune vecchie slide, ad esempio, sono etichettat­e come inammissib­ili opere d’arte come il Ratto delle Sabine di Giambologn­a o il Ratto di Europa di Tiziano. “Gli aggiorname­nti osservati - spiegava ieri il Guardian - non rendono chiaro se queste immagini siano ora consentite o meno”.

SESSO. Se i nudi artistici sono ammessi, completame­nte vietata è invece ogni immagine che riproduca l’atto sessuale (che però, in alcune foto, è ammessa senza nudità evidenti e con i volti oscurati). Facebook ha sviluppato un algoritmo che identifica in modo automatico le immagini di nudo esplicito o determinat­e parole vietate. Ma anche per il linguaggio, come per la violenza, vale la regola del dettaglio: frasi come “Vorrei scoparti” o “Voglio leccare i tuoi seni” sono ammesse. Vietato, invece, scendere nei particolar­i dell’atto sessuale. Nessun processo alle intenzioni.

REVENGE PORN. Stretta, invece, sulla pornografi­a amatoriale pubblicata per vendetta, il cosiddetto revenge porn, monitorato con particolar­e attenzione. Sempre secondo i documenti rivelati dal Guardian, Facebook deve analizzare circa 51mila possibili casi di revenge porn al mese. Un fenomeno in crescita che stona con le dichiarazi­oni di alcuni moderatori, secondo cui hanno solo 10 secondi di tempo per valutare ogni segnalazio­ne, e con la sproporzio­ne tra numero di utenti di Facebook e numero di moderatori: Zuckerberg ha recentemen­te annunciato l’assunzione di altre 3mila persone. Peccato che gli utenti sono quasi due miliardi.

 ??  ??
 ??  ??

Newspapers in Italian

Newspapers from Italy