L’OCCHIO DELLA RETE
Chi garantisce che la bella libertà non diventi anarchia minacciosa? L’ascolto della voce digitale di miliardi di persone e la moderazione degli eccessi spetta a utenti, piattaforme, Polizia Postale, magistratura, autorità nazionali e internazionali. Ecco
ANNA T. È UNA GIOVANE EBREA ITALIANA. Trova, a commento di un post sulla sua pagina Facebook, un violento attacco antisemita. Che può fare? Gianluca V. tiene un blog dove tratta di immigrazione e posta i link su Twitter. Qui inizia a ricevere minacce dall’account anonimo @vendikator («Aiuti i negri! Ti ammazzo, prima o poi, bastardo!»). Che può fare? Maria B., si accorge che un suo conoscente, Luca F., pubblica su YouTube video in cui incita alla violenza e al terrorismo «contro l’Occidente globalizzato». Che può fare? Valentina S. è stata vittima di stupro dieci anni fa e quando ricerca il suo nome su Google trova ancora diversi link di articoli di giornale che parlano del fatto.Vorrebbe che il suo nome non fosse più associato a quell’esperienza. Che può fare?
Sono casi esemplari, indicano una tensione che va capita e una questione che va risolta: qualcuno misura la nostra voce in Rete? Da un lato, c’è la volontà delle persone di ottenere giustizia, di veder eliminato un contenuto ritenuto violento, di incitamento all’odio, osceno o diffamante. Dall’altro, c’è la natura delle piattaforme online e dei social network.
L’impegno verso un maggiore controllo sui contenuti (qualsiasi azione avviene su segnalazione degli utenti o su richiesta dell’Autorità), non cambia il dato di fatto: queste aziende sono degli intermediari, non possono controllare tutti i contenuti postati in Rete e non vogliono sostituirsi a un giudice. Ciononostante ci sono casi in cui già decidono sulla rimozione di post, tweet, immagini o video: quando questi non rispettano gli “Standard della comunità” (Facebook), violano le “Regole” del social (Twitter) o le “Norme della Community” (YouTube). La domanda è: fanno abbastanza? E abbastanza velocemente? Vediamo.
OGGI ANNA T. PUÒ SEGNALARE A FACEBOOK il commento antisemita ricevuto: gli “Standard della comunità” del primo social al mondo non accettano – tra le altre cose – contenuti che incitano all’odio in base a religione, nazionalità, etnia, razza, orientamento sessuale, disabilità o malattia. Su segnalazione, perciò, questi contenuti dovrebbero essere rimossi. Laura Bononcini, Head of Public Policy di Facebook Italia spiega a 7: «Le persone del nostro team – non gli algoritmi! – che ricevono la segnalazione si attengono esclusivamente all’analisi di quegli Standard accettati da 1,9 miliardi di persone nel mondo. Ne siamo consapevoli: le nostre regole non saranno mai perfette, ma la nostra neutralità è fondamentale. Dobbiamo sempre cercare l’equilibrio tra la ragione per cui siamo nati (garantire l’espressione a chiunque) e la sicurezza delle persone». In media un contenuto segnalato dagli utenti e contrario alle regole di Facebook «viene rimosso entro le 24 ore, e le richieste vengono priorizzate in base al rischio». E quando il contenuto non è contrario alle policy del social ma alle leggi italiane? Il social ha bisogno «di un’autorità che glielo dica. Soprattutto in casi come la diffamazione, non contemplata dai nostri Standard: da soli non possiamo decidere se un contenuto è diffamatorio o meno. Possiamo rimuoverlo solo a seguito di una procedura legale». Bononcini assicura: «Abbiamo un rapporto molto buono e stretto con le autorità dei vari Paesi, comprese quelle italiane». Tra luglio e dicembre 2016 il social ha fornito dati nel 60% delle richieste fatte delle autorità italiane per processi legali o per emergenze e ha oscurato su ordine di sequestri giudiziari 11 contenuti legati a diffamazione, molestie e altre minacce che violerebbero la legge italiana.
È abbastanza? L’avvocato Marisa Marraffino, che dal 2008 si occupa di querele per diffamazione a mezzo Facebook, non è convinta. « In caso di diffamazione,
il social non collabora. Facciamo richiesta con un decreto motivato di un pm, ma ci viene risposto che la cosa non costituisce reato in America (almeno non come la intende il codice penale italiano). Anche quando ci presentiamo con una rogatoria internazionale il social ci nega dati come l’indirizzo IP, necessario a identificare la persona in caso di account anonimi». Ma aggiunge: «Devo essere sincera: quando segnalo altri contenuti, come video pedo-pornografici, Facebook si muove subito. Purtroppo è accaduto che un video osceno sia rimasto online per tre ore: è un fatto gravissimo nel 2017». In questi casi secondo l’avvocato Marraffino si potrebbe pensare a filtri preventivi. «Impossibile invece, oltreché sbagliato, pretenderli per contenuti diffamanti. Si possono però esigere tre cose dalle piattaforme online: che si rapportino di più alle leggi del Paese che fa loro richiesta, che collaborino attivamente con le forze dell’ordine e che quando un utente segnala un contenuto si prendano davvero la responsabilità di eliminarlo». Nel manifesto che a febbraio ha aggiornato la missione di Facebook, il fondatore Mark Zuckerberg, esprimendo la necessità di costruire una comunità globale, ha detto che «i progressi nell’intelligenza artificiale sono necessari per giudicare se testi, foto e video contengono un linguaggio d’odio, contenuti violenti, sessualmente espliciti e altro
ancora. Cominceremo a gestire alcuni di questi casi nel 2017, per altri non sarà possibile se non tra molti anni». Nell’attesa, Mr Facebook aggiungerà altri 3.000 revisori ai 4.500 già operativi per controllare le segnalazioni.
SU TWITTER IL DISCORSO NON CAMBIA MOLTO.
Oggi Gianluca V. può segnalare al social l’account @vendikator: tra i contenuti offensivi che possono portare al blocco temporaneo o alla sospensione permanente dell’account ci sono infatti le minacce di violenza. Gianluca, dato il possibile pericolo o se Twitter non provvede alla rimozione, può rivolgersi alla Polizia Postale o a un legale: questi dovranno chiedere la collaborazione al social network, anche per ottenere i dati informatici relativi all’account anonimo. Ma Twitter collabora? Dal luglio al dicembre 2016 il social ha ricevuto dall’Italia (solo) 37 richieste di informazioni su account da parte di autorità italiane, e ha risposto (solo) nel 27% dei casi. «Abbiamo regole chiare che applichiamo in base alle segnalazioni degli utenti», spiega a 7 Emine Etili, Head of Public Policy per Twitter Italia, Turchia e Spagna. «A febbraio le abbiamo aggiornate per garantire una sempre maggiore sicurezza ai nostri utenti e per facilitare le loro segnalazioni in caso di molestie. Le nostre regole vietano comportamenti offensivi, minacce, molestie in base a razza, etnia, nazionalità, orientamento sessuale, identità di genere, fede religiosa, età, disabilità o malattia. Sull’applicazione di queste regole teniamo sessioni dedicate al nostro team per la contestualizzazione culturale e storica
dei comportamenti odiosi ». Si può fare qualcosa di più? «Stiamo lavorando per identificare account responsabili di comportamenti abusivi anche quando non sono segnalati. Agiamo solo quando accertiamo, in base ai nostri algoritmi, che un comportamento è abusivo. Sono strumenti nuovi, quindi possiamo commettere degli errori, ma stiamo lavorando per migliorare ogni giorno». ANCHE YOUTUBE (PROPRIETÀ DI GOOGLE) si affida alle segnalazioni degli utenti, che registrandosi accettano le Norme della Community: i contenuti che violano queste regole sono rimossi dal social. Maria B. può cliccare
“Segnala” sui video del suo conoscente: la piattaforma web vieta contenuti che incitano alla violenza o promuovono atti di terrorismo. Come Anna e Gianluca, Maria potrà anche rivolgersi alle autorità italiane che faranno richiesta di collaborazione al social network. Da luglio a dicembre 2015, i governi nel mondo hanno chiesto di rimuovere 6.144 elementi da YouTube. L’azienda di Mountain View ne ha rimossi 4.242: 3.498 per motivi legali e 744 per violazioni delle Norme della community di YouTube.
L’ultimo episodio, quello di Valentina S., vittima di stupro dieci anni fa che non vuole più vedere il suo nome associato a quell’esperienza nelle ricerche di Google, è un caso un po’ diverso. In gioco non c’è la tutela dell’onore e della reputazione (lesa in caso di
hate speech o diffamazione), ma dei dati personali. Il 13 maggio 2014 una sentenza della Corte di Giustizia europea ha cambiato (per molti in meglio, per altri in peggio) i diritti di molte persone: l’Unione europea ha riconosciuto il diritto dell’individuo all’oblio in relazione a contenuti in rete che lo riguardano. Significa che possiamo chiedere ai motori di ricerca di rimuovere determinati risultati in cui siamo coinvolti: Google & Co. continueranno a mostrarli soltanto se esiste un interesse pubblico che ne giustifichi la visualizzazione. Per dare un’idea: da maggio 2014 a maggio 2017 Google ha ricevuto 722.075 richieste ed esaminato 2.033.445 URL (indirizzi web). Ne ha rimosso il 43,1%. Solo in Italia Google ha eliminato il 33,2% dei 150.375 URL segnalati: il caso di Valentina S. sarebbe certamente tra questi. iniziale. Ora proviamo a proiettarci in avanti: che cosa potranno fare in futuro Anna, Gianluca, Maria e Valentina? Un filtro preventivo sui contenuti da parte delle piattaforme è complicato da immaginare o sbagliato da pretendere, a seconda dei punti di vista. Non sarebbe più semplice – per tutti: utenti, autorità nazionali e aziende – che le piattaforme adattassero le loro policy sulla base di linee guida europee per individuare velocemente che cosa debba o non debba essere oscurato? La notizia è che queste linee guida potrebbero arrivare presto. Il Parlamento europeo, il Consiglio dell’Unione europea e la Commissione europea stanno definendo la riforma della direttiva sui media audiovisivi, che potrebbe estendersi per la prima volta anche ai social network. Nella prima proposta di revisione sono già inserite le piattaforme di video-sharing (la principale è YouTube): questo rappresenta una prima novità, essendo la normativa nata per regolamentare un media tradizionale come la televisione. Il testo che stanno negoziando in queste settimane potrebbe portare all’adozione di una regolamentazione più ampia sia in termini di contenuti d’interesse, con obblighi specifici di rimozione di contenuti che incitano al terrorismo, sia in termini di soggetti coinvolti. È stato infatti proposto di affiancare alle piattaforme di video-sharing anche i social network in quanto potenziali veicoli di contenuti di odio, minaccia e violenza. «Rispetteremo naturalmente le nuove regole» commenta Laura Bononcini di Facebook. «È importante che il legislatore prenda in considerazione le differenze oggettive che ci sono tra un social network e uno strumento di comunicazione tradizionale come la tv: dietro una televisione c’è un controllo editoriale, sui social i contenuti vengono caricati dalle persone, sono user generated ». È vero: social e piattaforme non possono assumersi tutte le responsabilità. Ma hanno creato un mondo di cui tutti ormai facciamo parte, e devono aiutarci a renderlo vivibile.