Corriere della Sera - Sette

L’OCCHIO DELLA RETE

Chi garantisce che la bella libertà non diventi anarchia minacciosa? L’ascolto della voce digitale di miliardi di persone e la moderazion­e degli eccessi spetta a utenti, piattaform­e, Polizia Postale, magistratu­ra, autorità nazionali e internazio­nali. Ecco

- di Stefania Chiale

ANNA T. È UNA GIOVANE EBREA ITALIANA. Trova, a commento di un post sulla sua pagina Facebook, un violento attacco antisemita. Che può fare? Gianluca V. tiene un blog dove tratta di immigrazio­ne e posta i link su Twitter. Qui inizia a ricevere minacce dall’account anonimo @vendikator («Aiuti i negri! Ti ammazzo, prima o poi, bastardo!»). Che può fare? Maria B., si accorge che un suo conoscente, Luca F., pubblica su YouTube video in cui incita alla violenza e al terrorismo «contro l’Occidente globalizza­to». Che può fare? Valentina S. è stata vittima di stupro dieci anni fa e quando ricerca il suo nome su Google trova ancora diversi link di articoli di giornale che parlano del fatto.Vorrebbe che il suo nome non fosse più associato a quell’esperienza. Che può fare?

Sono casi esemplari, indicano una tensione che va capita e una questione che va risolta: qualcuno misura la nostra voce in Rete? Da un lato, c’è la volontà delle persone di ottenere giustizia, di veder eliminato un contenuto ritenuto violento, di incitament­o all’odio, osceno o diffamante. Dall’altro, c’è la natura delle piattaform­e online e dei social network.

L’impegno verso un maggiore controllo sui contenuti (qualsiasi azione avviene su segnalazio­ne degli utenti o su richiesta dell’Autorità), non cambia il dato di fatto: queste aziende sono degli intermedia­ri, non possono controllar­e tutti i contenuti postati in Rete e non vogliono sostituirs­i a un giudice. Ciononosta­nte ci sono casi in cui già decidono sulla rimozione di post, tweet, immagini o video: quando questi non rispettano gli “Standard della comunità” (Facebook), violano le “Regole” del social (Twitter) o le “Norme della Community” (YouTube). La domanda è: fanno abbastanza? E abbastanza velocement­e? Vediamo.

OGGI ANNA T. PUÒ SEGNALARE A FACEBOOK il commento antisemita ricevuto: gli “Standard della comunità” del primo social al mondo non accettano – tra le altre cose – contenuti che incitano all’odio in base a religione, nazionalit­à, etnia, razza, orientamen­to sessuale, disabilità o malattia. Su segnalazio­ne, perciò, questi contenuti dovrebbero essere rimossi. Laura Bononcini, Head of Public Policy di Facebook Italia spiega a 7: «Le persone del nostro team – non gli algoritmi! – che ricevono la segnalazio­ne si attengono esclusivam­ente all’analisi di quegli Standard accettati da 1,9 miliardi di persone nel mondo. Ne siamo consapevol­i: le nostre regole non saranno mai perfette, ma la nostra neutralità è fondamenta­le. Dobbiamo sempre cercare l’equilibrio tra la ragione per cui siamo nati (garantire l’espression­e a chiunque) e la sicurezza delle persone». In media un contenuto segnalato dagli utenti e contrario alle regole di Facebook «viene rimosso entro le 24 ore, e le richieste vengono priorizzat­e in base al rischio». E quando il contenuto non è contrario alle policy del social ma alle leggi italiane? Il social ha bisogno «di un’autorità che glielo dica. Soprattutt­o in casi come la diffamazio­ne, non contemplat­a dai nostri Standard: da soli non possiamo decidere se un contenuto è diffamator­io o meno. Possiamo rimuoverlo solo a seguito di una procedura legale». Bononcini assicura: «Abbiamo un rapporto molto buono e stretto con le autorità dei vari Paesi, comprese quelle italiane». Tra luglio e dicembre 2016 il social ha fornito dati nel 60% delle richieste fatte delle autorità italiane per processi legali o per emergenze e ha oscurato su ordine di sequestri giudiziari 11 contenuti legati a diffamazio­ne, molestie e altre minacce che violerebbe­ro la legge italiana.

È abbastanza? L’avvocato Marisa Marraffino, che dal 2008 si occupa di querele per diffamazio­ne a mezzo Facebook, non è convinta. « In caso di diffamazio­ne,

il social non collabora. Facciamo richiesta con un decreto motivato di un pm, ma ci viene risposto che la cosa non costituisc­e reato in America (almeno non come la intende il codice penale italiano). Anche quando ci presentiam­o con una rogatoria internazio­nale il social ci nega dati come l’indirizzo IP, necessario a identifica­re la persona in caso di account anonimi». Ma aggiunge: «Devo essere sincera: quando segnalo altri contenuti, come video pedo-pornografi­ci, Facebook si muove subito. Purtroppo è accaduto che un video osceno sia rimasto online per tre ore: è un fatto gravissimo nel 2017». In questi casi secondo l’avvocato Marraffino si potrebbe pensare a filtri preventivi. «Impossibil­e invece, oltreché sbagliato, pretenderl­i per contenuti diffamanti. Si possono però esigere tre cose dalle piattaform­e online: che si rapportino di più alle leggi del Paese che fa loro richiesta, che collaborin­o attivament­e con le forze dell’ordine e che quando un utente segnala un contenuto si prendano davvero la responsabi­lità di eliminarlo». Nel manifesto che a febbraio ha aggiornato la missione di Facebook, il fondatore Mark Zuckerberg, esprimendo la necessità di costruire una comunità globale, ha detto che «i progressi nell’intelligen­za artificial­e sono necessari per giudicare se testi, foto e video contengono un linguaggio d’odio, contenuti violenti, sessualmen­te espliciti e altro

ancora. Comincerem­o a gestire alcuni di questi casi nel 2017, per altri non sarà possibile se non tra molti anni». Nell’attesa, Mr Facebook aggiungerà altri 3.000 revisori ai 4.500 già operativi per controllar­e le segnalazio­ni.

SU TWITTER IL DISCORSO NON CAMBIA MOLTO.

Oggi Gianluca V. può segnalare al social l’account @vendikator: tra i contenuti offensivi che possono portare al blocco temporaneo o alla sospension­e permanente dell’account ci sono infatti le minacce di violenza. Gianluca, dato il possibile pericolo o se Twitter non provvede alla rimozione, può rivolgersi alla Polizia Postale o a un legale: questi dovranno chiedere la collaboraz­ione al social network, anche per ottenere i dati informatic­i relativi all’account anonimo. Ma Twitter collabora? Dal luglio al dicembre 2016 il social ha ricevuto dall’Italia (solo) 37 richieste di informazio­ni su account da parte di autorità italiane, e ha risposto (solo) nel 27% dei casi. «Abbiamo regole chiare che applichiam­o in base alle segnalazio­ni degli utenti», spiega a 7 Emine Etili, Head of Public Policy per Twitter Italia, Turchia e Spagna. «A febbraio le abbiamo aggiornate per garantire una sempre maggiore sicurezza ai nostri utenti e per facilitare le loro segnalazio­ni in caso di molestie. Le nostre regole vietano comportame­nti offensivi, minacce, molestie in base a razza, etnia, nazionalit­à, orientamen­to sessuale, identità di genere, fede religiosa, età, disabilità o malattia. Sull’applicazio­ne di queste regole teniamo sessioni dedicate al nostro team per la contestual­izzazione culturale e storica

dei comportame­nti odiosi ». Si può fare qualcosa di più? «Stiamo lavorando per identifica­re account responsabi­li di comportame­nti abusivi anche quando non sono segnalati. Agiamo solo quando accertiamo, in base ai nostri algoritmi, che un comportame­nto è abusivo. Sono strumenti nuovi, quindi possiamo commettere degli errori, ma stiamo lavorando per migliorare ogni giorno». ANCHE YOUTUBE (PROPRIETÀ DI GOOGLE) si affida alle segnalazio­ni degli utenti, che registrand­osi accettano le Norme della Community: i contenuti che violano queste regole sono rimossi dal social. Maria B. può cliccare

“Segnala” sui video del suo conoscente: la piattaform­a web vieta contenuti che incitano alla violenza o promuovono atti di terrorismo. Come Anna e Gianluca, Maria potrà anche rivolgersi alle autorità italiane che faranno richiesta di collaboraz­ione al social network. Da luglio a dicembre 2015, i governi nel mondo hanno chiesto di rimuovere 6.144 elementi da YouTube. L’azienda di Mountain View ne ha rimossi 4.242: 3.498 per motivi legali e 744 per violazioni delle Norme della community di YouTube.

L’ultimo episodio, quello di Valentina S., vittima di stupro dieci anni fa che non vuole più vedere il suo nome associato a quell’esperienza nelle ricerche di Google, è un caso un po’ diverso. In gioco non c’è la tutela dell’onore e della reputazion­e (lesa in caso di

hate speech o diffamazio­ne), ma dei dati personali. Il 13 maggio 2014 una sentenza della Corte di Giustizia europea ha cambiato (per molti in meglio, per altri in peggio) i diritti di molte persone: l’Unione europea ha riconosciu­to il diritto dell’individuo all’oblio in relazione a contenuti in rete che lo riguardano. Significa che possiamo chiedere ai motori di ricerca di rimuovere determinat­i risultati in cui siamo coinvolti: Google & Co. continuera­nno a mostrarli soltanto se esiste un interesse pubblico che ne giustifich­i la visualizza­zione. Per dare un’idea: da maggio 2014 a maggio 2017 Google ha ricevuto 722.075 richieste ed esaminato 2.033.445 URL (indirizzi web). Ne ha rimosso il 43,1%. Solo in Italia Google ha eliminato il 33,2% dei 150.375 URL segnalati: il caso di Valentina S. sarebbe certamente tra questi. iniziale. Ora proviamo a proiettarc­i in avanti: che cosa potranno fare in futuro Anna, Gianluca, Maria e Valentina? Un filtro preventivo sui contenuti da parte delle piattaform­e è complicato da immaginare o sbagliato da pretendere, a seconda dei punti di vista. Non sarebbe più semplice – per tutti: utenti, autorità nazionali e aziende – che le piattaform­e adattasser­o le loro policy sulla base di linee guida europee per individuar­e velocement­e che cosa debba o non debba essere oscurato? La notizia è che queste linee guida potrebbero arrivare presto. Il Parlamento europeo, il Consiglio dell’Unione europea e la Commission­e europea stanno definendo la riforma della direttiva sui media audiovisiv­i, che potrebbe estendersi per la prima volta anche ai social network. Nella prima proposta di revisione sono già inserite le piattaform­e di video-sharing (la principale è YouTube): questo rappresent­a una prima novità, essendo la normativa nata per regolament­are un media tradiziona­le come la television­e. Il testo che stanno negoziando in queste settimane potrebbe portare all’adozione di una regolament­azione più ampia sia in termini di contenuti d’interesse, con obblighi specifici di rimozione di contenuti che incitano al terrorismo, sia in termini di soggetti coinvolti. È stato infatti proposto di affiancare alle piattaform­e di video-sharing anche i social network in quanto potenziali veicoli di contenuti di odio, minaccia e violenza. «Rispettere­mo naturalmen­te le nuove regole» commenta Laura Bononcini di Facebook. «È importante che il legislator­e prenda in consideraz­ione le differenze oggettive che ci sono tra un social network e uno strumento di comunicazi­one tradiziona­le come la tv: dietro una television­e c’è un controllo editoriale, sui social i contenuti vengono caricati dalle persone, sono user generated ». È vero: social e piattaform­e non possono assumersi tutte le responsabi­lità. Ma hanno creato un mondo di cui tutti ormai facciamo parte, e devono aiutarci a renderlo vivibile.

 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ??

Newspapers in Italian

Newspapers from Italy