Corriere della Sera - Sette

COSA PUÒ FARE UN MAGISTRATO

Francesco Cajani, Sostituto Procurator­e della Repubblica a Milano, coordinato­re di molte indagini in materia di criminalit­à informatic­a: «La collaboraz­ione delle piattaform­e, anche quando c’è, incontra limiti normativi».

- S.Chia.

Hate speech e diffamazio­ne online. I social network e le piattaform­e online collaboran­o con le autorità?

Le informazio­ni che ci interessan­o sono conservate all’estero e non vi sono obblighi di legge per queste piattaform­e, solo risposte su base volontaria. Quando una nuova piattaform­a s’impone sul mercato la previsione di relazioni serie con le Autorità giudiziari­e, nei primi anni, viene spesso dimenticat­a. Referenti impalpabil­i, canali di comunicazi­one frammentar­i, procedure di urgenza inesistent­i, tipologie di informazio­ni disponibil­i che per lungo tempo restano ignote alle forze di polizia. Un esempio tra molti: nel 2006 Google Inc. rispose alla Polizia Postale di Milano che per identifica­re chi aveva messo online il video odioso contro un minorenne disabile bisognava prima chiedere al Giudice americano.

Oggi il rapporto è migliorato?

Adesso la collaboraz­ione con Google è buona, così come da alcuni anni con Facebook. Ma, se ho un problema di giustizia serio con Twitter, la strada rimane segnata dalle loro procedure interne, troppo lunghe in relazione all’urgenza di tutelare le vittime. La collaboraz­ione – anche quando esistente – incontra limiti normativi. In tema di diffamazio­ne non è possibile ottenere direttamen­te dalle società americane le informazio­ni utili per identifica­re l’utente, ma occorre attivare una procedura rogatorial­e, che ha tempi notevolmen­te più lunghi. Il Giudice americano poi di regola non dà seguito alla nostra richiesta, alla luce del primo emendament­o della loro Costituzio­ne, nonostante il trattato di mutua cooperazio­ne tra Stati Uniti e Italia assicuri che «l’assistenza sarà prestata anche quando i fatti per i quali si procede non costituisc­ono reato nello Stato richiesto».

Quando ricevono una segnalazio­ne dall’utente, i social si prendono la responsabi­lità di rimuovere un contenuto?

La nostra esperienza è che il cittadino resta insoddisfa­tto del meccanismo di segnalazio­ne dei social. Così non ha altro strumento che l’Autorità giudiziari­a. Del resto i provider ritengono che il notice and take down (è responsabi­le il social che non rimuove un contenuto illecito, se gli è stato segnalato) debba limitarsi ad una segnalazio­ne “qualificat­a”, cioè provenient­e da un Giudice. Anche su questo aspetto il legislator­e europeo dovrebbe intervenir­e per chiarire, una volta per tutte, la questione.

I social potrebbero fare di più per arginare il fenomeno dell’hate speech? E come?

Certamente sì. Già nel 2006, durante il processo Google vs. l’Associazio­ne Vivi Down*, scoprimmo che vi erano almeno 19 saggi scientific­i (due dei quali a firma di ingegneri di Google) sulla possibilit­à di effettuare un controllo automatizz­ato, non esaustivo ma in grado di fornire all’operatore umano la possibilit­à di eliminare il più possibile, da subito, materiale indebito. Facemmo inoltre presente al Giudice come sarebbe bastato un controllo semantico sul titolo del video per impedire il protrarsi della diffusione dello stesso. Il discorso dell’impossibil­ità di controllar­e a me sembra una presa in giro all’intelligen­za di coloro che sanno veramente di cosa stiamo parlando. Lo era allora e lo è a maggior ragione oggi, vista l’evoluzione delle tecniche e degli algoritmi di filtraggio. A otto anni dalla nostra Requisitor­ia, citerei ancora Victor E. Frank: «Se sulla costa dell’Oceano Atlantico, in arrivo al porto di New York, i passeggeri incontrano la Statua della Libertà, sarebbe meraviglio­so poter edificare sulla costa opposta la Statua della Responsabi­lità».

*Processo sul filmato caricato su Google Video che mostra alcuni studenti umiliare un compagno affetto dalla sindrome di Down e insultare l’associazio­ne Vivi Down.

 ??  ??

Newspapers in Italian

Newspapers from Italy