COSA PUÒ FARE UN MAGISTRATO
Francesco Cajani, Sostituto Procuratore della Repubblica a Milano, coordinatore di molte indagini in materia di criminalità informatica: «La collaborazione delle piattaforme, anche quando c’è, incontra limiti normativi».
Hate speech e diffamazione online. I social network e le piattaforme online collaborano con le autorità?
Le informazioni che ci interessano sono conservate all’estero e non vi sono obblighi di legge per queste piattaforme, solo risposte su base volontaria. Quando una nuova piattaforma s’impone sul mercato la previsione di relazioni serie con le Autorità giudiziarie, nei primi anni, viene spesso dimenticata. Referenti impalpabili, canali di comunicazione frammentari, procedure di urgenza inesistenti, tipologie di informazioni disponibili che per lungo tempo restano ignote alle forze di polizia. Un esempio tra molti: nel 2006 Google Inc. rispose alla Polizia Postale di Milano che per identificare chi aveva messo online il video odioso contro un minorenne disabile bisognava prima chiedere al Giudice americano.
Oggi il rapporto è migliorato?
Adesso la collaborazione con Google è buona, così come da alcuni anni con Facebook. Ma, se ho un problema di giustizia serio con Twitter, la strada rimane segnata dalle loro procedure interne, troppo lunghe in relazione all’urgenza di tutelare le vittime. La collaborazione – anche quando esistente – incontra limiti normativi. In tema di diffamazione non è possibile ottenere direttamente dalle società americane le informazioni utili per identificare l’utente, ma occorre attivare una procedura rogatoriale, che ha tempi notevolmente più lunghi. Il Giudice americano poi di regola non dà seguito alla nostra richiesta, alla luce del primo emendamento della loro Costituzione, nonostante il trattato di mutua cooperazione tra Stati Uniti e Italia assicuri che «l’assistenza sarà prestata anche quando i fatti per i quali si procede non costituiscono reato nello Stato richiesto».
Quando ricevono una segnalazione dall’utente, i social si prendono la responsabilità di rimuovere un contenuto?
La nostra esperienza è che il cittadino resta insoddisfatto del meccanismo di segnalazione dei social. Così non ha altro strumento che l’Autorità giudiziaria. Del resto i provider ritengono che il notice and take down (è responsabile il social che non rimuove un contenuto illecito, se gli è stato segnalato) debba limitarsi ad una segnalazione “qualificata”, cioè proveniente da un Giudice. Anche su questo aspetto il legislatore europeo dovrebbe intervenire per chiarire, una volta per tutte, la questione.
I social potrebbero fare di più per arginare il fenomeno dell’hate speech? E come?
Certamente sì. Già nel 2006, durante il processo Google vs. l’Associazione Vivi Down*, scoprimmo che vi erano almeno 19 saggi scientifici (due dei quali a firma di ingegneri di Google) sulla possibilità di effettuare un controllo automatizzato, non esaustivo ma in grado di fornire all’operatore umano la possibilità di eliminare il più possibile, da subito, materiale indebito. Facemmo inoltre presente al Giudice come sarebbe bastato un controllo semantico sul titolo del video per impedire il protrarsi della diffusione dello stesso. Il discorso dell’impossibilità di controllare a me sembra una presa in giro all’intelligenza di coloro che sanno veramente di cosa stiamo parlando. Lo era allora e lo è a maggior ragione oggi, vista l’evoluzione delle tecniche e degli algoritmi di filtraggio. A otto anni dalla nostra Requisitoria, citerei ancora Victor E. Frank: «Se sulla costa dell’Oceano Atlantico, in arrivo al porto di New York, i passeggeri incontrano la Statua della Libertà, sarebbe meraviglioso poter edificare sulla costa opposta la Statua della Responsabilità».
*Processo sul filmato caricato su Google Video che mostra alcuni studenti umiliare un compagno affetto dalla sindrome di Down e insultare l’associazione Vivi Down.