FILMATI INGANNEVOLI
È vero o falso? Arrivano i fake video
Siamo abituati a pensare ai video come all’ultimo baluardo dell’affidabilità. (Se una cosa è filmata, è vera). Ma la manipolazione diventa ogni giorno più semplice. I fake video presto saranno indistinguibili dalla realtà. È la fine di un’epoca? O il nostro spirito critico ci salverà?
«STIAMO ENTRANDO IN UN’EPOCA in cui i malintenzionati possono far dire qualunque cosa a chiunque. Per esempio, potrebbero farmi dire: “Il presidente Trump è un completo cretino”». Parola di Barack Obama. Almeno apparentemente. Sono su YouTube e le frasi che sento sembrano uscire proprio dalla bocca dell’ex presidente degli USA: l’intonazione è la sua e il labiale corrisponde in tutto e per tutto. Ma è un inganno: la voce, in realtà, è quella dell’attore e regista Jordan Peele. E il volto che vedo è frutto di una manipolazione digitale. Una provocazione messa a punto dal giornale online BuzzFeed per attirare l’attenzione sulla nuova frontiera della disinformazione: i video falsi. La storia ci ha insegnato prima a dubitare dei testi scritti (perché facilmente falsificabili), poi a guardare con scetticismo alle fotografie (perché potenzialmente ingannevoli, soprattutto da quando il fotoritocco digitale è diventato alla portata di tutti). Ora è il turno dei filmati.
Negli ultimi anni sono state perfezionate o messe a punto diverse tecnologie che permettono di creare o editare video con risultati realistici senza dover arruolare un team di esperti di effetti speciali. Il video di Obama che parla male di Trump, ad esempio, è stato realizzato con FakeApp, un software creato da uno sviluppatore anonimo che permette di sovraimporre il volto di una persona a quello di un’altra. Sembra un trucchetto banale, ma dietro c’è un algoritmo sofisticato, basato sull’apprendimento automatico (in gergo: machine learning). Da qualche mese a questa parte, FakeApp ha fatto molto parlare di sé. Per motivi spiacevoli: viene usato per creare video pornografici a danno di persone inconsapevoli, appiccicando il loro volto su quello delle attrici hard. Taylor Swift, Gal Gadot, Katy Perry, Michelle Obama e decine di altre celebrità si sono viste, loro malgrado, trasformate in protagoniste di filmati porno ribattezzati deepfake, dal nome della bacheca sul sito Reddit dove è esploso il fenomeno.
SIA CHIARO: creare simili video non è semplice, né rapido. E per ottenere risultati realistici servono tante foto della persona di cui si vuole rubare il volto e una discreta abilità. Detto questo, FakeApp rende possibili cose che un tempo solo gli esperti di computergrafica potevano realizzare. E non è un caso isolato. Un team dell’Università di Washington, ad esempio, ha messo a punto un algoritmo capace, potenzialmente, di mettere in bocca a una persona parole che non ha mai pronunciato. I ricercatori si sono limitati a creare
un video in cui l’Obama di oggi dice parole che ha effettivamente pronunciato in passato, ma la stessa tecnica si potrebbe usare anche per dare corpo – o, meglio, labiale – a frasi dette da un imitatore. Un’équipe della casa produttrice di processori grafici NVIDIA ha messo a punto un software capace di creare volti umani del tutto falsi, ma molto convincenti: l’obiettivo è arrivare a ottenere risultati analoghi anche in video. E poi c’è la start up Pinscreen, che ha realizzato un filmato in cui Donald Trump annuncia – o, meglio, sembra annunciare – le dimissioni. Per ora basta fare attenzione ai dettagli, come i bordi un po’ slabbrati del viso, per capire che il video non è autentico. Ma il fondatore di Pinscreen assicura che presto non si riuscirà più a notare la differenza. Le prime anticipazioni dei progetti che saranno presentati ad agosto al SIGGRAPH, una delle più importanti conferenze di computer-grafica al mondo, dimostrano che la sua ambizione è realistica: in pochi mesi queste tecnologie hanno fatto enormi passi avanti.
PER CAPIRE QUAL È IL LORO SEGRETO bisogna fare un po’ di chiarezza sul machine learning. «Si tratta di tecniche che sviluppano modelli capaci di imparare dai dati», spiega Matteo Matteucci, che insegna Machine Learning e Cognitive Robotics al Politecnico di Milano. In sostanza, si addestra un algoritmo con una mole significativa di dati, così che possa apprendere da essi come svolgere una certa funzione. Se volessimo dare vita a un programma capace di distinguere foto di auto da foto di moto, ad esempio, dovremmo fornirgli enormi quantità di immagini di auto e moto etichettate come tali. Con il deep learning si punta a fare un passo in più, mettendo a punto algoritmi capaci di apprendere anche quali sono le caratteristiche di una foto che permettono di distinguere un’auto da una moto. Tutto questo grazie alle cosiddette reti neurali artificiali, composte da «piccoli elementi collegati tra loro, ciascuno dei quali fa calcoli molto semplici». Sembra banale, ma non lo è: «quando ci sono centinaia di migliaia di elementi che prendono in considerazione milioni di parametri alla volta», precisa Matteucci, «questi modelli raggiungono livelli di complessità molto significativi». Un ulteriore salto di qualità si può ottenere impiegando generative adversarial network (reti antagoniste generative), cioè due reti neurali in competizione l’una con l’altra. «Immaginiamo di avere», spiega Matteucci, «una rete neurale artificiale che impara a generare immagini sempre più realistiche. Gliene affiancheremo un’altra che cerca di distinguere le immagini artificiali da quelle reali. Tanto più la prima migliora, quanto più la seconda avrà a disposizione dati sofisticati su cui lavorare, migliorando a sua volta. È un po’ come il gatto e il topo: più i gatti si fanno furbi, più i topi diventano scaltri per riuscire a sfuggirgli, e così via». Questa è la chiave di volta: un circolo virtuoso che permette di affinare sempre più la qualità degli algoritmi. Ma in che misura queste tecniche sono alla portata di tutti? «Bisogna distinguere due fasi: quella in cui i modelli vengono allenati e quella in cui vengono utilizzati», spiega Matteucci. «La prima richiede tempo e molta potenza di calcolo, la seconda no. Per esempio, oggi qualsiasi smartphone, quando si scatta una foto, identifica i volti dei soggetti per aiutarci a inquadrarli
meglio. Per mettere a punto questo modello, basato sul machine learning, sono state necessarie risorse significative, ma per usarlo oggi basta uno smartphone. Per addestrare un algoritmo servono schede video ad alte prestazioni, superiori a quelle di un normale computer casalingo. Teniamo conto, però, che oggi è possibile affittare strumenti computazionali online a pagamento. Questo risolve in parte il problema della potenza di calcolo, ma non quello dei dati». Che non è marginale, anzi: è ciò che fa davvero la differenza. Pensiamo ai falsi video pornografici con i volti delle celebrità: i dati per crearli non mancano, perché la rete pullula di foto delle star. Ma questo non significa che il problema riguardi solo i personaggi pubblici. Prima di tutto perché il web è zeppo anche di foto nostre, che un domani potrebbero finire nelle mani sbagliate. E poi perché un video manipolato può avere conseguenze molto reali per tutti.
IN FONDO, lo abbiamo visto succedere con le notizie (false) e con le foto (ritoccate). Perché non dovrebbe accadere anche con i filmati, ora che è possibile falsificarli in modo relativamente semplice? E, soprattutto, come possiamo prepararci ad affrontare l’era dei video manipolati? «Affidandoci al nostro spirito critico», risponde Nicola Bruno, giornalista e membro dell’associazione Factcheckers, che si occupa di diffondere la cultura della verifica delle notizie nelle scuole (e non solo). «Noi cerchiamo di dare ai ragazzi alcune competenze di base per verificare l’attendibilità dei contenuti che trovano in Rete, video compresi. Ad esempio insegniamo loro a chiedersi sempre qual è la fonte di un contenuto, oppure a concentrarsi su alcuni dettagli – come, nel caso dei video, le ombre – che spesso sono utili per identificare una manipolazione». Bruno sottolinea anche che la stessa tecnologia che permette di creare i falsi può essere usata per stanarli. «È normale che l’esistenza di video finti così realistici ci preoccupi», aggiunge, «perché segna la fine di un’era. Dobbiamo rinunciare a un’idea, quella dell’affidabilità dei filmati, che ci dava sicurezza. E dobbiamo iniziare a farci sempre più domande. Ma io la vedo come una forma di responsabilizzazione delle persone e credo che possa spingerci a informarci in modo più consapevole. Probabilmente nei prossimi anni scambieremo per veri molti video falsi. Ma questa fase ci servirà per sviluppare gli anticorpi. Ci costringerà a evolvere».
Non ci basta la Gioconda: dall’Italia pretendiamo anche il Cenacolo!