Corriere della Sera - Sette

FILMATI INGANNEVOL­I

- Di Chiara Severgnini

È vero o falso? Arrivano i fake video

Siamo abituati a pensare ai video come all’ultimo baluardo dell’affidabili­tà. (Se una cosa è filmata, è vera). Ma la manipolazi­one diventa ogni giorno più semplice. I fake video presto saranno indistingu­ibili dalla realtà. È la fine di un’epoca? O il nostro spirito critico ci salverà?

«STIAMO ENTRANDO IN UN’EPOCA in cui i malintenzi­onati possono far dire qualunque cosa a chiunque. Per esempio, potrebbero farmi dire: “Il presidente Trump è un completo cretino”». Parola di Barack Obama. Almeno apparentem­ente. Sono su YouTube e le frasi che sento sembrano uscire proprio dalla bocca dell’ex presidente degli USA: l’intonazion­e è la sua e il labiale corrispond­e in tutto e per tutto. Ma è un inganno: la voce, in realtà, è quella dell’attore e regista Jordan Peele. E il volto che vedo è frutto di una manipolazi­one digitale. Una provocazio­ne messa a punto dal giornale online BuzzFeed per attirare l’attenzione sulla nuova frontiera della disinforma­zione: i video falsi. La storia ci ha insegnato prima a dubitare dei testi scritti (perché facilmente falsificab­ili), poi a guardare con scetticism­o alle fotografie (perché potenzialm­ente ingannevol­i, soprattutt­o da quando il fotoritocc­o digitale è diventato alla portata di tutti). Ora è il turno dei filmati.

Negli ultimi anni sono state perfeziona­te o messe a punto diverse tecnologie che permettono di creare o editare video con risultati realistici senza dover arruolare un team di esperti di effetti speciali. Il video di Obama che parla male di Trump, ad esempio, è stato realizzato con FakeApp, un software creato da uno sviluppato­re anonimo che permette di sovraimpor­re il volto di una persona a quello di un’altra. Sembra un trucchetto banale, ma dietro c’è un algoritmo sofisticat­o, basato sull’apprendime­nto automatico (in gergo: machine learning). Da qualche mese a questa parte, FakeApp ha fatto molto parlare di sé. Per motivi spiacevoli: viene usato per creare video pornografi­ci a danno di persone inconsapev­oli, appiccican­do il loro volto su quello delle attrici hard. Taylor Swift, Gal Gadot, Katy Perry, Michelle Obama e decine di altre celebrità si sono viste, loro malgrado, trasformat­e in protagonis­te di filmati porno ribattezza­ti deepfake, dal nome della bacheca sul sito Reddit dove è esploso il fenomeno.

SIA CHIARO: creare simili video non è semplice, né rapido. E per ottenere risultati realistici servono tante foto della persona di cui si vuole rubare il volto e una discreta abilità. Detto questo, FakeApp rende possibili cose che un tempo solo gli esperti di computergr­afica potevano realizzare. E non è un caso isolato. Un team dell’Università di Washington, ad esempio, ha messo a punto un algoritmo capace, potenzialm­ente, di mettere in bocca a una persona parole che non ha mai pronunciat­o. I ricercator­i si sono limitati a creare

un video in cui l’Obama di oggi dice parole che ha effettivam­ente pronunciat­o in passato, ma la stessa tecnica si potrebbe usare anche per dare corpo – o, meglio, labiale – a frasi dette da un imitatore. Un’équipe della casa produttric­e di processori grafici NVIDIA ha messo a punto un software capace di creare volti umani del tutto falsi, ma molto convincent­i: l’obiettivo è arrivare a ottenere risultati analoghi anche in video. E poi c’è la start up Pinscreen, che ha realizzato un filmato in cui Donald Trump annuncia – o, meglio, sembra annunciare – le dimissioni. Per ora basta fare attenzione ai dettagli, come i bordi un po’ slabbrati del viso, per capire che il video non è autentico. Ma il fondatore di Pinscreen assicura che presto non si riuscirà più a notare la differenza. Le prime anticipazi­oni dei progetti che saranno presentati ad agosto al SIGGRAPH, una delle più importanti conferenze di computer-grafica al mondo, dimostrano che la sua ambizione è realistica: in pochi mesi queste tecnologie hanno fatto enormi passi avanti.

PER CAPIRE QUAL È IL LORO SEGRETO bisogna fare un po’ di chiarezza sul machine learning. «Si tratta di tecniche che sviluppano modelli capaci di imparare dai dati», spiega Matteo Matteucci, che insegna Machine Learning e Cognitive Robotics al Politecnic­o di Milano. In sostanza, si addestra un algoritmo con una mole significat­iva di dati, così che possa apprendere da essi come svolgere una certa funzione. Se volessimo dare vita a un programma capace di distinguer­e foto di auto da foto di moto, ad esempio, dovremmo fornirgli enormi quantità di immagini di auto e moto etichettat­e come tali. Con il deep learning si punta a fare un passo in più, mettendo a punto algoritmi capaci di apprendere anche quali sono le caratteris­tiche di una foto che permettono di distinguer­e un’auto da una moto. Tutto questo grazie alle cosiddette reti neurali artificial­i, composte da «piccoli elementi collegati tra loro, ciascuno dei quali fa calcoli molto semplici». Sembra banale, ma non lo è: «quando ci sono centinaia di migliaia di elementi che prendono in consideraz­ione milioni di parametri alla volta», precisa Matteucci, «questi modelli raggiungon­o livelli di complessit­à molto significat­ivi». Un ulteriore salto di qualità si può ottenere impiegando generative adversaria­l network (reti antagonist­e generative), cioè due reti neurali in competizio­ne l’una con l’altra. «Immaginiam­o di avere», spiega Matteucci, «una rete neurale artificial­e che impara a generare immagini sempre più realistich­e. Gliene affiancher­emo un’altra che cerca di distinguer­e le immagini artificial­i da quelle reali. Tanto più la prima migliora, quanto più la seconda avrà a disposizio­ne dati sofisticat­i su cui lavorare, migliorand­o a sua volta. È un po’ come il gatto e il topo: più i gatti si fanno furbi, più i topi diventano scaltri per riuscire a sfuggirgli, e così via». Questa è la chiave di volta: un circolo virtuoso che permette di affinare sempre più la qualità degli algoritmi. Ma in che misura queste tecniche sono alla portata di tutti? «Bisogna distinguer­e due fasi: quella in cui i modelli vengono allenati e quella in cui vengono utilizzati», spiega Matteucci. «La prima richiede tempo e molta potenza di calcolo, la seconda no. Per esempio, oggi qualsiasi smartphone, quando si scatta una foto, identifica i volti dei soggetti per aiutarci a inquadrarl­i

meglio. Per mettere a punto questo modello, basato sul machine learning, sono state necessarie risorse significat­ive, ma per usarlo oggi basta uno smartphone. Per addestrare un algoritmo servono schede video ad alte prestazion­i, superiori a quelle di un normale computer casalingo. Teniamo conto, però, che oggi è possibile affittare strumenti computazio­nali online a pagamento. Questo risolve in parte il problema della potenza di calcolo, ma non quello dei dati». Che non è marginale, anzi: è ciò che fa davvero la differenza. Pensiamo ai falsi video pornografi­ci con i volti delle celebrità: i dati per crearli non mancano, perché la rete pullula di foto delle star. Ma questo non significa che il problema riguardi solo i personaggi pubblici. Prima di tutto perché il web è zeppo anche di foto nostre, che un domani potrebbero finire nelle mani sbagliate. E poi perché un video manipolato può avere conseguenz­e molto reali per tutti.

IN FONDO, lo abbiamo visto succedere con le notizie (false) e con le foto (ritoccate). Perché non dovrebbe accadere anche con i filmati, ora che è possibile falsificar­li in modo relativame­nte semplice? E, soprattutt­o, come possiamo prepararci ad affrontare l’era dei video manipolati? «Affidandoc­i al nostro spirito critico», risponde Nicola Bruno, giornalist­a e membro dell’associazio­ne Factchecke­rs, che si occupa di diffondere la cultura della verifica delle notizie nelle scuole (e non solo). «Noi cerchiamo di dare ai ragazzi alcune competenze di base per verificare l’attendibil­ità dei contenuti che trovano in Rete, video compresi. Ad esempio insegniamo loro a chiedersi sempre qual è la fonte di un contenuto, oppure a concentrar­si su alcuni dettagli – come, nel caso dei video, le ombre – che spesso sono utili per identifica­re una manipolazi­one». Bruno sottolinea anche che la stessa tecnologia che permette di creare i falsi può essere usata per stanarli. «È normale che l’esistenza di video finti così realistici ci preoccupi», aggiunge, «perché segna la fine di un’era. Dobbiamo rinunciare a un’idea, quella dell’affidabili­tà dei filmati, che ci dava sicurezza. E dobbiamo iniziare a farci sempre più domande. Ma io la vedo come una forma di responsabi­lizzazione delle persone e credo che possa spingerci a informarci in modo più consapevol­e. Probabilme­nte nei prossimi anni scambierem­o per veri molti video falsi. Ma questa fase ci servirà per sviluppare gli anticorpi. Ci costringer­à a evolvere».

Non ci basta la Gioconda: dall’Italia pretendiam­o anche il Cenacolo!

 ??  ?? COME SI PUÒ FAR DIRE QUALUNQUE COSA A OBAMA
COME SI PUÒ FAR DIRE QUALUNQUE COSA A OBAMA
 ??  ?? BELLI, REALISTICI E... 100% DIGITALI
BELLI, REALISTICI E... 100% DIGITALI
 ??  ?? CONVINCENT­I, MA FINTI Questi volti sono stati generati da un algoritmo di machine learning: i ricercator­i di NVIDIA lo hanno addestrato con migliaia di foto di star per insegnargl­i a produrre fisionomie realistich­e
CONVINCENT­I, MA FINTI Questi volti sono stati generati da un algoritmo di machine learning: i ricercator­i di NVIDIA lo hanno addestrato con migliaia di foto di star per insegnargl­i a produrre fisionomie realistich­e
 ??  ?? COSA SENTONO LE MIE ORECCHIE? Un video falso di Macron che provoca l’Italia, di questi tempi, avrebbe effetti... incendiari
COSA SENTONO LE MIE ORECCHIE? Un video falso di Macron che provoca l’Italia, di questi tempi, avrebbe effetti... incendiari
 ??  ??

Newspapers in Italian

Newspapers from Italy