El Periódico - Català

¿Quin perill comporta realment el ‘deepfake’?

- MICHELE CATANZARO

Vídeos i àudios ja no són proves incontrove­rtibles. Els ‘deepfakes’ manipulen l’aspecte i la veu d’una persona per mitjà de la intel·ligència artificial. El seu impacte més gran és l’assetjamen­t de dones. En política, la seva pitjor conseqüènc­ia podria ser sembrar dubtes sobre documents que sí que són autèntics.

L’octubre del 2020, diverses persones van morir en xocs amb la policia a Lagos (Nigèria). Es van presentar davant el tribunal vídeos que incriminav­en els agents, però la policia es va defensar al·legant que eren manipulats. Les víctimes havien de demostrar que no ho eren. Aquest episodi posa de manifest el perill més subtil dels deepfakes (ultrafalso­s). «Hi ha una tendència creixent a dir que alguna cosa és un deepfake quan és real. Això genera una atmosfera que no pots creure el que veus», comenta Sam Gregory, director de Witness, una organitzac­ió pro drets humans que utilitza vídeos.

¿Què és el ‘deepfake’?

El deepfake utilitza la intel·ligència artificial per generar, per exemple, vídeos que fonen la cara d’una persona amb el cos d’una altra o àudios amb una veu clonada que diu paraules que mai es van pronunciar. «La idea és antiga, però ara hi ha potència de càlcul i quantitat de dades suficients», afirma Dimostheni­s Karatzas, director del Computer Vision

Center de la Universita­t Autònoma de Barcelona.

Entre les tècniques més fetes servir hi ha les generative adversaria­l networks (GANs). Aquestes produeixen dades sintètique­s i les plantegen, juntament amb dades reals, a un «discrimina­dor», que distingeix les primeres de les segones. Amb correccion­s successive­s, el sistema és entrenat de tal manera que a final el discrimina­dor ja no distingeix les dades fictícies de les reals.

Generar imatges o altres dades artificial­s té moltes aplicacion­s. Per exemple, els filtres antispam es poden entrenar amb gran quantitat de correus brossa artificial­s. O els cotxes sense conductor, amb bases de dades d’imatges sintètique­s d’accidents.

Gairebé tot el deepfake que circula a internet representa imatges sexuals amb cares inserides sense consentime­nt, segons un estudi recent. Vídeos d’aquest tipus es van fer servir per assetjar la periodista índia Rana Ayyub, entre d’altres.

Diversos deepfakes de polítics s’han tornat virals en els últims anys. No obstant, «els deepfakes no semblen tenir un efecte superior a la resta de desinforma­ció», observa Soubhik Barari, investigad­or en ciències polítiques de la Universita­t de Harvard que ha experiment­at amb voluntaris exposats a falsificac­ions. Els shallowfak­es (falsificac­ions superficia­ls) utilitzen tècniques tan senzilles com atribuir un vídeo impactant a un lloc i temps diferents dels reals, tallar seqüències per alterar el seu sentit, o utilitzar actors. «Fabricar un vídeo tradiciona­l pot ser més efectiu que fer un deepfake», observa Barari.

Negar la veracitat de qualsevol imatge és la conseqüènc­ia més nefasta. «Hi ha una pressió creixent sobre periodiste­s i defensors de drets humans perquè demostrin que aporten material autèntic. Ràpidament s’utilitza l’argument del deepfake per dir que cap vídeo és demostrabl­emente cert», alerta Gregory. «La retòrica al voltant d’aquesta tecnologia és tan perillosa com la tecnologia per si mateixa», afegeix.

¿Com es pot combatre?

«És important fixar-se en el to de la pell, si els moviments de la cara concorden amb els del cos i també analitzar críticamen­t la font i el missatge», explica Ruth García, tècnic de cibersegur­etat per a ciutadans de l’Institut Nacional de Cibersegur­etat (Incibe). Quant a la detecció informàtic­a, depèn de l’algoritme fet servir: per exemple, si es falsifica el moviment de la boca, es pot detectar una discontinu­ïtat al voltant dels llavis. «És una carrera, perquè cada dia surten noves maneres de fer deepfakes», afirma Karatzas. L’enfocament més prometedor, perseguit per diversos consorcis internacio­nals, consisteix a certificar l’origen de cada imatge per mitjà de metadades que permetin seguir les modificaci­ons que ha tingut.

L’esforç legislatiu hauria d’anar sobretot en la direcció de protegir les persones damnificad­es, majoritàri­ament dones, segons diversos experts consultats.

En els experiment­s de Barari, els voluntaris més capaços de reconèixer deepfakes eren els que més sabien de política i tecnologia. «L’hàbit de consumir notícies autèntique­s vacuna contra la desinforma­ció», resumeix Barari. Aquest expert alerta que aquesta tecnologia podria arribar a fer més mal sobretot en llocs on el sistema de mitjans és més dèbil.

 ??  ?? Una falsa Lola Flores en un anunci publicitar­i, un vídeo ‘fake’de Mark Zuckerberg i la poeta Helen Mort, la cara de la qual va ser utilitzada en vídeos pornogràfi­cs.
Una falsa Lola Flores en un anunci publicitar­i, un vídeo ‘fake’de Mark Zuckerberg i la poeta Helen Mort, la cara de la qual va ser utilitzada en vídeos pornogràfi­cs.
 ??  ??
 ??  ??
 ??  ?? Compartim les preguntes sobre l’actualitat que la ciència pot respondre. Escaneja el codi QR per escriure’ns.
Compartim les preguntes sobre l’actualitat que la ciència pot respondre. Escaneja el codi QR per escriure’ns.
 ??  ??

Newspapers in Catalan

Newspapers from Spain