“TRUMP ES UN IM­BÉ­CIL TO­TAL Y COM­PLE­TO”

ABC - XL Semanal - - MAGAZINE ENTREVISTA -

El hom­bre que pro­nun­cia es­tas pa­la­bras lo ha­ce sen­ta­do en un des­pa­cho jun­to a la ban­de­ra ame­ri­ca­na. Su opi­nión so­bre el ac­tual pre­si­den­te de Es­ta­dos Uni­dos no es bue­na, y no lo di­si­mu­la. Su ros­tro es cla­va­do al de Ba­rack Oba­ma. Tie­ne su voz. Pe­ro Oba­ma nun­ca di­jo esas pa­la­bras, al me­nos en pú­bli­co.

El que ha­bla en el ví­deo es el ac­tor nor­te­ame­ri­cano Jor­dan Pee­le, un ta­len­to­so imi­ta­dor. El soft­wa­re Fa­keApp ha fun­di­do su bo­ca con la del ver­da­de­ro Oba­ma. Han he­cho fal­ta 56 ho­ras pa­ra crear es­ta pie­za. En ella, unos la­bios pres­ta­dos pro­nun­cian el lla­ma­mien­to que Pee­le quie­re lan­zar al mun­do.

«Son tiem­pos pe­li­gro­sos –ad­vier­te a tra­vés del fal­so Oba­ma–. Co­mien­za una era en la que nues­tros enemi­gos pue­den ha­cer que pa­rez­ca que al­guien di­ce al­go que nun­ca di­jo».

Es­te ví­deo, pu­bli­ca­do por la pla­ta­for­ma de In­ter­net Buz­zFeed, es el ejem­plo más aca­ba­do de fa­ke news de se­gun­da ge­ne­ra­ción. Si ha­ce na­da des­cu­bri­mos el po­der de los al­go­rit­mos de Fa­ce­book o Twit­ter pa­ra di­fun­dir pro­pa­gan­da y des­in­for­ma­ción, los ex­per­tos ya nos ad­vier­ten de un nue­vo pe­li­gro: el en­ga­ño di­gi­tal per­fec­to, la fal­si­fi­ca­ción exac­ta de imá­ge­nes y so­ni­dos.

Los pe­si­mis­tas di­bu­jan un pa­no­ra­ma in­quie­tan­te: un mun­do en el que los ví­deos ma­ni­pu­la­dos crean re­cuer­dos fal­sos, des­en­ca­de­nan con­flic­tos e in­clu­so gue­rras. En otras pa­la­bras: no po­dre­mos con­fiar en nues­tros sen­ti­dos. En es­te fu­tu­ro cer­cano ha­brá he­rra­mien­tas in­for­má­ti­cas de fá­cil uso que per­mi­ti­rán a cual­quie­ra al­te­rar la reali­dad con una per­fec­ción asom­bro­sa.

«Que has­ta aho­ra ha­ya­mos po­di­do con­fiar en los ví­deos co­mo prue­ba irre­fu­ta­ble de un he­cho ha si­do una suer­te in­men­sa». Ian Good­fe­llow, ex­per­to en in­te­li­gen­cia ar­ti­fi­cial de Goo­gle, di­jo es­tas pa­la­bras en una con­fe­ren­cia ce­le­bra­da en el Ins­ti­tu­to de Tec­no­lo­gía de Mas­sa­chu­setts el pa­sa­do no­viem­bre. Por su par­te, Aviv Ovad­ya, del Cen­tro de Res­pon­sa­bi­li­dad pa­ra las Re­des So­cia­les de la Uni­ver­si­dad de Mí­chi­gan, se pre­gun­ta: «¿Qué pa­sa­rá cuan­do cual­quie­ra pue­da si­mu­lar de for­ma con­vin­cen­te un su­ce­so?». Por­que, aña­de, ca­da vez va a ser más sen­ci­llo fal­si­fi­car au­dios y ví­deos. Y po­ne ejem­plos: des­de si­mu­lar que «un lí­der mun­dial or­de­na un ata­que nu­clear» has­ta «re­pro­du­cir la voz de tu pa­re­ja que te pi­de por te­lé­fono la con­tra­se­ña de la cuen­ta ban­ca­ria».

So­bre no­so­tros se cier­ne un «in­foa­po­ca­lip­sis», la des­apa­ri­ción de es­truc­tu­ras me­diá­ti­cas y co­mu­ni­ca­ti­vas fia­bles, di­ce Ovad­ya. «Las he­rra­mien­tas pa­ra di­fun­dir in­for­ma­cio­nes fal­sas lle­van tiem­po so­bre la me­sa», so­lo que aho­ra ya es­ta­mos an­te el sal­to de­fi­ni­ti­vo ha­cia el en­ga­ño ma­si­vo: «La dis­tor­sión de la pro­pia reali­dad».

FA­BRI­CAN­DO LA MEN­TI­RA

PER­FEC­TA. Ha­ce año y me­dio, el mun­do fue cons­cien­te de có­mo In­ter­net es­tá cam­bian­do la ges­tión de la ver­dad y la men­ti­ra. Los es­fuer­zos ru­sos por in­fluir en las elec­cio­nes pre­si­den­cia­les es­ta­dou­ni­den­ses to­da­vía no se han es­cla­re­ci­do por com­ple­to. Por otro la­do, el tér­mino 'he­chos al­ter­na­ti­vos' hi­zo su en­tra­da en el vo­ca­bu­la­rio ofi­cial en 2017, in­tro­du­ci­do por Do­nald Trump, el hom­bre que ha con­ver­ti­do las fa­ke news en un ar­ma y que apro­ve­cha cual­quier opor­tu­ni­dad pa­ra cues­tio­nar la ver­dad.

"DESA­RRO­LLAR UN PRO­GRA­MA QUE EN­GA­ÑE A LA GEN­TE ES ATE­RRA­DOR. EN SI­LI­CON VA­LLEY ES­TÁN ÉTI­CA­MEN­TE PER­DI­DOS"

al mis­mo tiem­po, la lla­ma­da 'reali­dad au­men­ta­da' se es­tá con­vir­tien­do en el tér­mino de mo­da en Si­li­con Va­lley. De mo­men­to, es­ta reali­dad 'ador­na­da' tie­ne una for­ma inocen­te, co­mo los fil­tros fo­to­grá­fi­cos de Snap­chat. Pe­ro su evo­lu­ción ló­gi­ca es la ma­ni­pu­la­ción com­ple­ta de la reali­dad.

En 2017 apa­re­ció en el por­tal de In­ter­net Red­dit un ví­deo por­no­grá­fi­co di­fe­ren­te. La ac­triz is­rae­lí Gal Ga­dot man­te­nía re­la­cio­nes se­xua­les con un ros­tro ex­tra­ña­men­te inex­pre­si­vo. Un usua­rio de Red­dit ha­bía mon­ta­do su ca­ra so­bre el cuer­po de una ac­triz porno. Pa­ra es­te tras­plan­te di­gi­tal, el pro­gra­ma­dor usó un sis­te­ma de trans­fe­ren­cia de ros­tro ca­paz de apren­der por sí mis­mo lla­ma­do Ten­so­rF­low, una he­rra­mien­ta de li­bre ac­ce­so crea­da por Goo­gle pa­ra fo­men­tar la in­ves­ti­ga­ción en el cam­po de la in­te­li­gen­cia ar­ti­fi­cial.

Hoy, so­lo año y me­dio más tar­de, cual­quie­ra dis­pues­to a echar­le ho­ras pue­de ju­gar a su an­to­jo con los ros­tros de los ac­to­res. An­ge­li­na Jo­lie, Na­ta­lie Port­man o Tay­lor Swift, to­das ellas han 'pres­ta­do' in­vo­lun­ta­ria­men­te su ca­ra a cuer­pos de ac­tri­ces porno. Los pro­gra­ma­do­res amateurs tam­bién usan el tras­plan­te di­gi­tal pa­ra co­lar su ca­ra o la de ami­gos en es­ce­nas de ta­qui­lla­zos de Holly­wood.

To­do es­to es po­si­ble gra­cias a una apli­ca­ción gra­tui­ta lla­ma­da Fa­keApp, la mis­ma que ha usado Buz­zFeed pa­ra crear su Oba­ma fal­so. Es­te pro­gra­ma fa­ci­li­ta mu­chí­si­mo la pro­duc­ción de lo que en la jer­ga de In­ter­net ya se co­no­ce co­mo deep­fa­kes.

Fa­keApp uti­li­za al­go­rit­mos in­te­li­gen­tes que op­ti­mi­zan sus re­sul­ta­dos por sí mis­mos, sin in­ter­ven­ción hu­ma­na. Si se le fa­ci­li­tan su­fi­cien­tes imá­ge­nes de dos per­so­nas, el pro­gra­ma mon­ta la ca­ra de un ti­po so­bre el cuer­po de otro con un re­sul­ta­do sor­pren­den­te­men­te rea­lis­ta. Y es­to es so­lo el prin­ci­pio. Los ex­per­tos en in­te­li­gen­cia ar­ti­fi­cial es­tán se­gu­ros de que ca­da vez va a ser más sen­ci­llo ma­ni­pu­lar ví­deos de for­ma con­vin­cen­te.

NO SO­LO LA IMA­GEN ES IM­POR­TAN­TE.

Pe­ro pa­ra que la men­ti­ra sea per­fec­ta no bas­ta so­lo la ima­gen, se ne­ce­si­ta la voz. Ado­be pre­sen­tó en 2016 el pro­gra­ma de aná­li­sis de voz VoCo. Se­gún sus crea­do­res, le bas­tan 20 mi­nu­tos de ma­te­rial pa­ra ex­traer las ca­rac­te­rís­ti­cas pro­pias de una voz. A con­ti­nua­ción, el usua­rio pue­de ha­cer­le de­cir a esa voz to­do lo que quie­ra sim­ple­men­te te­clean­do las pa­la­bras en un cua­dro de diá­lo­go.

Goo­gle tam­bién ha en­tra­do en los sis­te­mas de voz. La em­pre­sa aca­ba de pre­sen­tar un nue­vo asis­ten­te, lla­ma­do Du­plex, ca­paz de re­ser­var una me­sa en un res­tau­ran­te o pe­dir ci­ta en la pe­lu­que­ría con una voz sor­pren­den­te­men­te 'hu­ma­na', ob­via­men­te por te­lé­fono. Du­plex in­clu­so ha­ce pau­sas e in­tro­du­ce los tí­pi­cos so­ni­dos de du­da. Du­ran­te su pre­sen­ta­ción, los desa­rro­lla­do­res hi­cie­ron dos lla­ma­das con éxi­to, sin que el pro­gra­ma in­for­ma­ra a su in­ter­lo­cu­tor de que no es­ta­ba ha­blan­do con al­guien de car­ne y hue­so.

Es­te nue­vo soft­wa­re des­per­tó en­tu­sias­mo en­tre los asis­ten­tes, pe­ro tam­bién in­quie­tud. Desa­rro­llar un pro­gra­ma que «si­mu­le ser un hu­mano» y «en­ga­ñe» a la gen­te es «ate­rra­dor», tui­teó la so­ció­lo­ga Zey­nep Tu­fek­ci, de la Uni­ver­si­dad de Carolina del Nor­te. En su opi­nión, en Si­li­con Va­lley se les ha ido la mano, es­tán «éti­ca­men­te per­di­dos».

¿EN QUÉ PO­DE­MOS CREER?

A la vis­ta de to­do es­to, hay que pre­gun­tar­se has­ta dón­de pue­den lle­gar los desa­rro­lla­do­res con sus fal­si­fi­ca­cio­nes.

Y si ya na­da de lo que pa­re­ce real lo es, ¿en qué po­de­mos creer?

Has­ta aho­ra, la ma­yo­ría de la gen­te ten­día a con­si­de­rar au­tén­ti­cas las gra­ba­cio­nes de au­dio o ví­deo, siem­pre y cuan­do hu­bie­ran si­do emi­ti­das en directo o no hu­bie­ran si­do mon­ta­das o edi­ta­das. La ca­pa­ci­dad de ge­ne­rar in­dig­na­ción era mu­cho ma­yor cuan­do los es­cán­da­los iban acom­pa­ña­dos por au­dios o imá­ge­nes. Pe­ro aho­ra las du­das del pú­bli­co no de­jan de cre­cer.

En oc­tu­bre de 2016, Do­nald Trump no tu­vo más re­me­dio que re­co­no­cer la au­ten­ti­ci­dad de aquel fa­mo­so «co­ger­las del co­ño», y pe­dir dis­cul­pas por sus co­men­ta­rios obs­ce­nos so­bre las mu­je­res. Sin em­bar­go, aho­ra ya sí se atre­ve a ne­gar la au­to­ría de esas pa­la­bras: «No cree­mos que fue­ra mi voz».

Tam­bién es­tá el ca­so de Em­ma Gon­zá­lez, su­per­vi­vien­te de la ma­sa­cre del ins­ti­tu­to de Par­kland, en Flo­ri­da. Es­ta alum­na de pe­lo ra­pa­do se con­vir­tió en icono de las pro­tes­tas con­tra la te­nen­cia de ar­mas en Es­ta­dos Uni­dos. Po­co des­pués de sus pri­me­ros dis­cur­sos cir­cu­ló por

EN NUE­VA YORK SE HA REUNI­DO UN GRU­PO DE EX­PER­TOS EN 'FA­KE NEWS' PA­RA CON­CIEN­CIAR A LA SO­CIE­DAD SO­BRE ES­TAS HE­RRA­MIEN­TAS

las re­des un ví­deo en el que se la veía rom­pien­do la Cons­ti­tu­ción es­ta­dou­ni­den­se. Los au­to­res al­te­ra­ron un ví­deo real pa­ra des­acre­di­tar­la.

El tec­nó­lo­go Aviv Ovad­ya es­tá con­ven­ci­do de que, pron­to, nos ve­re­mos inun­da­dos por es­tos ví­deos fal­sos. Le preo­cu­pa que las cam­pa­ñas po­lí­ti­cas di­ri­gi­das por in­te­li­gen­cias ar­ti­fi­cia­les re­sul­ten in­dis­tin­gui­bles de los mo­vi­mien­tos ciu­da­da­nos rea­les. In­clu­so te­me una «ma­ni­pu­la­ción de la di­plo­ma­cia», por ejem­plo, que círculos in­tere­sa­dos ha­gan creer a la gen­te «que un su­ce­so ha te­ni­do lu­gar». Un ví­deo en el que An­ge­la Mer­kel di­ce al­go com­pro­me­te­dor so­bre el pre­si­den­te tur­co Re­cep Tay­yip Er­do­gan po­dría cau­sar una ca­tás­tro­fe di­plo­má­ti­ca. ¿Y qué pa­sa­ría si apa­re­ce un ví­deo en el que el lí­der nor­co­reano, Kim Jong-un, or­de­na el lan­za­mien­to de mi­si­les nu­clea­res con­tra Es­ta­dos Uni­dos? ¿Trump es­pe­ra­ría a que sus ser­vi­cios de in­te­li­gen­cia com­pro­ba­ran su au­ten­ti­ci­dad an­tes de de­cre­tar un con­tra­ata­que?

LA SO­CIE­DAD ES VUL­NE­RA­BLE.

YA SE HA LO­GRA­DO CREAR UN PRO­GRA­MA CA­PAZ DE SI­MU­LAR LA VOZ DE TU NO­VIA Y DE PE­DIR­TE LA CLA­VE DE TU CUEN­TA POR TE­LÉ­FONO

¿Qué le ocu­rre a una so­cie­dad si se la ex­po­ne a fa­ke news ca­da vez más per­fec­tas? En opi­nión de Aviv Ovad­ya hay dos es­ce­na­rios po­si­bles. Y los dos po­nen en pe­li­gro la de­mo­cra­cia.

Por un la­do, plan­tea la po­si­bi­li­dad de que «la gen­te se aca­be de­sen­ten­dien­do, que de­je de se­guir las no­ti­cias». Ovad­ya lo lla­ma «apa­tía por la reali­dad». Abu­rri­da de las fal­se­da­des, la so­cie­dad em­pie­za a cues­tio­nar to­das las no­ti­cias ofre­ci­das por los me­dios.

En un se­gun­do es­ce­na­rio, más per­tur­ba­dor si ca­be, «las per­so­nas úni­ca­men­te re­ci­bi­rán aque­llo que se ajus­te a sus con­vic­cio­nes»; de he­cho, ya es­ta­mos vien­do al­go pa­re­ci­do en Es­ta­dos Uni­dos. ¿Qué su­ce­de cuan­do to­do el mun­do cree so­lo lo que quie­re creer? Que la so­cie­dad se po­la­ri­za pe­li­gro­sa­men­te.

El pro­ble­ma tam­bién tie­ne su raíz en la pro­pia na­tu­ra­le­za hu­ma­na: los cien­tí­fi­cos han de­mos­tra­do que, con el tiem­po, los re­cuer­dos se aca­ban con­vir­tien­do en cer­te­zas in­de­pen­dien­te­men­te de si al prin­ci­pio iban acom­pa­ña­dos por cier­tas du­das. Es­te fe­nó­meno pa­re­ce ser es­pe­cial­men­te vá­li­do en el ca­so de los ví­deos: el ce­re­bro hu­mano tie­ne una ca­pa­ci­dad li­mi­ta­da pa­ra, por así de­cir­lo, dar por no vis­to al­go que ha vis­to.

«Es muy fá­cil ven­der­le a la gen­te co­mo cier­to al­go que no lo es», di­ce Aviv Ovad­ya. En cier­ta ma­ne­ra, aña­de, es­ta­mos an­te un «fa­llo de se­gu­ri­dad en el ce­re­bro del ser hu­mano».

¿Nos en­fren­ta­mos, pues, al co­lap­so de la reali­dad? ¿Las fa­ke news sur­gi­das de la in­te­li­gen­cia ar­ti­fi­cial po­drían des­truir ese pi­lar de la de­mo­cra­cia que es la cre­di­bi­li­dad de los he­chos?

¿RA­ZO­NES PA­RA EL OP­TI­MIS­MO?

No to­dos los in­ves­ti­ga­do­res son tan pe­si­mis­tas. «Hay mu­cho alar­mis­mo», di­ce Matt­hias Niess­ner, pro­fe­sor de la Uni­ver­si­dad Téc­ni­ca de Mú­nich. De to­dos mo­dos, es­tá de acuer­do en que las per­so­nas son fá­ci­les de en­ga­ñar. En uno de sus ex­pe­ri­men­tos, sus es­tu­dian­tes no fue­ron ca­pa­ces de dis­tin­guir los ví­deos fal­sos de los au­tén­ti­cos.

Sin em­bar­go, pa­ra los or­de­na­do­res sí es fá­cil iden­ti­fi­car fo­tos o ví­deos ma­ni­pu­la­dos. Por eso es­te pro­fe­sor quie­re com­ba­tir las fa­ke news con la tec­no­lo­gía: con pro­ce­di­mien­tos fo­ren­ses de in­te­li­gen­cia ar­ti­fi­cial. Niess­ner y su equi­po ya han desa­rro­lla­do un pro­gra­ma de­tec­ti­ve, Fa­ceFo­ren­sics, que re­co­no­ce si un ví­deo es au­tén­ti­co o no. In­clu­so han desa­rro­lla­do un plug-in que des­cu­bre los ví­deos fal­sos de for­ma au­to­má­ti­ca. Los usua­rios pue­den in­cor­po­rar­lo a su na­ve­ga­dor Firefox o Ch­ro­me pa­ra se­pa­rar la pa­ja del grano, pa­ra dis­tin­guir la fic­ción de la reali­dad.

En Nue­va York se aca­ba de re­unir un gru­po de ex­per­tos en el cam­po de las fa­ke news, con la in­ten­ción de con­cien­ciar a la so­cie­dad: el NYC Me­dia Lab ha or­ga­ni­za­do el Fa­ke News Ho­rror Show, una «fe­ria cien­tí­fi­ca que reúne ate­rra­do­ras he­rra­mien­tas de pro­pa­gan­da, al­gu­nas rea­les, otras fic­ti­cias, pe­ro to­das ellas ba­sa­das en tec­no­lo­gías plau­si­bles», co­mo se ase­gu­ra en la in­vi­ta­ción. La in­ten­ción de es­te sim­po­sio la re­su­me bien el fal­so Oba­ma al fi­nal del ví­deo de Buz­zFeed: «Es­tad aten­tos, ca­pu­llos».

El ac­tor Jor­dan Pee­le 'mue­ve' los la­bios de Ba­rack Oba­ma. Cual­quie­ra dis­pues­to a echar­le ho­ras pue­de ha­cer al­go pa­re­ci­do.

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.