La me­ga fil­tra­ción de da­tos gol­pea a Fa­ce­book y abre un de­ba­te glo­bal

El gi­gan­te in­for­má­ti­co per­dió unos 50.000 mi­llo­nes de dó­la­res. La bri­tá­ni­ca Cam­brid­ge Analy­ti­ca fil­tró da­tos de 50 mi­llo­nes de elec­to­res en Es­ta­dos Uni­dos. La em­pre­sa uti­li­zó la téc­ni­ca en más de 200 elec­cio­nes

El Deber - Cuerpo B - - Mundo - Carlos Mo­ra­les y agen­cias cmo­ra­les@el­de­ber.com.bo

Más de 50 mi­llo­nes de usua­rios de Fa­ce­book no sa­bían que las res­pues­tas a ni­mias en­cues­tas es­ta­ban sien­do uti­li­za­das por la con­sul­to­ra Cam­brid­ge Analy­ti­ca pa­ra be­ne­fi­ciar la cam­pa­ña elec­to­ral de Do­nald Trump en las pre­si­den­cia­les de 2016. Las fil­tra­cio­nes de da­tos con fi­nes po­lí­ti­cos desata­ron un es­cán­da­lo glo­bal que ha gol­pea­do a la red so­cial más gran­de del mun­do.

"¿Qué Po­ke­mon eres tú?", o "¿ Cuá­les son las pa­la­bras que más usas?", eran las pre­gun­tas que les lle­ga­ban a los usua­rios de la red azu­la­da. La gen­te con­tes­ta­ba sin pen­sar que esas par­ti­ci­pa­cio­nes iban a trans­for­mar­se en el com­bus­ti­ble in­for­má­ti­co pa­ra cons­truir per­fi­les de vo­tan­tes pa­ra que la cam­pa­ña del ac­tual man­da­ta­rio to­me de­ci­sio­nes es­tra­té­gi­cas fun­da­men­ta­les pa­ra ven­cer a Hi­llary Clin­ton.

Lo más gra­ve y ex­plo­si­vo del ca­so es que fue sin su con­sen­ti­mien­to, mo­ti­vo que ha ge­ne­ra­do un pro­ce­so pe­nal con­tra los di­rec­ti­vos de Cam­brid­ge Analy­ti­ca y la con­vo­ca­to­ria de Mark Zuc­ker­berg an­te los par­la­men­tos de Gran Bre­ta­ña y Es­ta­dos Uni­dos.

Ade­más, el di­rec­tor de CA, Ale­xan­der Nix, re­co­no­ció en una cá­ma­ra ocul­ta di­fun­di­da en el bri­tá­ni­co Chan­nel 4, que sus téc­ni­cas de ma­ni­pu­la­ción de la opi­nión pú­bli­ca fue­ron uti­li­za­das en más de 200 elec­cio­nes, in­clu­yen­do Ni­ge­ria, Ke­nia, Re­pú­bli­ca Checa y tam­bién Ar­gen­ti­na.

Có­mo fue la tra­ma

Ocu­rrió ha­ce dos años, pe­ro los afec­ta­dos aún no han si­do in­for­ma­dos y po­si­ble­men­te ni si­quie­ra han si­do iden­ti­fi­ca­dos por Fa­ce­book, la em­pre­sa de Mark Zuc­ker­berg. El es­cán­da­lo, cu­ya pro­fun­di­dad real to­da­vía no se co­no­ce, ha abier­to una in­men­sa cri­sis de con­fian­za. Was­hing­ton, Lon­dres y Bru­se­las han exi­gi­do ex­pli­ca­cio­nes y en el ho­ri­zon­te ha emer­gi­do la som­bra ra­diac­ti­va de Cam­brid­ge Analy­ti­ca.

Ba­jo es­te pul­cro nom­bre, se ocul­ta una com­pa­ñía que du­ran­te años fue con­si­de­ra­da el gran pro­di­gio de la al­qui­mia elec­to­ral y que aho­ra, tras una in­ves- ti­ga­ción de los dia­rios The New York Ti­mes y The Ob­ser­ver, ame­na­za con de­sin­te­grar a to­do el que se le acer­có.

Una bom­ba ca­paz de ofre­cer chan­ta­jes a po­lí­ti­cos y ju­gue­tear con los de­mo­nios de la tra­ma ru­sa y sus gran­des pro­ta­go­nis­tas. Des­de el caí­do con­se­je­ro de Se­gu­ri­dad Na­cio­nal, Mi­chael Flynn, has­ta el ex es­tra­te­ga je­fe de Trump, Ste­ve Ban­non, y el yerno pre­si­den­cial, Ja­red Kush­ner.

Re­gu­la­cio­nes EEUU y Gran Bre­ta­ña de­ba­ten có­mo re­gu­lar a las in­for­má­ti­cas.

To­dos tu­vie­ron tra­to con Cam­brid­ge Analy­ti­ca y to­dos se man­tie­nen es­tos días un pa­so atrás. Es­pe­ran po­si­ble­men­te ver el desen­la­ce de una his­to­ria que en su día no le­van­tó sos­pe­chas.

La com­pa­ñía fue crea­da en 2013 pa­ra par­ti­ci­par en la po­lí­ti­ca es­ta­dou­ni­den­se. Su prin­ci­pal in­ver­sor (15 mi­llo­nes de dó­la­res) fue el mul­ti­mi­llo­na­rio Ro­bert Mer­cer, gran pa­drino de Ste­ve Ban­non, de su por­tal Breit­bart y de las co­rrien­tes os­cu­ras de la nue­va ul­tra­de­re­cha ame­ri­ca­na. Su ob­je­ti­vo era em­plear en la li­za elec­to­ral las asom­bro­sas téc­ni­cas psi­co­grá­fi­cas anun­cia­das por la em­pre­sa. Un mé­to­do ca­si or­we­lliano so­bre cu­ya ver­da­de- ra efi­ca­cia hay du­das, pe­ro que pron­to ob­nu­bi­ló a Trump y su en­torno.

La pe­que­ña fir­ma, li­de­ra­da por el ele­gan­te y pe­li­gro­so Ale­xan­der Nix, es­tá es­pe­cia­li­za­da en re­co­ger da­tos on­li­ne y crear con ellos per­fi­les de los vo­tan­tes. Fi­chas que sir­ven de dia­na a la pu­bli­ci­dad elec­to­ral.

“Si co­no­ces la per­so­na­li­dad del elec­tor, pue­des ajus­tar mu­cho más tus men­sa­jes y mul­ti­pli­car el im­pac­to”, se­ña­ló Nix.

La prio­ri­dad, ba­jo es­ta pre­mi­sa, no ra­di­ca ya en la edad, se­xo o ra­za del vo­tan­te, sino en las ten­den­cias emo­cio­na­les. Co­no­cién­do­las, se pue­de in­fluir en ellas. Esa es la mer­can­cía que ven­de Cam­brid­ge Analy­ti­ca, no so­lo en Es­ta­dos Uni­dos, sino tam­bién en Ar­gen­ti­na, Bra­sil y Es­pa­ña.

El mo­de­lo, co­mo ha ana­li­za­do el por­tal Vox, fue desa­rro­lla­do por el in­ves­ti­ga­dor de la Uni­ver­si­dad de Cam­brid­ge Mi­chael Ko­sins­ki y, a gran­des ras­gos, sur­ge de co­nec­tar los li­kes de un usua­rio en Fa­ce­book con un test de per­so­na­li­dad (OCEAN) que mi­de si una per­so­na es abier­ta a la ex­pe­rien­cia, me­ticu­losa, ex­tro­ver­ti­da, ama­ble u ob­se­si­va. Es­te re­tra­to, unido a la in­for­ma­ción de ac­ce­so li­bre que flo­ta en el uni­ver­so di­gi­tal so­bre el usua­rio (com­pras, há­bi­tos, via­jes…), sir­ve pa­ra con­fi­gu­rar el lla­ma­do “per­fil psi­co­grá­fi­co”. Un ins­tru­men­to que per­mi­te pre­ver la ten­den­cia de vo­to.

Atraí­dos por es­te bo­tín, los re­pu­bli­ca­nos con­tra­ta­ron los ser­vi­cios de Cam­brid­ge Analy­ti­ca du­ran­te las le­gis­la­ti­vas de 2014 en Ar­kan­sas, Ca­ro­li­na del Nor­te y New Ham­ps­hi­re. El éxi­to son­rió y, en las pri­ma­rias pa­ra las pre­si­den­cia­les, la com­pa­ñía pa­só a tra­ba­jar pa­ra los con­ser­va­do­res Ted Cruz y Ben Car­son. De­rro­ta­dos es­tos can­di­da­tos, la em­pre­sa no tu­vo em­pa­cho en po­ner­se al ser­vi­cio del emer­gen­te Trump. La con­tra­ta­ción la for­ma­li­zó su yerno, Ja­red Kush­ner.

Ayu­da es­pe­cia­li­za­da

La ma­nio­bra con­tó con ayu­da es­pe­cia­li­za­da. Un in­ves­ti­ga­dor de la Uni­ver­si­dad de Cam­brid­ge que ha­bía par­ti­ci­pa­do en el desa­rro­llo del mé­to­do ori­gi­nal, el si­có­lo­go ru­so- ame­ri­cano Ale­xan­der Ko­gan, le ten­dió el ca­ble.

Au­to­ri­za­do por Fa­ce­book, siem­pre se­gún los me­dios es­ta­dou­ni­den­ses, Ko­gan ha­bía rea­li­za­do co­mo aca­dé­mi­co una in­ves­ti­ga­ción si­co­ló­gi­ca en­tre usua­rios y ha­bía re­co­gi­do con una apli­ca­ción los vai­ve­nes de su ac­ti­vi­dad. Aun­que so­lo 270.000 per­so­nas le ha­bían da­do per­mi­so ex­plí­ci­to, él ob­tu­vo per­fi­les bru­tos de 50 mi­llo­nes de usua­rios. Y ese fue el com­bus­ti­ble de Cam­brid­ge Analy­ti­ca.

El mul­ti­mi­llo­na­rio neo­yor­quino ga­nó, en­tre otros fac­to­res, por Fa­ce­book. Y el sis­te­ma pa­ra ha­cer­lo fue acer­tar con la pu­bli­ci­dad de cam­pa­ña. Seg­men­tar, apun­tar y dis­pa­rar. Esa era la es­pe­cia­li­dad de CA. Un es­fuer­zo que le lle­vó a lan­zar una me­dia de 50.000 anun­cios dia­rios (con pi­cos de 100.000) y que po­cos du­dan que fue­ron cla­ve en unos co­mi­cios que se di­ri­mie­ron por 77.000 vo­tos en tres Es­ta­dos. En re­com­pen­sa, Pars­ca­le ha si­do nom­bra­do je­fe de la cam­pa­ña pa­ra la re­elec­ción de Trump.

Las dis­cul­pas de Zuc­ker­berg

El es­cán­da­lo es­ca­ló a tal pro­por­ción que el fun­da­dor de Fa­ce­book, Mark Zuc­ker­berg, tu­vo que sa­lir a la pa­les­tra a pe­dir dis­cul­pas y re­co­no­cer que la pla­ta­for­ma co­me­tió erro­res im­per­do­na­bles.

Se­ma­nas atrás, la mis­ma em­pre­sa ha­bía re­co­no­ci­do que la fil­tra­ción de da­tos pue­de te­ner efec­tos ne­ga­ti­vos pa­ra el sis­te­ma de­mo­crá­ti­co, por lo que pro­me­tió ajus­tar sus me­ca­nis­mos pa­ra que los da­tos de cien­tos de mi­llo­nes de per­so­nas no cai­gan en ma­nos de co­mer­cian­tes, po­lí­ti­cos y ma­fias or­ga­ni­za­das pa­ra ha­cer da­ño a los sis­te­mas y las per­so­nas.

El in­ven­tor de World Wi­de Web, Tim Ber­ners-Lee, ani­mó al crea­dor de Fa­ce­book, Mark Zuc­ker­berg, al afir­mar que, "aun­que no se­rá fá­cil", pue­de "arre­glar" los pro­ble­mas que han per­mi­ti­do la fil­tra­ción de da­tos de esa red. "Es­te es un mo­men­to se­rio pa­ra el fu­tu­ro de la web, pe­ro quie­ro que nos man­ten­ga­mos con es­pe­ran­za. Los pro­ble­mas que ve­mos hoy son erro­res en el sis­te­ma. Los erro­res pue­den cau­sar da­ños, pe­ro son crea­dos por las per­so­nas y pue­den ser arre­gla­dos por las per­so­nas", se­ña­ló Ber­ners-Lee. El ex­per­to se re­fi­rió así, en su cuen­ta de Twit­ter, a la fil­tra­ción de da­tos de mi­llo­nes de usua­rios de la red so­cial a Cam­brid­ge Analy­ti­ca, una con­sul­to­ra bri­tá­ni­ca vin­cu­la­da a la cam­pa­ña elec­to­ral en 2016 del aho­ra pre­si­den­te Do­nald Trump. Di­ri­gién­do­se a Zuc­ker­berg, le es­pe­tó "pue­des arre­glar­lo", si bien re­co­no­ció que "no se­rá fá­cil, y agre­gó que "las em­pre­sas tie­nen que tra­ba­jar con go­bier­nos, ac­ti­vis­tas, aca­dé­mi­cos y usua­rios pa­ra ase­gu­rar que las pla­ta­for­mas sir­ven a la hu­ma­ni­dad". Por otro la­do, ISBA, el or­ga­nis­mo que re­pre­sen­ta a las prin­ci­pa­les em­pre­sas anun­cian­tes del Reino Unido, se re­uni­rá con Fa­ce­book pa­ra de­man­dar res­pues­tas so­bre el es­cán­da­lo de Cam­brid­ge Analy­ti­ca y so­li­ci­tar la se­gu­ri­dad de los da­tos de los usua­rios.

IN­VEN­TOR DE WWW ANI­MA A HA­CER CAM­BIOS

Newspapers in Spanish

Newspapers from Bolivia

© PressReader. All rights reserved.