EL MAL DE LA ERA FA­CE­BOOK

El gi­gan­te de las re­des so­cia­les, fa­mo­so por su neu­tra­li­dad in­for­ma­ti­va, ini­ció un ca­mino en el mun­do de las no­ti­cias que pa­re­cía lle­var­le di­rec­ta­men­te al desas­tre. ¿Ha­bían in­flui­do las ‘fake news’ en las úl­ti­mas elec­cio­nes es­ta­dou­ni­den­ses? ¿Es­ta­ban los r

Vanity Fair (Spain) - - CONTENT - Ni­cho­las Thom­pson y Fred Vogelstein son, res­pec­ti­va­men­te, el di­rec­tor y co­la­bo­ra­dor de ‘Wi­red’.

Las fake news y la in­je­ren­cia de los ru­sos han desata­do un tor­be­llino en la red so­cial. Así lo ca­pea Mark Zuc­ker­berg.

En fe­bre­ro de 2016 Mark Zuc­ker­berg en­vió un me­mo­rán­dum a los em­plea­dos de Fa­ce­book en el que re­cri­mi­na­ba cier­tos com­por­ta­mien­tos inapro­pia­dos en las paredes de la ofi­ci­na prin­ci­pal de la em­pre­sa en Men­lo Park, don­de se ani­ma a los em­plea­dos a es­cri­bir no­tas y men­sa­jes. En un par de oca­sio­nes, don­de es­ta­ba es­cri­to “Black Lives Mat­ter” (Las vi­das de los ne­gros im­por­tan), al­guien ha­bía ta­cha­do una par­te y la ha­bía sus­ti­tui­do por “All Lives Mat­ter” (Las vi­das de to­dos im­por­tan). Zuc­ker­berg pe­día al res­pon­sa­ble de esa ac­ción que se abs­tu­vie­ra de re­pe­tir­la.

“El men­sa­je de Black Lives Mat­ter no im­pli­ca que no im­por­ten las vi­das de los de­más —es­cri­bía en el me­mo­rán­dum—. Nun­ca he­mos te­ni­do nor­mas so­bre lo que la gen­te

HE­MOS HA­BLA­DO CON 51 EM­PLEA­DOS DE FA­CE­BOOK. MU­CHOS NO HAN DA­DO SUS NOM­BRES

pue­de es­cri­bir en sus paredes. Ta­char al­go que ha pues­to otra per­so­na su­po­ne un in­ten­to de si­len­ciar un men­sa­je o de de­mos­trar que uno es más im­por­tan­te que otro”. Afir­ma­ba que se es­ta­ba in­ves­ti­gan­do quién ha­bía si­do el res­pon­sa­ble.

Cuan­do la re­pri­men­da de Zuc­ker­berg em­pe­zó a cir­cu­lar por la em­pre­sa, un jo­ven sub­con­tra­ta­do, Ben­ja­min Fear­now, hi­zo una cap­tu­ra de pan­ta­lla de su or­de­na­dor per­so­nal y se la en­vió a su ami­go Mi­chael Nu­ñez, que tra­ba­ja­ba en la web Giz­mo­do. Nu­ñez pu­bli­có una bre­ve no­ti­cia. Una se­ma­na des­pués, en otra co­mu­ni­ca­ción in­ter­na, Fa­ce­book in­vi­ta­ba a sus em­plea­dos a en­viar pre­gun­tas pa­ra Zuc­ker­berg en una reunión ge­ne­ral con to­do el per­so­nal de la em­pre­sa. Una de las más po­pu­la­res era: “¿Qué res­pon­sa­bi­li­dad tiene Fa­ce­book a la ho­ra de pre­ve­nir las ac­cio­nes de Trump en 2017?”. Fear­now hi­zo otra cap­tu­ra de pan­ta­lla, esta vez con su te­lé­fono. Re­cién li­cen­cia­do de la Fa­cul­tad de Pe­rio­dis­mo de Co­lum­bia, tra­ba­ja­ba en la ofi­ci­na de Fa­ce­book en Nue­va York, en la sec­ción Tren­ding To­pics, un feed (fuen­te web) de no­ti­cias po­pu­la­res que apa­re­cía ca­da vez que al­guien abría Fa­ce­book en Es­ta­dos Uni­dos. El feed lo ge­ne­ra­ba un al­go­rit­mo, pe­ro lo mo­de­ra­ban unas 25 per­so­nas con for­ma­ción en pe­rio­dis­mo. Si Trump se con­ver­tía en tren­ding to­pic, como ocu­rría a me­nu­do, iden­ti­fi­ca­ban qué no­ti­cias so­bre él eran más im­por­tan­tes. Si un si­tio po­co se­rio pu­bli­ca­ba al­gu­na men­ti­ra vi­ral, te­nían que sa­car­la del feed.

El día des­pués de que Fear­now hi­cie­ra la se­gun­da cap­tu­ra de pan­ta­lla era vier­nes. Cuan­do se des­per­tó, se en­con­tró en su te­lé­fono 30 no­ti­fi­ca­cio­nes pa­ra asis­tir a una reunión. Pron­to se vio en una vi­deo­con­fe­ren­cia con otros tres em­plea­dos de Fa­ce­book, en­tre ellos Son­ya Ahu­ja, la di­rec­to­ra de in­ves­ti­ga­cio­nes. Ella le pre­gun­tó si ha­bía te­ni­do al­gún ti­po de con­tac­to con Nu­ñez. Él lo ne­gó, pe­ro in­me­dia­ta­men­te ella afir­mó que te­nía los men­sa­jes que ha­bían in­ter­cam­bia­do por Gchat. Y que es­ta­ba des­pe­di­do. Otro em­plea­do, Ryan Vi­lla­rreal, que ha­bía pues­to un “Me gus­ta” al ar­tícu­lo Black Lives Mat­ter y era ami­go de Nu­ñez en Fa­ce­book, tam­bién fue des­pe­di­do.

Nu­ñez si­guió bus­can­do más ma­te­rial. Pron­to pu­bli­có un ar­tícu­lo so­bre una vo­ta­ción in­ter­na que de­mos­tra­ba el in­te­rés de los em­plea­dos de Fa­ce­book por in­ten­tar evi­tar a Trump to­do lo po­si­ble. Des­pués, a prin­ci­pios de ma­yo, pu­bli­có otro ti­tu­la­do: “De­cla­ra­cio­nes de an­ti­guos tra­ba­ja­do­res de Fa­ce­book: su­pri­mi­mos por sis­te­ma las no­ti­cias con­ser­va­do­ras”. El ar­tícu­lo su­ge­ría que el equi­po de Tren­ding To­pics de Fa­ce­book tra­ba­ja­ba pa­ra “me­ter con cal­za­dor” no­ti­cias li­be­ra­les y “po­ner en la lis­ta ne­gra” las con­ser­va­do­ras. Ese post se vol­vió vi­ral. Es­to su­pu­so, por ra­zo­nes que so­lo po­de­mos com­pren­der aho­ra, el prin­ci­pio de los dos años más apo­teó­si­cos de la exis­ten­cia de Fa­ce­book. Esta es la his­to­ria de esos dos años. Pa­ra pre­pa­rar es­te ar­tícu­lo, he­mos ha­bla­do con 51 em­plea­dos o exem­plea­dos de la em­pre­sa, mu­chos han pe­di­do que no men­cio­ne­mos sus nom­bres.

Zuc­ker­berg siem­pre ha­bía si­do im­pla­ca­ble a la ho­ra de ad­qui­rir o hun­dir a cual­quier ri­val. Fue in­ten­tan­do su­pe­rar a uno de ellos como Fa­ce­book lle­gó a con­tro­lar la for­ma en que con­su­mi­mos in­for­ma­ción. En 2012 la red so­cial más ac­ti­va en la dis­tri­bu­ción de no­ti­cias on­li­ne era Twitter. “Era una ame­na­za gi­gan­te”, ase­gu­ra un an­ti­guo eje­cu­ti­vo de Fa­ce­book.

EL AR­TÍCU­LO SU­GE­RÍA QUE FA­CE­BOOK ME­TÍA CON CAL­ZA­DOR NO­TI­CIAS LI­BE­RA­LES Y ELIMINABA LAS CON­SER­VA­DO­RAS

Zuc­ker­berg pu­so en fun­cio­na­mien­to una es­tra­te­gia que ya ha­bía uti­li­za­do con­tra otros com­pe­ti­do­res que no po­día com­prar: pri­me­ro los co­pió y des­pués los aplas­tó. Ajus­tó el feed pa­ra in­cor­po­rar no­ti­cias ge­ne­ra­les y re­for­mó el pro­duc­to pa­ra que se vie­ra el ti­tu­lar y la fir­ma del au­tor. A me­dia­dos de 2015 ha­bía so­bre­pa­sa­do a Goo­gle y ya di­ri­gía 13 veces más lec­to­res que Twitter.

La idea de que Fa­ce­book es una pla­ta­for­ma abier­ta y neu­tral es ca­si un pos­tu­la­do re­li­gio­so den­tro de la em­pre­sa. Si a al­guno de los em­plea­dos no le con­ven­ce esta re­li­gión, la sec­ción 230 de la Com­mu­ni­ca­tions De­cency Act de 1996 (Ley de Bue­nas Prác­ti­cas en las Co­mu­ni­ca­cio­nes) la pro­mue­ve. Se tra­ta de una sec­ción de una ley que pro­te­ge a los in­ter­me­dia­rios de In­ter­net, evi­tán­do­les cual­quier res­pon­sa­bi­li­dad por el con­te­ni­do que cuel­guen sus usua­rios. Si Fa­ce­book em­pe­za­ra a crear o edi­tar el con­te­ni­do de su pla­ta­for­ma, se arries­ga­ría a per­der esa in­mu­ni­dad. Por eso, Fa­ce­book nun­ca ha da­do prio­ri­dad a nin­gún con­te­ni­do en de­tri­men­to de otro. Pe­ro la neu­tra­li­dad tam­bién es una elec­ción. Pre­sen­tar de for­ma si­mi­lar una in­ves­ti­ga­ción de The Was­hing­ton Post o una fla­gran­te men­ti­ra del Den­ver Guar­dian, un pe­rió­di­co to­tal­men­te fa­laz, es una de­ci­sión edi­to­rial, pro­ba­ble­men­te una de las más im­por­tan­tes.

En fe­bre­ro de 2016, cuan­do em­pe­za­ba a ges­tar­se la cri­sis de Tren­ding To­pics, Roger McNa­mee, uno de los in­ver­so­res ini­cia­les de Fa­ce­book, em­pe­zó a no­tar que en la pla­ta­for­ma pa­sa­ban co­sas ex­tra­ñas. “Ha­bía me­mes que sa­lían de un gru­po de Fa­ce­book aso­cia­do con la cam­pa­ña de Ber­nie San­ders, pe­ro que no po­dían pro­ve­nir de ahí, aunque es­ta­ban or­ga­ni­za­dos de una for­ma que in­di­ca­ba que detrás ha­bía di­ne­ro. No pu­de evi­tar pen­sar: ‘Qué ra­ro. Ra­ro y na­da bueno”, re­cuer­da.

En ma­yo Giz­mo­do pu­bli­có su ar­tícu­lo so­bre el ses­go po­lí­ti­co de Tren­ding To­pics que ca­yó como una bom­ba en la se­de de Fa­ce­book en Men­lo Park. No tar­dó en con­se­guir mi­llo­nes de lec­to­res y, por al­gu­na ma­ra­vi­llo­sa iro­nía, apa­re­ció en el Tren­ding To­pics de Fa­ce­book. Pe­ro la ma­la pren­sa no fue lo que les hi­zo per­der la cal­ma. Fue la car­ta que John Thu­ne, se­na­dor re­pu­bli­cano de Da­ko­ta del Sur, es­cri­bió. Thu­ne pre­si­de el Co­mi­té de Co­mer­cio del Se­na­do, que a su vez su­per­vi­sa la Co­mi­sión Fe­de­ral del Mer­ca­do, una agen­cia que se ha­bía en­car­ga­do de in­ves­ti­gar a Fa­ce­book. El se­na­dor que­ría co­no­cer la res­pues­ta de Zuc­ker­berg a esas acu­sa­cio­nes de par­cia­li­dad. La em­pre­sa en­vió a va­rios de sus em­plea­dos a re­unir­se con Thu­ne y es­cri­bió una car­ta en la que ex­pli­ca­ba que ha­bían rea­li­za­do un pro­fun­do exa­men de Tren­ding To­pics y ha­bían con­clui­do que las acu­sa­cio­nes de Giz­mo­do eran ab­so­lu­ta­men­te fal­sas.

Den­tro del pro­pio Fa­ce­book, el pro­ble­ma de Tren­ding To­pics ins­pi­ró una au­tén­ti­ca re­fle­xión in­ter­na. Pe­ro no sir­vió pa­ra mu­cho. A fi­na­les de ju­nio la com­pa­ñía anun­ció un cam­bio mí­ni­mo: re­vi­sar el al­go­rit­mo que uti­li­za­ban pa­ra que fa­vo­re­cie­ra los post que pu­bli­ca­ban los ami­gos y fa­mi­lia­res de los usua­rios. La con­se­cuen­cia más im­por­tan­te de esta con­tro­ver­sia fue que la em­pre­sa em­pe­zó a te­ner mu­cho más cui­da­do de no ha­cer na­da que pu­die­ra su­ge­rir que ve­ta­ba las no­ti­cias con­ser­va­do­ras.

Po­co des­pués, Zuc­ker­berg via­jó a Sun Va­lley, Idaho, a un con­gre­so anual don­de mag­na­tes en manga cor­ta y ga­fas de sol se di­ver­tían y pla­ni­fi­ca­ban com­prar las em­pre­sas de los otros. Ru­pert Mur­doch es­tro­peó el am­bien­te. Le ex­pli­có a Zuc­ker­berg que Fa­ce­book y Goo­gle se ha­bían he­cho con la to­ta­li­dad del mer­ca­do de los anun­cios di­gi­ta­les y que se ha­bían con­ver­ti­do en una gra­ve ame­na­za pa­ra el pe­rio­dis­mo se­rio. Anun­ció que, si no le ofre­cía un acuer­do me­jor a la in­dus­tria de los me­dios edi­to­ria­les, los eje­cu­ti­vos de su em­pre­sa, News Corp, iban a de­nun­ciar pú­bli­ca­men­te a Fa­ce­book y a ha­cer cam­pa­ña en su con­tra. Ya le ha­bían com­pli­ca­do mu­cho las co­sas a Goo­gle en Eu­ro­pa y po­dían ha­cer­le lo mis­mo a Fa­ce­book en EE UU.

Fa­ce­book en­ten­dió que News Corp les es­ta­ba ame­na­zan­do con for­zar una in­ves­ti­ga­ción an­ti­mo­no­po­lio por par­te del Go­bierno o pro­mo­ver un de­ba­te so­bre si la

MUR­DOCH EX­PLI­CÓ A ZUC­KER­BERG QUE SE HA­BÍAN CON­VER­TI­DO EN UNA AME­NA­ZA PA­RA EL PE­RIO­DIS­MO

em­pre­sa me­re­cía la pro­tec­ción con­tra to­da la res­pon­sa­bi­li­dad de la que dis­fru­ta­ba como pla­ta­for­ma neu­tral.

Cuan­do Zuc­ker­berg vol­vió de Sun Va­lley, anun­ció a sus em­plea­dos que te­nían que ase­gu­rar­se de que ese ne­go­cio de las no­ti­cias si­guie­ra exis­tien­do. De­bían idear for­mas pa­ra que las em­pre­sas de me­dios edi­to­ria­les pu­die­ran ga­nar di­ne­ro a tra­vés de la pla­ta­for­ma.

Pe­ro esa re­pen­ti­na preo­cu­pa­ción por los pe­rio­dis­tas no se ex­ten­dió al equi­po de Tren­ding To­pics. A fi­na­les de agos­to, los que lo for­ma­ban re­ci­bie­ron la no­ti­cia de que iban a eli­mi­nar sus pues­tos de trabajo. Un gru­po de in­ge­nie­ros pa­sa­ría a con­tro­lar el al­go­rit­mo. Pron­to, el mó­du­lo em­pe­zó a pu­bli­car men­ti­ras e his­to­rias in­ven­ta­das.

Mien­tras Fa­ce­book li­dia­ba con la cues­tión de en qué ti­po de em­pre­sa se es­ta­ba con­vir­tien­do (una em­pre­sa que do­mi­na­ba los me­dios pe­ro que no que­ría ser una em­pre­sa de me­dios de co­mu­ni­ca­ción), el per­so­nal de la cam­pa­ña de Trump te­nía las co­sas cla­ras: Twitter era pa­ra co­mu­ni­car­se di­rec­ta­men­te con sus par­ti­da­rios y des­po­tri­car con­tra los me­dios; Fa­ce­book, la for­ma de rea­li­zar la ope­ra­ción po­lí­ti­ca de mar­ke­ting di­rec­to más efec­ti­va.

En el ve­rano de 2016, en lo más ál­gi­do de la cam­pa­ña pa­ra las elec­cio­nes pre­si­den­cia­les, pa­re­cía que la pro­yec­ción di­gi­tal de Trump era su gran des­ven­ta­ja. Hi­llary Clin­ton re­ci­bía ase­so­ra­mien­to de Eric Sch­midt, uno de los di­rec­ti­vos de Goo­gle, mien­tras Trump lo ha­cía de Brad Pars­ca­le, co­no­ci­do so­la­men­te por ha­ber crea­do la web de la Eric Trump Foun­da­tion, y su di­rec­tor de re­des so­cia­les era su an­ti­guo cad­die. Pe­ro en 2016 se des­cu­brió que pa­ra di­ri­gir una cam­pa­ña pre­si­den­cial lo úni­co que ha­cía fal­ta era te­ner­le pi­lla­do el tru­co a Fa­ce­book.

A lo lar­go del ve­rano, el equi­po de Trump con­vir­tió la pla­ta­for­ma en una de sus prin­ci­pa­les for­mas de re­cau­da­ción de fon­dos. Col­ga­ban men­sa­jes como: “¡Los me­dios es­tán ama­ñan­do esta cam­pa­ña pu­bli­can­do acu­sa­cio­nes fal­sas y bur­das men­ti­ras pa­ra que aca­be sa­lien­do ele­gi­da la sin­ver­güen­za de Hi­llary!”, que re­ci­bían cien­tos de mi­les de “Me gus­ta”. Mien­tras, los men­sa­jes de Clin­ton te­nían me­nos re­so­nan­cia. En Fa­ce­book ca­si to­dos que­rían que ga­na­ra Clin­ton, pe­ro sa­bían que Trump es­ta­ba uti­li­zan­do me­jor su pla­ta­for­ma. Él era el candidato de Fa­ce­book; ella, la de Lin­ke­dIn.

La can­di­da­tu­ra de Trump sir­vió pa­ra que una nue­va cla­se de es­ta­fa­do­res co­la­ra his­to­rias fal­sas, pe­ro vi­ra­les. Pa­ra el fi­nal de la cam­pa­ña, ge­ne­ra­ban más aten­ción que las no­ti­cias reales.

No ol­vi­de­mos que Fa­ce­book ven­día pu­bli­ci­dad gra­cias a las his­to­rias que col­ga­ba, y la ba­su­ra sen­sa­cio­na­lis­ta ve­nía bien pa­ra atraer gen­te. Los bo­nus de los em­plea­dos se ba­sa­ban en si Fa­ce­book al­can­za­ba cier­to cre­ci­mien­to y unos ob­je­ti­vos de in­gre­sos, lo que su­po­nía un in­cen­ti­vo ex­tra pa­ra no preo­cu­par­se de­ma­sia­do por co­sas que ser­vían pa­ra en­gan­char a la gen­te. Fa­ce­book te­nía mul­ti­tud de ra­zo­nes pa­ra mi­rar pa­ra otro la­do.

Pe­ro, a nue­ve días de las elec­cio­nes, Roger McNa­mee en­vió un email a Sand­berg y Zuc­ker­berg: “Es­toy muy preo­cu­pa­do por Fa­ce­book. Me com­pro­me­tí con la em­pre­sa ha­ce más de una dé­ca­da y has­ta aho­ra me he enor­gu­lle­ci­do de su éxi­to… Pe­ro to­do ha cam­bia­do. Es­toy muy de­cep­cio­na­do. Y me da ver­güen­za. Sien­to bo­chorno”.

No es fá­cil re­co­no­cer que la

LA CAN­DI­DA­TU­RA DE TRUMP SIR­VIÓ PA­RA QUE UNA NUE­VA CLA­SE DE ES­TA­FA­DO­RES COLASE NO­TI­CIAS FAL­SAS

má­qui­na que has cons­trui­do pa­ra unir a la gen­te es­tá uti­li­zán­do­se pa­ra se­pa­rar­la. Por eso, la reac­ción ini­cial de Zuc­ker­berg a la vic­to­ria de Trump y al pa­pel que Fa­ce­book po­día ha­ber desem­pe­ña­do fue una ne­ga­ti­va des­a­bri­da. Los eje­cu­ti­vos re­cuer­dan el pá­ni­co de los pri­me­ros días, con el equi­po de acá pa­ra allá en­tre la sa­la de reunio­nes de Zuc­ker­berg y la de Sand­berg, in­ten­tan­do ave­ri­guar qué aca­ba­ba de pa­sar y si te­nían la cul­pa. Dos días des­pués de las elec­cio­nes, Zuc­ker­berg con­clu­yó que “la idea de que las no­ti­cias fal­sas que sa­lían en Fa­ce­book in­flu­ye­ron de al­gu­na for­ma en las elec­cio­nes es una lo­cu­ra”.

En esa épo­ca, la em­pre­sa em­pe­zó a cues­tio­nar­se si te­nían de­ma­sia­do po­der. Po­co des­pués de las elec­cio­nes, un equi­po de em­plea­dos em­pe­zó a tra­ba­jar en el News Feed In­te­grity Task For­ce (fuer­za ope­ra­ti­va pa­ra la in­te­gri­dad de News Feed) lle­va­dos por la sen­sa­ción de que la in­for­ma­ción erró­nea hi­per­par­ti­dis­ta era “una en­fer­me­dad que es­ta­ba co­lo­ni­zan­do len­ta­men­te to­da la pla­ta­for­ma”. El gru­po em­pe­zó a re­unir­se a dia­rio pa­ra res­pon­der a la cri­sis de las no­ti­cias fal­sas. Se­ma­nas des­pués, la em­pre­sa ex­pli­có que iba a re­cor­tar los in­gre­sos por pu­bli­ci­dad y que les fa­ci­li­ta­ría a los usua­rios la po­si­bi­li­dad de mar­car las his­to­rias que cre­ye­ran fal­sas. En di­ciem­bre anun­cia­ron que iban a in­tro­du­cir un com­pro­ba­dor de ve­ra­ci­dad. Si re­ci­bían avi­sos de que una his­to­ria era fal­sa, la en­via­rían au­to­má­ti­ca­men­te a al­gu­na em­pre­sa aso­cia­da, como Sno­pes, pa­ra que la re­vi­sa­ra.

La afir­ma­ción de Zuc­ker­berg de que las no­ti­cias fal­sas “eran una lo­cu­ra” lle­gó a oí­dos de la in­ves­ti­ga­do­ra de se­gu­ri­dad Re­née DiRes­ta, que lle­va­ba años es­tu­dian­do có­mo se di­fun­día la in­for­ma­ción erró­nea en esa pla­ta­for­ma. Ha­bía observado que, si te unías a un gru­po an­ti­va­cu­nas, Fa­ce­book te su­ge­ría otros que de­fen­dían que la tie­rra era pla­na o que apo­ya­ban el Piz­za­ga­te, es de­cir, era como su­bir­te en una cin­ta trans­por­ta­do­ra que lle­va­ba di­rec­ta­men­te a la ob­se­sión con las cons­pi­ra­cio­nes. A Re­née le pa­re­ció que la afir­ma­ción de Zuc­ker­berg de­mos­tra­ba una ab­so­lu­ta ig­no­ran­cia. Re­cuer­da ha­ber pen­sa­do: “¿Pe­ro có­mo al­guien que tra­ba­ja en esa pla­ta­for­ma pue­de pen­sar así?”. Mien­tras, Roger McNa­mee se ha­bía irri­ta­do por la res­pues­ta de Fa­ce­book a su car­ta. Zuc­ker­berg y Sand­berg no tar­da­ron en en­viar­le una res­pues­ta, pe­ro en ella no de­cían na­da sus­tan­cial.

En abril de 2017, tras coin­ci­dir en un pro­gra­ma de te­le­vi­sión de Bloom­berg TV, McNa­mee en­tró en con­tac­to con Tris­tan Ha­rris, un de­fen­sor de la éti­ca del di­se­ño que ha­bía tra­ba­ja­do pa­ra Goo­gle.

Al mes si­guien­te, DiRes­ta pu­bli­có un ar­tícu­lo en el que com­pa­ra­ba a los pro­vee­do­res de in­for­ma­cio­nes erró­neas en las re­des so­cia­les con los pe­li­gro­sos ope­ra­do­res de al­ta fre­cuen­cia de los mer­ca­dos fi­nan­cie­ros. Ha­rris se que­dó im­pre­sio­na­do y con­tac­tó con ella. Los tres no tar­da­ron en di­vul­gar los en­ve­ne­na­dos efec­tos de Fa­ce­book so­bre la democracia es­ta­dou­ni­den­se. Pron­to sur­gió un pú­bli­co re­cep­ti­vo a su men­sa­je en los me­dios y en el Con­gre­so.

Las reunio­nes en­tre Fa­ce­book y los eje­cu­ti­vos de los me­dios de co­mu­ni­ca­ción pa­re­cían ten­sas reunio­nes fa­mi­lia­res. No se caían na­da bien los unos a los otros. Los eje­cu­ti­vos de los me­dios es­ta­ban mo­les­tos por­que Fa­ce­book y Goo­gle ha­bían aca­pa­ra­do tres cuar­tas par­tes del ne­go­cio de los anun­cios di­gi­ta­les. Y es­ta­ba ese pro­fun­do mie­do que siem­pre les ha­bía ins­pi­ra­do Fa­ce­book: si la red so­cial qui­sie­ra, po­dría pul­sar los bo­to­nes ade­cua­dos pa­ra ha­cer­le mu­cho da­ño a una em­pre­sa de me­dios con la ma­ni­pu­la­ción de su trá­fi­co, de su red de pu­bli­ci­dad o de sus lec­to­res. Por su par­te, a los emi­sa­rios de Fa­ce­book les re­sul­ta­ba ago­ta­dor que les die­ran cons­tan­te­men­te lec­cio­nes unas per­so­nas que no sa­bían dis­tin­guir un al­go­rit­mo de una API.

En fe­bre­ro Zuc­ker­berg pu­bli­có un ma­ni­fies­to di­ri­gi­do al per­so­nal de su em­pre­sa. “¿Es­ta­mos cons­tru­yen­do el mun­do que que­re­mos?”, se pre­gun­ta­ba y de­ja­ba en­tre­ver que la res­pues­ta era un “no”. En­tre afir­ma­cio­nes gran­di­lo­cuen­tes so­bre “cons­truir una co­mu­ni­dad glo­bal”, ha­cía hin­ca­pié en

ZUC­KER­BERG CON­CLU­YÓ QUE LA IDEA DE QUE LAS NO­TI­CIAS FAL­SAS HA­BÍAN IN­FLUI­DO EN LAS ELEC­CIO­NES ERA UNA LO­CU­RA

la ne­ce­si­dad de man­te­ner a la gen­te in­for­ma­da pa­ra aca­bar con las no­ti­cias fal­sas y los click­baits. Al­gu­nos vie­ron el tex­to como una se­ñal de que Zuc­ker­berg ha­bía en­ten­di­do las pro­fun­das res­pon­sa­bi­li­da­des cí­vi­cas de la em­pre­sa. Otros, su ten­den­cia a su­ge­rir que la res­pues­ta a cual­quier pro­ble­ma era que la gen­te usa­ra más Fa­ce­book.

Una de las mu­chas co­sas que, al pa­re­cer, Zuc­ker­berg no es­ta­ba en­ten­dien­do cuan­do es­cri­bió ese ma­ni­fies­to era que su pla­ta­for­ma ha­bía su­fri­do un ata­que por par­te de un gru­po de in­fluen­cia ex­tran­je­ro. “Yo ha­ría una cla­ra dis­tin­ción en­tre las no­ti­cias fal­sas y lo que tiene que ver con Ru­sia. Con es­to úl­ti­mo hu­bo un mo­men­to en el que to­do el mun­do di­jo: ‘Oh, mier­da, es­to es una si­tua­ción pa­ra Se­gu­ri­dad Na­cio­nal o al­go pa­re­ci­do”, afir­ma un eje­cu­ti­vo que tra­ba­jó en la res­pues­ta de la em­pre­sa.

Pe­ro a Fa­ce­book no se le abrie­ron los ojos so­bre es­te asun­to has­ta más de seis me­ses des­pués de las elec­cio­nes. A prin­ci­pios de la tem­po­ra­da de cam­pa­ña, Fa­ce­book era cons­cien­te de que se pro­du­cían ha­bi­tual­men­te ata­ques de hac­kers ru­sos co­no­ci­dos, como por ejem­plo el gru­po APT28, que se creía que te­nía cier­ta re­la­ción con Mos­cú. Hac­kea­ban cuen­tas fue­ra de Fa­ce­book pa­ra ro­bar do­cu­men­tos y des­pués crea­ban cuen­tas de Fa­ce­book fal­sas, ba­jo el pa­ra­guas del nom­bre ge­né­ri­co de DCLeaks, con la in­ten­ción de pro­vo­car que la gen­te ha­bla­ra de lo que ha­bían ro­ba­do. La em­pre­sa no vio se­ña­les de una cam­pa­ña de pro­pa­gan­da ex­tran­je­ra se­ria y coor­di­na­da, pe­ro en reali­dad tam­po­co se les ocu­rrió bus­car­la.

En la pri­ma­ve­ra de 2017 el equi­po de se­gu­ri­dad de la com­pa­ñía em­pe­zó a pre­pa­rar un in­for­me so­bre có­mo la in­te­li­gen­cia ru­sa y las de otras na­cio­nes ha­bían uti­li­za­do la pla­ta­for­ma. Uno de sus au­to­res era Alex Sta­mos, di­rec­tor del equi­po de se­gu­ri­dad. Pe­ro los miem­bros del equi­po de po­lí­ti­ca y co­mu­ni­ca­cio­nes pre­sio­na­ron pa­ra mi­ni­mi­zar­lo. Al fi­nal, ha­bía po­cos ejem­plos es­pe­cí­fi­cos y no se men­cio­na­ba di­rec­ta­men­te a Ru­sia. Te­nía po­co con­te­ni­do y mos­tra­ba de­ma­sia­da cau­te­la.

Un mes des­pués la re­vis­ta Ti­me de­ja­ba caer que el equi­po de Sta­mos ha­bía de­ja­do al­go fue­ra de sus aná­li­sis. El ar­tícu­lo ci­ta­ba a un ofi­cial de in­te­li­gen­cia ve­te­rano que ase­gu­ra­ba que agen­tes ru­sos ha­bían com­pra­do anun­cios de Fa­ce­book pa­ra bom­bar­dear a los es­ta­dou­ni­den­ses con pro­pa­gan­da. Los miem­bros del equi­po de se­gu­ri­dad se pu­sie­ron a re­bus­car en­tre los ar­chi­vos de pu­bli­ci­dad. Y, tras or­ga­ni­zar las transac­cio­nes se­gún una se­rie de da­tos es­pe­cí­fi­cos (si ha­bía anun­cios pa­ga­dos en ru­blos, si los ha­bían com­pra­do en ser­vi­do­res es­cri­tos en ru­so), en­con­tra­ron va­rias cuen­tas fi­nan­cia­das por un gru­po ru­so de du­do­sa pro­ce­den­cia, In­ter­net Re­search Agency, que ha­bía si­do di­se­ña­do pa­ra ma­ni­pu­lar la opi­nión po­lí­ti­ca en EE UU. Ha­bía, por ejem­plo, una pá­gi­na lla­ma­da El co­ra­zón de Te­xas que ha­cía cam­pa­ña por la se­ce­sión del es­ta­do de la Es­tre­lla So­li­ta­ria. Tam­bién es­ta­ba Black­ti­vist, que col­ga­ba his­to­rias so­bre bru­ta­li­dad po­li­cial con­tra hom­bres y mu­je­res ne­gros y que te­nía más se­gui­do­res que Black Lives Mat­ter.

Cuan­do Fa­ce­book en­con­tró la pro­pa­gan­da ru­sa en su pla­ta­for­ma, se pro­du­jo una cri­sis. Pri­me­ro, se co­rrió el ru­mor de que un gru­po ru­so ha­bía gas­ta­do mi­llo­nes de dó­la­res en anun­cios, cuan­do la can­ti­dad to­tal real so­lo te­nía seis ci­fras y la pri­me­ra de ellas no era muy ele­va­da. Cuan­do se rec­ti­fi­có el error, se pro­du­jo un desacuer­do so­bre cuán­ta in­for­ma­ción re­ve­lar y a quién. La em­pre­sa po­dría ex­pli­car­le los da­tos so­bre los anun­cios al pú­bli­co en ge­ne­ral, con­tár­se­lo to­do al Con­gre­so o no con­tar na­da a na­die. La dis­cu­sión gi­ró al­re­de­dor de cues­tio­nes so­bre la pri­va­ci­dad. A los miem­bros del equi­po de se­gu­ri­dad les preo­cu­pa­ba que el pro­ce­so le­gal im­pli­ca­ra en­tre­gar da­tos de usua­rios pri­va­dos, aunque es­tos per­te­ne­cie­ran a una gran­ja de trolls ru­sa, por­que eso abri­ría una puer­ta pa­ra que, más ade­lan­te, los go­bier­nos se apro­pia­ran de los da­tos de otros usua­rios de Fa­ce­book. “Hu­bo un ver­da­de­ro de­ba­te in­terno. ¿Lo man­dá­ba­mos to­do a la mier­da y dá­ba­mos el pa­so o no nos preo­cu­pá­ba­mos?”, co­men­ta un eje­cu­ti­vo.

Al fi­nal, a prin­ci­pios de sep­tiem­bre apa­re­ció un post en un blog fir­ma­do por Sta­mos en el que se anun­cia­ba que, has­ta don­de sa­bía la em­pre­sa, en la épo­ca de las elec­cio­nes de 2016 los ru­sos ha­bían pa­ga­do a Fa­ce­book 100.000 dó­la­res por unos 3.000 anun­cios di­se­ña­dos pa­ra in­fluir en la po­lí­ti­ca es­ta­dou­ni­den­se. To­das y ca­da una de las fra­ses de ese post mi­ni­mi­za­ban la im­por­tan­cia de es­tas nue­vas re­ve­la­cio­nes: el nú­me­ro de anun­cios era pe­que­ño, y el di­ne­ro gas­ta­do tam­bién. Y Fa­ce­book no los iba a pu­bli­car. El pú­bli­co no iba a sa­ber la apa­rien­cia que te­nían ni cuál era su ver­da­de­ra in­ten­ción.

“En ese mo­men­to fue cuan­do la co­sa pa­só de in­com­pe­ten­cia a ma­li­cia”, afir­ma DiRes­ta. Un par de se­ma­nas des­pués, re­ci­bió una lla­ma­da de Jo­nat­han Al­bright, un in­ves­ti­ga­dor del Tow Cen­ter for Di­gi­tal Jour­na­lism. “He en­con­tra­do es­to”, le di­jo. Ha­bía des­cu­bier­to que los da­tos de seis de las cuen­tas que Fa­ce­book ha­bía ce­rra­do es­ta­ban to­da­vía ahí, con­ge­la­dos. Al­bright des­car­gó los 500 post más re­cien­tes de ca­da uno de los seis gru­pos y com­pro­bó que, en to­tal, se ha­bían com­par­ti­do más de 340 mi­llo­nes de veces.

Pa­ra McNa­mee, la for­ma en que los ru­sos uti­li­za­ron la pla­ta­for­ma no fue ni una sor­pre­sa ni una ano­ma­lía. “Han en­con­tra­do 100 o 1.000 per­so­nas que es­tán en­fa­da­das y tie­nen mie­do y han uti­li­za­do Fa­ce­book pa­ra anun­ciar­se y con­se­guir que la gen­te se or­ga­ni­ce en gru­pos. Ese es jus­to el uso pa­ra el que Fa­ce­book se di­se­ñó”.

En sep­tiem­bre los co­mi­tés de in­te­li­gen­cia del Con­gre­so y el Se­na­do es­ta­ban a pun­to de abrir una co­mi­sión so­bre el uso que hi­zo Ru­sia de las re­des so­cia­les pa­ra in­ter­fe­rir en las elec­cio­nes es­ta­dou­ni­den­ses, y McNa­mee, Ha­rris y DiRes­ta co­la­bo­ra­ron en su pre­pa­ra­ción. Así, el 1 de no­viem­bre Co­lin Stretch lle­gó a la co­mi­sión des­de Fa­ce­book pa­ra re­ci­bir un buen va­pu­leo. Mar­co Ru­bio, se­na­dor por Flo­ri­da, le pre­gun­tó si la em­pre­sa te­nía si­quie­ra una po­lí­ti­ca pa­ra evi­tar que go­bier­nos ex­tran­je­ros ejer­cie­ran in­fluen­cia so­bre las cam­pa­ñas uti­li­zan­do su pla­ta­for­ma. La res­pues­ta fue que no. Jack Reed, se­na­dor de Rho­de Is­land, pre­gun­tó en­ton­ces si Fa­ce­book sen­tía la obli­ga­ción de en­viar al­gún ti­po de no­ti­fi­ca­ción in­di­vi­dual a los usua­rios que ha­bían vis­to los anun­cios ru­sos de­tec­ta­dos. La res­pues­ta fue otra vez que no. Pe­ro la afir­ma­ción más preo­cu­pan-

Un ofi­cial de in­te­li­gen­cia ase­gu­ra­ba que agen­tes ru­sos com­pra­ron anun­cios en Fa­ce­book pa­ra bom­bar­dear con pro­pa­gan­da

te sa­lió de la­bios de Dian­ne Feins­tein, se­na­do­ra se­nior del Es­ta­do de Ca­li­for­nia, don­de na­ció Fa­ce­book: “Us­te­des han crea­do es­tas pla­ta­for­mas y aho­ra al­guien es­tá ha­cien­do un mal uso de ellas. Por eso, tie­nen que ser us­te­des los que ha­gan al­go pa­ra so­lu­cio­nar­lo. Si no, lo ha­re­mos no­so­tros”, sen­ten­ció.

Tras las com­pa­re­cen­cias en la co­mi­sión, an­ti­guos eje­cu­ti­vos de Fa­ce­book em­pe­za­ron a ha­cer pú­bli­cas sus crí­ti­cas a la em­pre­sa. El 8 de no­viem­bre, el em­pren­de­dor y mul­ti­mi­llo­na­rio Sean Par­ker, su pri­mer pre­si­den­te, di­jo que la­men­ta­ba ha­ber he­cho tan­tos es­fuer­zos por im­po­ner Fa­ce­book al mun­do. “Creo que no com­pren­día las con­se­cuen­cias de mis ac­tos. So­lo Dios sa­be lo que le es­ta­rá ha­cien­do a los ce­re­bros de nues­tros hi­jos”, de­cla­ró. On­ce días des­pués, Sandy Pa­ra­ki­las, an­ti­guo di­rec­tor de pri­va­ci­dad de la com­pa­ñía, pu­bli­có un ar­tícu­lo de opi­nión en The New York Ti­mes en el que le pe­día al Go­bierno que pre­pa­ra­ra una re­gu­la­ción pa­ra Fa­ce­book: “La em­pre­sa no nos va a pro­te­ger por su pro­pia vo­lun­tad, y es­tá en jue­go na­da me­nos que nues­tra democracia”, fue­ron sus pa­la­bras.

El mis­mo día de la com­pa­re­cen­cia en la co­mi­sión, Zuc­ker­berg tu­vo que pre­sen­tar el in­for­me de be­ne­fi­cios del ter­cer tri­mes­tre de Fa­ce­book. Las ci­fras eran in­creí­bles, pe­ro él no es­ta­ba de buen hu­mor. “Ya he ex­pre­sa­do lo preo­cu­pa­do que es­toy por­que los ru­sos uti­li­za­ran nues­tras he­rra­mien­tas pa­ra in­ten­tar sem­brar des­con­fian­za. He­mos cons­trui­do esas he­rra­mien­tas pa­ra ayu­dar a la gen­te a co­nec­tar­se en­tre sí, y ellos las uti­li­zan pa­ra mi­nar nues­tros va­lo­res. Lo que han he­cho es­tá mal y no lo va­mos a per­mi­tir”. Anun­ció que la em­pre­sa iba a in­ver­tir una gran can­ti­dad en se­gu­ri­dad, de for­ma que iban a ga­nar “sig­ni­fi­ca­ti­va­men­te me­nos” du­ran­te una tem­po­ra­da.

A fi­na­les del oto­ño se­guían acu­mu­lán­do­se las crí­ti­cas: acu­sa­ron a Fa­ce­book de con­ver­tir­se en el vec­tor cen­tral pa­ra la di­fu­sión de pro­pa­gan­da le­tal con­tra la et­nia rohing­ya en Myan­mar y de apo­yar el li­de­raz­go bru­tal de Ro­dri­go Du­ter­te en Fi­li­pi­nas. En di­ciem­bre se su­po que Cha­math Pa­liha­pi­ti­ya, que ha­bía si­do el vi­ce­pre­si­den­te de Fa­ce­book pa­ra el cre­ci­mien­to del nú­me­ro de usua­rios an­tes de aban­do­nar la em­pre­sa en 2011, ha­bía di­cho en pú­bli­co en Stan­ford que creía que las pla­ta­for­mas de re­des so­cia­les como Fa­ce­book ha­bían “crea­do he­rra­mien­tas que es­ta­ban des­ga­rran­do el te­ji­do so­cial” y que sen­tía “una cul­pa tre­men­da” por ha­ber for­ma­do par­te de ello. Tam­bién ase­gu­ró que in­ten­ta­ba uti­li­zar Fa­ce­book lo me­nos po­si­ble y que no les per­mi­tía a sus hi­jos usar­lo.

La em­pre­sa emi­tió un co­mu­ni­ca­do di­cien­do que ha­bía pa­sa­do mu­cho tiempo des­de que Pa­liha­pi­ti­ya tra­ba­jó en Fa­ce­book. “Fa­ce­book era una em­pre­sa muy di­fe­ren­te en­ton­ces y aho­ra so­mos cons­cien­tes de que nues­tras res­pon­sa­bi­li­da­des cre­cen a la par que nues­tro ta­ma­ño”, de­cía el co­mu­ni­ca­do. A la pre­gun­ta de por qué la em­pre­sa ha­bía res­pon­di­do a esas de­cla­ra­cio­nes de Pa­liha­pi­ti­ya y no a las de otros, un eje­cu­ti­vo se­nior de Fa­ce­book con­tes­tó: “Por­que Cha­math es… era más bien… ami­go de mu­cha de la gen­te que tra­ba­ja aquí”.

El 4 de enero de 2018 Zuc­ker­berg anun­ció que se ha­bía fi­ja­do un nue­vo re­to per­so­nal pa­ra el nue­vo año. Du­ran­te los nue­ve an­te­rio­res se ha­bía com­pro­me­ti­do con al­gún ti­po de me­jo­ra per­so­nal. Su pri­mer re­to fue un po­co ab­sur­do (lle­var cor­ba­ta) y los de­más, más bien va­cíos e in­ma­du­ros: que­ría apren­der man­da­rín, leer 25 li­bros… Pe­ro es­te año adop­tó un tono muy se­rio. “El mun­do es­tá ner­vio­so y di­vi­di­do y Fa­ce­book tiene mu­cho trabajo que ha­cer, tan­to pa­ra pro­te­ger a nues­tra co­mu­ni­dad del mal­tra­to y el odio como pa­ra de­fen­der­nos con­tra las in­ter­fe­ren­cias de otras na­cio­nes, pro­cla­mó. Ese pro­pó­si­to arran­có con una de­cla­ra­ción la se­ma­na si­guien­te en la que anun­ció que iban a re­for­mu­lar el al­go­rit­mo de News Feed pa­ra fa­vo­re­cer “las in­ter­ac­cio­nes sig­ni­fi­ca­ti­vas”. Los post y los ví­deos que so­lo in­ci­ten a mi­rar o pul­sar “Me gus­ta”, pe­ro que no pro­vo­quen que nos im­pli­que­mos y co­men­te­mos, per­de­rán prio­ri­dad. La idea que lo res­pal­da es que, cuan­do es­ta­mos co­nec­ta­dos, “es­tá de­mos­tra­do que in­ter­ac­tuar con gen­te produce di­ver­sas for­mas de bie­nes­tar, mien­tras que con­su­mir de for­ma pa­si­va con­te­ni­dos en In­ter­net no ge­ne­ra la mis­ma sen­sa­ción”.

Pa­ra mu­chas per­so­nas en la em­pre­sa ese anun­cio su­po­nía una im­por­tan­te rec­ti­fi­ca­ción. An­drew An­ker, el di­rec­ti­vo que ha­bía lle­ga­do en 2015 y de­jó la em­pre­sa en di­ciem­bre, con­tri­bu­yó a esos cam­bios y de­cla­ró: “Se­ría un error ver es­to como una re­ti­ra­da de la in­dus­tria de los me­dios de co­mu­ni­ca­ción. Es una re­ti­ra­da de la po­lí­ti­ca de ‘cual­quier co­sa va­le si en­ca­ja en nues­tro al­go­rit­mo y la gen­te lo lee”. Aunque, se­gún otras per­so­nas que si­guen en la em­pre­sa, Zuc­ker­berg so­lo que­ría que hu­bie­ra me­nos ba­su­ra en la pla­ta­for­ma.

Una se­ma­na des­pués de ha­blar­le al mun­do de “in­ter­ac­cio­nes sig­ni­fi­ca­ti­vas”, Zuc­ker­berg anun­ció que, por pri­me­ra vez en la his­to­ria de la em­pre­sa, Fa­ce­book iba a em­pe­zar a im­pul­sar a cier­tos me­dios, los que tu­vie­ran un con­te­ni­do “in­for­ma­ti­vo, lo­cal y fi­de­digno”. Du­ran­te el úl­ti­mo año, ha es­ta­do de­sa­rro­llan­do al­go­rit­mos pa­ra eli­mi­nar a los me­dios que pu­bli­can con­te­ni­do fal­so. Aho­ra in­ten­ta fo­men­tar los de con­te­ni­do ve­raz. Jus­to des­pués de que pu­bli­ca­ra esa no­ti­cia, el pre­cio de las ac­cio­nes de The New York Ti­mes se disparó, igual que el de News Corp.

Pe­ro el úni­co des­tino que le preo­cu­pa a Fa­ce­book es el su­yo. La red so­cial se cons­tru­yó so­bre el po­der del efec­to de las re­des: tú te unes por­que to­do el mun­do se une. Pe­ro ese efec­to pue­de funcionar igual pa­ra con­se­guir que la gen­te aban­do­ne la pla­ta­for­ma. Y Zuc­ker­berg lo com­pren­de de for­ma ca­si vis­ce­ral. Des­pués de to­do, él con­tri­bu­yó ha­ce una dé­ca­da a crear­le pro­ble­mas de ese ti­po a MyS­pa­ce y, aunque es ob­je­to de dis­cu­sión, pa­re­ce que le es­tá ha­cien­do lo mis­mo a Snap hoy en día. Zuc­ker­berg ha evi­ta­do en par­te ese des­tino, por­que ha de­mos­tra­do ser bri­llan­te a la ho­ra de anu­lar a sus ma­yo­res ame­na­zas. Com­pró Ins­ta­gram. Com­pró What­sApp. Cuan­do Snap­chat se con­vir­tió en una ame­na­za, lo co­pió…

Pe­ro la gen­te que lo co­no­ce di­ce que, des­pués de to­do es­to, Zuc­ker­berg ha cam­bia­do de ver­dad y tam­bién es­tá preo­cu­pa­do. “To­do lo que ha pa­sa­do es­te año ha cam­bia­do enor­me­men­te ese op­ti­mis­mo tec­no­ló­gi­co su­yo. Le ha vuel­to mu­cho más pa­ra­noi­co en cuan­to a las for­mas en las que la gen­te pue­de apro­ve­char­se de lo que he­mos cons­trui­do”, ase­gu­ra un eje­cu­ti­vo.

El año pa­sa­do tam­bién al­te­ró la com­pren­sión que te­nía Fa­ce­book so­bre si en reali­dad es una em­pre­sa de me­dios de co­mu­ni­ca­ción o una pla­ta­for­ma. La em­pre­sa siem­pre ha res­pon­di­do: “Pla­ta­for­ma, pla­ta­for­ma, pla­ta­for­ma”. Y por su­pues­to que es una pla­ta­for­ma y siem­pre lo se­rá. Pe­ro aho­ra es cons­cien­te de que tam­bién exis­ten cier­tas res­pon­sa­bi­li­da­des que com­par­te con las em­pre­sas de me­dios: tiene que cui­dar a sus lec­to­res y preo­cu­par­se por la ver­dad. No se pue­de con­se­guir un mun­do más abier­to y co­nec­ta­do si pri­me­ro los desunes. En­ton­ces, ¿qué es Fa­ce­book: una em­pre­sa de me­dios de co­mu­ni­ca­ción o una pla­ta­for­ma? Pa­re­ce ha­ber re­co­no­ci­do que cla­ra­men­te es más bien am­bas co­sas. �

“Ya he ex­pre­sa­do lo preo­cu­pa­do que es­toy por­que los ru­sos usa­ran nues­tras he­rra­mien­tas pa­ra sem­brar la des­con­fian­za”, di­jo Zuc­ker­berg

Cha­math Pa­liha­pi­ti­ya, en el Mo­bi­le World Con­gress de 2011, en Bar­ce­lo­na. EL AMI­GO

Brad Pars­ca­le y Eli Mi­ller, de su equi­po de cam­pa­ña, en la Trump To­wer, en no­viem­bre de 2016. EL PRE­SI­DEN­TE

EL GURÚ Mark Zuc­ker­berg, en la se­de de la com­pa­ñía en Men­lo Park, Ca­li­for­nia.

El re­pu­bli­cano John Thu­ne se di­ri­ge a la pren­sa en el Ca­pi­to­lio, en ju­lio de 2015. EL SE­NA­DOR

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.