Te­ne­mos que ha­blar de Facebook

LA PSICOGRAFÍA DE LOS USUA­RIOS DE FACEBOOK CONS­TI­TU­YE UNA HE­RRA­MIEN­TA PA­RA USOS PO­LÍ­TI­COS QUE EX­HI­BE NUES­TRA EX­PO­SI­CIÓN A SER DESCIFRADOS Y ANTICIPADOS POR NUES­TRA CON­TI­NUA PRE­SEN­CIA EN RE­DES SO­CIA­LES E IN­TER­NET

El Economista (México) - Reporte Especial - - ÍNDICE / EDITORIAL - mau­ri­cio ja­li­fe daher • El au­tor es so­cio en Ja­li­fe | Ca­ba­lle­ro y ex­per­to en pro­pie­dad in­te­lec­tual.

Mau­ri­cio Ja­li­fe y Rhett H. Nie­to abor­dan las im­pli­ca­cio­nes del ca­so Facebook-cam­brid­ge Analy­ti­ca. ¿Hay al­go que po­da­mos ha­cer?

La re­ve­la­ción que se ha fil­tra­do so­bre la in­ter­ven­ción de Cam­brid­ge Analy­ti­ca en la cam­pa­ña pre­si­den­cial de Es­ta­dos Uni­dos, que pu­do ha­ber in­flui­do en la de­ci­sión de mi­llo­nes de vo­tan­tes a tra­vés del pro­ce­sa­mien­to de in­for­ma­ción de cuen­tas de Facebook, ha en­cen­di­do la po­lé­mi­ca so­bre un tema cu­yo po­ten­cial es­ta­ba ya me­di­do, pe­ro que aho­ra, a la vis­ta de su ma­te­ria­li­za­ción, ex­po­ne ca­te­gó­ri­ca­men­te las in­ca­pa­ci­da­des del sis­te­ma nor­ma­ti­vo pa­ra di­sua­dir es­tas conductas.

De he­cho, la pri­me­ra an­da­na­da de pre­gun­tas sur­ge a par­tir de la de­ter­mi­na­ción de has­ta dón­de los da­tos de los par­ti­cu­la­res que son pro­ce­sa­dos ma­te­má­ti­ca­men­te cons­ti­tu­ye un uso ile­gal, o se tra­ta de la me­di­ción de ten­den­cias que des­per­so­na­li­zan la vinculación di­rec­ta de la in­for­ma­ción de in­di­vi­duos en lo par­ti­cu­lar. ¿Qué no es el pro­pó­si­to de la pu­bli­ci­dad y la pro­pa­gan­da con­ven­cer y se­du­cir con una dis­cre­ta ma­ni­pu­la­ción de las emo­cio­nes? ¿No es aca­so el mar­ke­ting di­rec­to un pre­ce­den­te que es­ta­ble­ce, a tra­vés de una de­can­ta­ción del uni­ver­so de con­su­mi­do­res, una ofer­ta di­ri­gi­da con al­to po­ten­cial de efec­ti­vi­dad?

Lo que la men­te de­trás del fe­nó­meno ha re­ve­la­do es el al­can­ce de lo que pue­de ha­cer­se con el pro­ce­sa­mien­to au­to­ma­ti­za­do de da­tos per­so­na­les de vo­tan­tes po­ten­cia­les con fi­nes po­lí­ti­cos, y los re­sul­ta­dos, en voz de Alek­sandr Ko­gan, son aplas­tan­tes. Seg­men­tan­do a los usua­rios de Facebook por edad, ra­za, re­li­gión, ubi­ca­ción y otras pre­fe­ren­cias me­di­bles, es po­si­ble de­ter­mi­nar sus mo­ti­va­cio­nes, re­sor­tes y ca­rac­te­rís­ti­cas, de ma­ne­ra que sea po­si­ble in­fluir en sus per­cep­cio­nes de for­ma su­til pe­ro con­sis­ten­te. Al­go pa­re­ci­do, ha dicho Ko­gan, a lo que ha­ce Net­flix pa­ra re­co­men­dar­nos pe­lí­cu­las a par­tir de nues­tro pro­pio his­to­rial te­le­vi­si­vo.

Es­ta psicografía de los usua­rios de Facebook cla­ra­men­te cons­ti­tu­ye una he­rra­mien­ta pa­ra usos po­lí­ti­cos que ex­hi­be de ma­ne­ra bru­tal nues­tra ex­po­si­ción a ser descifrados y anticipados por nues­tra con­ti­nua pre­sen­cia en

En su di­men­sión ju­rí­di­ca, el ca­so Facebook-cam­brid­ge Analy­ti­ca plan­tea dis­yun­ti­vas in­me­dia­tas. La pri­me­ra es la lí­nea de con­ten­ción que se de­be im­po­ner a las em­pre­sas que ma­ne­jan da­tos, a fin de co­no­cer có­mo y pa­ra qué los em­plean, có­mo los pro­ce­san y qué uti­li­da­des les ge­ne­ran.

re­des so­cia­les e in­ter­net. Los usos del pro­ce­sa­mien­to ma­te­má­ti­co de da­tos de usua­rios de re­des so­cia­les no só­lo es de uti­li­dad pa­ra la to­ma de de­ci­sio­nes co­mer­cia­les, per­mi­tien­do an­ti­ci­par de­man­das in­cre­men­ta­les de pro­duc­tos y ser­vi­cios, y den­si­da­des geo­grá­fi­cas de clien­tes ba­jo seg­men­ta­ción de con­su­mo, sino que sus apli­ca­cio­nes se ex­tien­den ha­cia ám­bi­tos de ma­ni­fies­ta con­ve­nien­cia so­cial. Por ejem­plo, pa­ra es­ta­ble­cer cier­tas ten­den­cias en ma­te­ria de sa­lud que pue­dan tra­du­cir­se en po­lí­ti­cas de pre­ven­ción de en­fer­me­da­des con al­tos ni­ve­les de efec­ti­vi­dad. Si en al­gún mo­men­to de la his­to­ria la má­xi­ma de que el co­no­ci­mien­to y la in­for­ma­ción con­ce­den po­der es aho­ra y su po­ten­cial es de­ci­si­vo en mu­chas de las áreas de nues­tra vi­da que con­si­de­rá­ba­mos aje­nas a la in­for­má­ti­ca.

El uso de es­tas 50 mi­llo­nes de cuen­tas de Facebook ha ge­ne­ra­do el ini­cio de in­ves­ti­ga­cio­nes en di­ver­sas ju­ris­dic­cio­nes y las dis­cul­pas pú­bli­cas de la em­pre­sa, pe­ro es cla­ro que el va­lor em­ble­má­ti­co del asun­to de­be­rá con­du­cir a la adop­ción de po­lí­ti­cas pú­bli­cas y le­yes de no­ve­do­sa ma­nu­fac­tu­ra, que res­pon­dan a es­ta desafian­te reali­dad. No bas­ta­rá, de hoy en ade­lan­te, con prohi­bi­cio­nes ge­ne­ra­les que im­pi­dan el trá­fi­co de ba­ses de da­tos, o la po­si­bi­li­dad de ser bo­rra­do que se con­ce­de a ca­da usua­rio.

Ba­jo es­ta óp­ti­ca, los di­fun­di­dos y res­pe­ta­bles de­re­chos AR­CO (por el acró­ni­mo de las pa­la­bras ac­ce­so, rec­ti­fi­ca­ción, can­ce­la­ción y opo­si­ción), co­mo má­xi­ma ex­pre­sión de la de­fen­sa de los da­tos per­so­na­les, que­dan to­tal­men­te des­bor­da­dos y ex­pues­tos.

A par­tir de las evi­den­cias sur­gi­das del tra­ba­jo de Cam­brid­ge Analy­ti­ca, los go­bier­nos de­be­rán re­vi­sar con­cien­zu­da­men­te qué se pue­de ha­cer y qué no con los da­tos, có­mo y cuá­les son pro­ce­sa­bles, y quién y có­mo pue­de apro­ve­char los re­sul­ta­dos. La dis­cu­sión, des­de lue­go, no pa­sa só­lo por las de­ci­sio­nes uni­la­te­ra­les de un pu­ña­do de le­gis­la­do­res que se per­ci­ban co­mo los em­po­de­ra­dos pa­ra de­fi­nir los cau­ces de la re­gu­la­ción, sino que se­rá ta­rea y res­pon­sa­bi­li­dad co­lec­ti­va par­tien­do de la plu­ra­li­dad y com­ple­ji­dad que es­tas ta­reas apa­re­jan.

En su di­men­sión ju­rí­di­ca, el tema plan­tea dis­yun­ti­vas in­me­dia­tas que tie­nen que ser rá­pi­da­men­te con­tes­ta­das. La pri­me­ra es la lí­nea de con­ten­ción que se de­be im­po­ner a las em­pre­sas que ma­ne­jan da­tos, a fin de co­no­cer có­mo y pa­ra qué los em­plean, có­mo los pro­ce­san, qué uti­li­da­des les ge­ne­ran, a quié­nes ven­den los re­sul­ta­dos y qué de­ci­sio­nes son to­ma­das a par­tir de los mis­mos. Lue­go, se de­be es­cla­re­cer de qué ma­ne­ra los re­sul­ta­dos re­gre­san en la for­ma de men­sa­jes di­rec­tos a los usua­rios, que al ha­ber si­do fil­tra­dos por el sis­te­ma, se con­vier­ten en blan­co de de­ter­mi­na­dos con­te­ni­dos ba­jo el ses­go de las pre­fe­ren­cias ya ana­li­za­das.

La pro­pia Ley Fe­de­ral de Pro­tec­ción de Da­tos Per­so­na­les en Po­se­sión de los Par­ti­cu­la­res, que no ha cum­pli­do si­quie­ra una dé­ca­da de exis­ten­cia, al ser con­tras­ta­da a la luz de es­te ca­so, mues­tra sus cla­ras li­mi­ta­cio­nes. No se di­ga del cú­mu­lo de dis­po­si­cio­nes en ma­te­ria elec­to­ral, que dis­tan mu­cho y has­ta in­ge­nua­men­te, de pre­ve­nir los efec­tos di­rec­tos y con­tun­den­tes que es­tos fe­nó­me­nos pue­den oca­sio­nar en los pro­ce­sos de­mo­crá­ti­cos.

En la ar­qui­tec­tu­ra de es­tas re­glas, de­ben man­te­ner­se co­mo pa­rá­me­tro las ma­tri­ces de los de­re­chos hu­ma­nos de re­cien­te cu­ño y los que han si­do re­in­ter­pre­ta­dos a la luz de las nue­vas tec­no­lo­gías. De­re­chos fun­da­men­ta­les co­mo los de ac­ce­so y co­nec­ti­vi­dad, con otros tan in­flu­yen­tes co­mo los de li­bre ex­pre­sión, pri­va­ci­dad y el de­re­cho a la in­for­ma­ción, de­be­rán ser su­ma­dos a la ecua­ción de la pon­de­ra­ción.

Ade­más, nues­tro país de­be­rá ser cui­da­do­so de aten­der, sí, al ám­bi­to in­ter­na­cio­nal, pe­ro no es vá­li­do só­lo es­pe­rar a que las so­lu­cio­nes con­fec­cio­na­das en otras la­ti­tu­des nos sean de­ri­va­das, en un ejer­ci­cio de sim­ple pe­so gra­vi­ta­to­rio. Es­ta vez, a las pro­pues­tas en otros paí­ses, ha­brá que aña­dir una bue­na do­sis de in­ter­pre­ta­ción “a la me­xi­ca­na”. De otra ma­ne­ra, las so­lu­cio­nes nun­ca aca­ba­rán de ser “nues­tras”.

Newspapers in Spanish

Newspapers from Mexico

© PressReader. All rights reserved.