Un li­ke re­ve­la­dor. La IA ven­de en Mé­xi­co y has­ta po­dría con­se­guir vo­tos

La IA aún pue­de ser ma­ni­pu­la­da pa­ra co­no­cer detalles ín­ti­mos del usua­rio y ven­der­le con cer­te­za o in­fluen­ciar­lo con fi­nes elec­to­ra­les. To­do es po­si­ble cuan­do se des­ci­fra la in­for­ma­ción.

Milenio - Mercados Milenio - - PORTADA - DINO ROZENBERG

Má­qui­nas y sis­te­mas au­to­ma­ti­za­dos que apren­den y se au­to­co­rri­gen gra­cias a la In­te­li­gen­cia Artificial (IA), Big Da­ta, ana­lí­ti­cos y el In­ter­net de las Co­sas (IoT, por sus si­glas en in­glés), son las gran­des me­ga­ten­den­cias en ma­te­ria de tec­no­lo­gías de la in­for­ma­ción, las cua­les tie­nen mu­chas apli­ca­cio­nes en los ne­go­cios y en la po­lí­ti­ca.

Aho­ra que co­mien­za el pro­ce­so rum­bo a las elec­cio­nes de 2018 en Mé­xi­co, es muy po­si­ble que es­tas po­de­ro­sas he­rra­mien­tas pue­dan ser usa­das con fi­nes os­cu­ros, y has­ta pe­li­gro­sos, co­mo la des­in­for­ma­ción y la in­se­gu­ri­dad.

Mé­xi­co es uno de los paí­ses con ma­yor pe­ne­tra­ción de Facebook — cuen­ta con más de 1,900 mi­llo­nes de usua­rios en el mun­do—, y no so­lo tie­ne in­for­ma­ción de ca­da uno y de sus re­des de ami­gos y co­no­ci­dos, sino que pue­de cons­truir un per­fil to­man­do co­mo ba­se los si­tios que vi­si­ta, sus li­kes y los de sus ami­gos, y has­ta las no­ti­cias que re­ci­be, lee o com­par­te. Cuan­do las cam­pa­ñas elec­to­ra­les co­mien­cen a ca­len­tar­se, ¿se­rá po­si­ble que los gran­des par­ti­dos po­lí­ti­cos pue­dan te­ner ac­ce­so a es­ta in­for­ma­ción pa­ra di­ri­gir sus men­sa­jes con ma­yor pre­ci­sión en ca­da re­gión o es­ta­do, o bien in­di­vi­dua­li­zar a gru­pos por su edad, edu­ca­ción o pre­fe­ren­cias?

Ju­lio Juá­rez Gá­miz, ase­sor del pre­si­den­te del Ins­ti­tu­to Na­cio­nal Elec­to­ral (INE), miem­bro del Sis­te­ma Na­cio­nal de In­ves­ti­ga­do­res (SNI), y un ex­per­to en de­re­cho elec­to­ral di­ce que las prác­ti­cas de pu­bli­ci­dad po­lí­ti­ca tra­di­cio­na­les son ob­so­le­tas, in­clu­yen­do las le­yes elec­to­ra­les que re­gu­lan lo que se pue­de de­cir y có­mo.

En reali­dad en las elec­cio­nes ve­ni­de­ras se usa­rán más y más da­tos pa­ra dar­le cer­ti­dum­bre a los in­de­ci­sos, y pa­ra que los vo­tos “du­ros” ni si­quie­ra se­pan de la com­pe­ten­cia. “Las per­so­nas se sien­ten en­tu­sias­ma­das cuan­do lle­gan a una cer­te­za, a una con­vic­ción, se cie­rran a la in­for­ma­ción nue­va y es­tán in­hi­bi­das pa­ra es­cu­char nue­vas ideas.” Es­to ex­pli­ca que los in­de­ci­sos es­co­jan en Facebook fuen­tes de in­for­ma­ción in­de­pen­dien­tes y di­fe­ren­tes, y que otras so­lo es­cu­chen las que le son afi­nes y re­fuer­zan su con­vic­ción.

El la­do os­cu­ro de la in­te­li­gen­cia de da­tos

¿Qué pa­sa­ría si los al­go­rit­mos de Facebook ca­ye­ran en ma­las ma­nos y se pu­sie­ran a re­la­cio­nar los li­kes que da­mos a ami­gos, ba­res o ar­tis­tas pa­ra iden­ti­fi­car a los chi­cos y chi­cas gays de ca­da co­mu­ni­dad? ¿Y si las em­pre­sas pu­die­ran usar las bús­que­das de Goo­gle no so­lo pa­ra en­viar ofer­tas a sus po­si­bles clien­tes, sino pa­ra de­tec­tar a quie­nes vi­si­tan si­tios porno o de gru­pos po­lí­ti­cos opo­si­to­res?

Facebook re­co­lec­ta más in­for­ma­ción de las per­so­nas que otras or­ga­ni­za­cio­nes pú­bli­cas o pri­va­das, in­clu­yen­do los ser­vi­cios de se­gu­ri­dad. Sa­ben quié­nes so­mos, qué nos gus­ta, cuán­do na­ve­ga­mos, nues­tras cos­tum­bres e in­te­re­ses, y quié­nes son nues­tros fa­mi­lia­res y ami­gos”.

Wi­ze, Uber y las tar­je­tas de cré­di­to pue­den ser muy úti­les en la vi­da co­ti­dia­na, pe­ro al­ma­ce­nan de­ma­sia­da in­for­ma­ción so­bre lo que la

gen­te ha­ce, dón­de va y qué com­pra. Y no hay ga­ran­tía de que la IA se uti­li­ce siem­pre con fi­nes be­né­fi­cos. En reali­dad Facebook tie­ne un área es­pe­cia­li­za­da en IA en­fo­ca­da a te­mas ac­tua­les, in­clu­yen­do su apor­te pa­ra de­tec­tar, ais­lar y eli­mi­nar usua­rios o con­ver­sa­cio­nes que re­pre­sen­ten un pe­li­gro o es­tén vin­cu­la­das a re­des de de­lin­cuen­tes y te­rro­ris­tas.

Úti­les y pe­li­gro­sos

Co­mo par­te de una es­tra­te­gia ofi­cial pa­ra dar a co­no­cer es­tos te­mas y aler­tar a los vo­tan­tes y a las or­ga­ni­za­cio­nes ci­vi­les, Mi­chal Ko­sins­ki, cien­tí­fi­co de da­tos y pro­fe­sor de com­por­ta­mien­to or­ga­ni­za­cio­nal de la Es­cue­la de Ne­go­cios de la Uni­ver­si­dad de Stan­ford, dic­tó una con­fe­ren­cia en el Ins­ti­tu­to Be­li­sa­rio Do­mín­guez del Se­na­do de la Re­pú­bli­ca, en la cual par­ti­ci­pa­ron el se­na­dor Ale­jan­dro En­ci­nas y el in­ves­ti­ga­dor Ge­rar­do Esquivel. Ko­sins­ki, jun­to con la Uni­ver­si­dad de Cam­brid­ge, coor­di­na un equi­po de 200 in­ves­ti­ga­do­res que es­tu­dian los per­fi­les psi­co­de­mo­grá­fi­cos de más de 8 mi­llo­nes de usua­rios de Facebook.

En su in­ter­ven­ción, Ale­jan­dro En­ci­nas lla­mó la aten­ción so­bre la ne­ce­si­dad de am­pliar la dis­cu­sión so­bre es­tos te­mas. “Las re­des so­cia­les han ve­ni­do a de­mo­cra­ti­zar los sis­te­mas de co­mu­ni­ca­ción de la so­cie­dad y han abier­to nue­vas vías y tam­bién han en­gen­dra­do fe­nó­me­nos po­lí­ti­cos ines­pe­ra­dos, di­jo y aña­dió que una co­sa es de­mo­cra­ti­zar los me­dios y otra sim­ple­men­te di­ver­si­fi­car­los. Se ha ro­to el mo­no­po­lio de los me­dios de co­mu­ni­ca­ción, en efec­to, pe­ro han sur­gi­do opor­tu­ni­da­des pa­ra las cam­pa­ñas su­cias y la ma­ni­pu­la­ción y fal­si­fi­ca­ción de la in­for­ma­ción, que pue­den afec­tar el pro­ce­so de­mo­crá­ti­co”. Co­mo ejem­plo ci­tó las no­ti­cias fal­sas y alar­mis­tas so­bre sa­queos que ocu­rrie­ron a raíz del au­men­to en los com­bus­ti­bles (“el ga­so­li­na­zo”), que atri­bu­yó a al­gu­na “si­nies­tra” or­ga­ni­za­ción y que alen­tó una cam­pa­ña de mie­do y psi­co­sis in­clu­so en la Ciu­dad de Mé­xi­co, don­de no se re­gis­tró nin­gún in­ci­den­te.

Ko­sin­ki men­cio­na que la in­ves­ti­ga­ción ha de­mos­tra­do que so­lo con pro­ce­sar los li­kes en Facebook es po­si­ble cons­truir un per­fil de la per­so­na­li­dad, gus­tos y com­por­ta­mien­to del usua­rio. El cien­tí­fi­co sos­tie­ne que con 150 o 250

li­kes se pue­de ob­te­ner un per­fil psi­co­ló­gi­co más ajus­ta­do o des­crip­ti­vo que el que tie­nen sus ami­gos y has­ta sus fa­mi­lia­res.

Ciu­da­da­nos ba­jo la lu­pa

Ko­sins­ki, que ha pu­bli­ca­do en in­ter­net avan­ces de sus es­tu­dios, coin­ci­de en que una bue­na par­te de la vi­da y los in­te­re­ses de las per­so­nas es­tá dis­po­ni­ble en una va­rie­dad de me­dios di­gi­ta­les a los cua­les tie­nen ac­ce­so in­te­re­ses co­mer­cia­les, go­bier­nos y au­to­ri­da­des.

Se­gún va­rios es­tu­dios re­cien­tes, in­clu­yen­do uno de IBM, se es­ti­ma que ca­da per­so­na ge­ne­ra unos 50 me­gaby­tes de da­tos por día, y en 2025 po­dría ser de 20 ve­ces más. De he­cho, las fuen­tes cal­cu­lan que pa­ra 2020 se pro­du­ci­rán 40 zet­ta­bits de da­tos anua­les, el equi­va­len­te a 5,200 gi­gaby­tes por ca­da ha­bi­tan­te del mun­do, y que la ma­yor par­te se­rá ge­ne­ra­da por las má­qui­nas y los pro­ce­sos in­dus­tria­les, trans­por­tes, lo­gís­ti­ca, se­gu­ri­dad, et­cé­te­ra. Es­tos in­men­sos vo­lú­me­nes de da­tos — Big Da­ta—, re­quie­ren de avan­za­das tec­no­lo­gías pa­ra su al­ma­ce­na­mien­to y pro­ce­sa­mien­to, y a par­tir de ellos es po­si­ble sa­car ideas y pa­tro­nes de com­por­ta­mien­to de las per­so­nas y to­mar de­ci­sio­nes en su be­ne­fi­cio.

El cien­tí­fi­co apun­tó que la in­for­ma­ción se ha con­ver­ti­do en un ne­go­cio, y que afor­tu­na­da o de­sa­for­tu­na­da­men­te, las per­so­nas son en reali­dad un “pro­duc­to” pa­ra las em­pre­sas que bus­can sus da­tos, los ana­li­zan y los ven­den a otras em­pre­sas. Son ac­ti­vos muy va­lio­sos pa­ra em­pre­sas de mar­ke­ting y otros ne­go­cios, lo que ex­pli­ca que Facebook o Goo­gle sean gratuitos y ofrez­can tan­tas fa­ci­li­da­des a sus usua­rios: cuán­to más los usan, más da­tos pro­por­cio­nan.

En es­ta era de la no pri­va­ci­dad, en la que mi­llo­nes de per­so­nas com­par­ten vo­lun­ta­ria e in­vo­lun­ta­ria­men­te to­do ti­po de in­for­ma­ción per­so­nal, las em­pre­sas y los go­bier­nos tie­nen la po­si­bi­li­dad de ajus­tar las es­tra­te­gias de co­mu­ni­ca­ción pa­ra in­du­cir nue­vos com­por­ta­mien­tos. Ko­sins­ki se­ña­la que en al­gu­nos ca­sos, so­bre to­do en paí­ses con li­ber­ta­des res­trin­gi­das, el aco­pio de fo­to­gra­fías, ras­gos fí­si­cos o co­men­ta­rios ca­sua­les po­dría ser la di­fe­ren­cia en­tre la vi­da y la muer­te. “De­fi­ni­ti­va­men­te, ya no se pue­de con­ser­var la pri­va­ci­dad", con­clu­ye el in­ves­ti­ga­dor.

Se pue­den ga­nar algunas ba­ta­llas en be­ne­fi­cio de la li­ber­tad in­di­vi­dual, pe­ro al fi­nal triun­fa­rán las ten­den­cias de la tec­no­lo­gía. Por eso es que hay que lu­char por sis­te­mas de in­for­ma­ción lim­pios, y go­bier­nos de­mo­crá­ti­cos que res­pe­ten los de­re­chos de los ciu­da­da­nos. No hay le­yes que pue­dan pro­te­ger­nos de to­dos los tor­na­dos.

Clic es in­for­ma­ción. Los da­tos de los usua­rios son va­lio­sos pa­ra las em­pre­sas, ¿qué pa­sa­ría si ca­ye­ran en ma­las ma­nos?

Newspapers in Spanish

Newspapers from Mexico

© PressReader. All rights reserved.