La cien­cia con­tra el te­rror

El nú­me­ro de aten­ta­dos se ha mul­ti­pli­ca­do por diez des­de el año 2000. Las fuer­zas del or­den y las agen­cias de in­te­li­gen­cia es­tán des­bor­da­das. Los go­bier­nos bus­can re­fuer­zos: el apo­yo de los cien­tí­fi­cos. In­for­má­ti­cos, psi­có­lo­gos, ge­ne­tis­tas, ma­te­má­ti­cos… s

La Voz de Galicia (A Coruña) - XL Semanal - - Magazine En Primer Plano - POR CAR­LOS MA­NUEL SÁN­CHEZ

Se lla­ma Pa­lan­tir y va­le vein­te mil mi­llo­nes de dó­la­res, pe­ro muy po­cos sa­ben a qué se de­di­ca es­ta em­pre­sa tec­no­ló­gi­ca, la cuar­ta más va­lio­sa del mun­do en la lis­ta 'For­tu­ne' de 'uni­cor­nios' –las 'star­tups' que va­len más de mil mi­llo­nes–, so­lo por de­trás de gi­gan­tes co­mo Uber, Xiao­mi y Airbnb. Su ne­go­cio es tan se­cre­to que so­lo hay una ma­ne­ra de sa­ber qué ha­ce y pa­ra quién: las fil­tra­cio­nes. Así se su­po que en­tre sus con­tra­tis­tas hay una do­ce­na de agen­cias del Go­bierno de Es­ta­dos Uni­dos; en­tre ellas, la CIA, el FBI y los Ma­ri­nes. O que su fi­lial Pa­lan­tir Got­ham ha desa­rro­lla­do un soft­wa­re de mi­ne­ría de da­tos que per­mi­te es­ta­ble­cer víncu­los en­tre nú­me­ros de te­lé­fono, lis­tas de ami­gos en Fa­ce­book, mo­vi­mien­tos de tar­je­tas de cré­di­to, fotos subidas a Ins­ta­gram, di­rec­cio­nes, hash­tags... Se es­pe­cu­la que la ayu­da téc­ni­ca de Pa­lan­tir fue de­ci­si­va pa­ra lo­ca­li­zar a Osa­ma Bin La­den. Pe­ro muy po­co se co­no­ce a cien­cia cier­ta. Un man­to de con­fi­den­cia­li­dad ro­dea a es­ta com­pa­ñía fun­da­da por Alex Karp, un ex­cén­tri­co doc­tor en Fi­lo­so­fía, y Pe­ter Thiel, el mi­llo­na­rio co­fun­da­dor de Pa­ypal, «con el ob­je­ti­vo de pre­ve­nir el te­rro­ris­mo mien­tras se sal­va­guar­dan las li­ber­ta­des ci­vi­les». Pa­lan­tir ejem­pli­fi­ca co­mo na­die dos ten­den­cias. Una es que la se­gu­ri­dad an­ti­te­rro­ris­ta se ha con­ver­ti­do en el nue­vo ni­cho de ne­go­cio pa­ra las com­pa­ñías pri­va­das, en es­pe­cial des­de los úl­ti­mos aten­ta­dos en sue­lo fran­cés y es­ta­dou­ni­den­se. Pa­lan­tir fue ca­paz de cap­tar 500 mi­llo­nes en su úl­ti­ma ron­da de fi­nan­cia­ción. Hay co­da­zos de los fon­dos de in­ver­sión, que no quie­ren per­der­se su tro­zo de pas­tel. La otra es que Si­li­con Va­lley, tra­di­cio­nal­men­te alér­gi­co a las in­je­ren­cias gu­ber­na­men­ta­les –bas­te re­cor­dar có­mo se las tu­vie­ron de tie­sas Ap­ple y el FBI a pro­pó­si­to del des­blo­queo del iphone de uno de los te­rro­ris­tas de San Ber­nar­dino–, ha des­cu­bier­to que es ca­paz de ha­blar un mis­mo len­gua­je con el Pen­tá­gono y, de pa­so, con Wall Street: el del di­ne­ro. Mos­he Ho­geg, pre­si­den­te del fon­do Sin­gu­la­ri­team, lo re­su­me así: «Los go­bier­nos es­tán bus­can­do el apo­yo de la tec­no­lo­gía pa­ra pro­te­ger a sus ciu­da­da­nos. Aquí es­tá la gran opor­tu­ni­dad. Las start-ups que apor­ten so­lu­cio­nes cre­ce­rán en 2016». Pe­ro sur­gen las du­das. ¿La tec­no­lo­gía nos sal­va­rá? ¿De ver­dad po­de­mos re­co­no­cer a un te­rro­ris­ta usan­do la in­te­li­gen­cia ar­ti­fi­cial? ¿El big da­ta pre­vie­ne aten­ta­dos? ¿Se pue­de des­pro­gra­mar la men­te de un fa­ná­ti­co? ¿La gue­rra con­tra el Es­ta­do Is­lá­mi­co pue­de ga­nar­se con la ayu­da de al­go­rit­mos y ro­bots?

'FU­GA DE CE­RE­BROS' AL SEC­TOR PRI­VA­DO: LA SE­GU­RI­DAD ES EL NUE­VO NE­GO­CIO Los go­bier­nos es­tán des­con­cer­ta­dos. ¿Qué es­tá fa­llan­do pa­ra que el nú­me­ro de aten­ta­dos se ha­ya mul­ti­pli­ca­do por diez des­de prin­ci­pios de nues­tro si­glo, pa­san­do de 3329 en el año 2000 a 32.658 en 2014, se­gún el úl­ti­mo in­for­me del Ín­di­ce Glo­bal de Te­rro­ris­mo? Las fuer­zas del or­den y las agen­cias de in­te­li­gen­cia es­tán des­bor­da­das, ¿quién les pue­de echar una mano? Cien­tí­fi­cos y téc­ni­cos han da­do un pa­so al fren­te. In­for­má­ti­cos, psi­có­lo­gos, ge­ne­tis­tas, ma­te­má­ti­cos... Dis­ci­pli­nas co­mo la bio­me­tría, la so­cio­lo­gía, la re­so­nan­cia mag­né­ti­ca del ce­re­bro, la crip­to­gra­fía, la ro­bó­ti­ca... ¿Pe­ro no es pe­car de op­ti­mis­mo pen­sar que nues­tras uni­ver­si­da­des y la­bo­ra­to­rios pue­dan ayu­dar a pre­de­cir y frus­trar las ac­cio­nes de un te­rro­ris­ta? Ade­más, na­da sa­le gra­tis. La Agen­cia Na­cio­nal de Se­gu­ri­dad (NSA) nor­te­ame­ri­ca­na es la prue­ba. La NSA se ha con­ver­ti­do en el gran vi­ve­ro de las nue­vas fir­mas tec­no­ló­gi­cas vol­ca­das en el con­tra­te­rro­ris­mo. Sus an­ti­guos em­plea­dos son los nue­vos em­pren­de­do­res. Go­zan del me­jor en­tre­na­mien­to y los me­jo­res con­tac­tos. Abrió la ve­da el mis­mí­si­mo ge­ne­ral Keith Ale­xan­der, ex­je­fe, que po­co des­pués de re­ti­rar­se fun­dó Iron­net, una con­sul­to­ra

An­ti­guos in­ge­nie­ros de la NSA se han con­ver­ti­do en los nue­vos em­pren­de­do­res. Cap­tan mi­llo­nes de dó­la­res de ca­pi­tal y ma­ne­jan los me­jo­res con­tac­tos

de ci­ber­se­gu­ri­dad. Los in­ge­nie­ros que es­tu­vie­ron a sus ór­de­nes –la ma­yo­ría, vein­tea­ñe­ros– han crea­do start-ups co­mo Mor­ta Se­cu­rity, Area 1, Sy­nack o Vir­tru, las cua­les es­tán cap­tan­do mi­llo­nes de los fon­dos de ca­pi­tal.

EL PRO­GRA­MA SKYNET: SE HA ES­TA­DO UTI­LI­ZAN­DO EN PA­KIS­TÁN Y ES PUN­TE­RO Aun­que la fu­ga de ta­len­to es real, la NSA si­gue es­tan­do en pri­me­ra lí­nea. Es la más avan­za­da en el uso de al­go­rit­mos pa­ra mo­ni­to­ri­zar el big da­ta. Se ha es­ta­do cur­tien­do en Pa­kis­tán con el pro­gra­ma Skynet, que uti­li­za los me­ta­da­tos de geo­lo­ca­li­za­ción de los mó­vi­les y sus re­gis­tros de lla­ma­das. No es muy di­fe­ren­te de los al­go­rit­mos que usan Goo­gle y Fa­ce­book pa­ra ras­trear nues­tras bús­que­das y 'co­lar­nos' anun­cios a la car­ta. El pro­ble­ma es que sus cri­te­rios pa­ra de­cla­rar a al­guien sos­pe­cho­so son muy va­gos. Un al­go­rit­mo ya iden­ti­fi­ca a los en­ca­pu­cha­dos ana­li­zan­do sus de­dos, gra­cias al signo de la vic­to­ria que mues­tran en sus ví­deos La NSA ale­ga que el ín­di­ce de fal­sos po­si­ti­vos es so­lo del 0,18 por cien­to. Pe­ro sus de­trac­to­res ha­cen cuen­tas: con ese por­cen­ta­je de erro­res, y da­do que la NSA tie­ne vi­gi­la­dos al me­nos 55 mi­llo­nes de te­lé­fo­nos, po­ten­cial­men­te me­te­rá la pa­ta 99.000 ve­ces. Ade­más, ¿qué ha­ce con esos da­tos? ¿Le sir­ven pa­ra lan­zar ata­ques de drones? Es­ta­dos Uni­dos ha ma­ta­do a unas 4000 per­so­nas en Pa­kis­tán des­de 2004 con bom­bar­deos 'per­so­na­li­za­dos'. Por cier­to, que Chi­na aca­ba de anun­ciar una tec­no­lo­gía 'an­ti­dro­nes'. Pa­re­ce un ca­ñón, pe­ro se tra­ta de una ba­li­za que lan­za una se­ñal que blo­quea el GPS de los drones y apa­ga sus cá­ma­ras.

EL PRO­GRA­MA MONSTERMIND: ATA­CA SIN SUPERIVSIÓN HU­MA­NA El nue­vo pro­yec­to de la NSA se lla­ma Monstermind. Un sis­te­ma que de­tec­ta y neu­tra­li­za ata­ques a los sis­te­mas in­for­má­ti­cos es­ta­dou­ni­den­ses y lan­za un con­tra­ata­que au­to­má­ti­co. Lo in­quie­tan­te es que no ne­ce­si­ta ór­de­nes di­rec­tas de un ser hu­mano. La má­qui­na va­lo­ra la con­tun­den­cia de la res­pues­ta. Eu­ro­pol tam­bién ha crea­do una cé­lu­la de big da­ta. So­lo los aten­ta­dos de no­viem­bre en Pa­rís ge­ne­ra­ron 1,1 mi­llo­nes de pis­tas que las compu­tado­ras ana­li­za­ron.

EL PRO­GRA­MA FACEPTION: DE­TEC­TA A LOS TE­RRO­RIS­TAS POR SU ROS­TRO En reali­dad so­lo es­ta­mos en los al­bo­res de un ti­po di­fe­ren­te de gue­rra, con nue­vas re­glas, ar­ma­men­tos y es­ce­na­rios, tan­to fí­si­cos co­mo vir­tua­les. Y las no­ve­da­des van tan de­pri­sa que ape­nas te­ne­mos tiem­po de pa­rar­nos a pen­sar lo que fun­cio­na, lo que no fun­cio­na y lo que ha­bría que cues­tio­nar­se aun­que fun­cio­ne. Por ejem­plo, la in­te­li­gen­cia ar­ti­fi­cial de re­co­no­ci­mien­to fa­cial, que ana­li­za fotos y de­ci­de si al­guien es un te­rro­ris­ta por la for­ma de sus ojos, sus me­ji­llas o su bo­ca ya es­tá en el mer­ca­do. Faception, una start-up is­rae­lí, ha fir­ma­do un con­tra­to de 750.000 dó­la­res con una agen­cia de se­gu­ri­dad na­cio­nal es­ta­dou­ni­den­se pa­ra de­tec­tar a los te­rro­ris­tas por su ros­tro. El al­go­rit­mo fun­cio­na en tiem­po real, ana­li­za imá­ge­nes subidas a las re­des y ví­deos en strea­ming. El aná­li­sis bio­mé­tri­co es una ten­den­cia al al­za. In­ves­ti­ga­do­res de la Uni­ver­si­dad de Jor­da­nia han desa­rro­lla­do otro al­go­rit­mo ca­paz de iden­ti­fi­car a los en­ca­pu­cha­dos que ha­cen el signo de la vic­to­ria en los ma­ca­bros ví­deos del ISIS, apli­can­do unos pa­rá­me­tros –án­gu­lo, lon­gi­tud de los de­dos...– y cru­zán­do­los con los ar­chi­vos po­li­cia­les.

UN IN­GE­NIE­RO HA CREA­DO UNA PIS­TO­LA QUE SO­LO FUN­CIO­NA CON SU LE­GÍ­TI­MO DUE­ÑO Nues­tras huellas 'bio­mé­tri­cas' tam­bién pue­den ser­vir pa­ra la pre­ven­ción. El 75 por cien­to de las ar­mas uti­li­za­das en ti­ro­teos y ma­sa­cres en Es­ta­dos Uni­dos son ro­ba­das. Mi­chael Rec­ce, an­ti­guo in­ge­nie­ro de In­tel, ha di­se­ña­do pis­to­las que re­co­no­cen a su le­gí­ti­mo pro­pie­ta­rio por la ma­ne­ra de em­pu­ñar­las, apun­tar y apli­car la pre­sión del de­do al ga­ti­llo, de ma­ne­ra que se blo­quean si no iden­ti­fi­can a su due­ño. La tec­no­lo­gía se pue­de adap­tar a los ri­fles de asal­to, el ar­ma fa­vo­ri­ta de los is­la­mis­tas. El uso de ro­bots mi­li­ta­res te­rres­tres –hoy li­mi­ta­do a la des­ac­ti­va­ción de ex­plo­si­vos– po­dría ge­ne­ra­li­zar­se, aun­que el com­ba­te cuer­po a cuer­po en­tre má­qui­nas y per­so­nas si­gue sien­do un ta­bú. Pe­ro ya hay vo­ces que pro­po­nen su uso pa­ra pro­te­ger el pa­tri­mo­nio cul­tu­ral. ¿Y por qué no tam­bién con­vo­yes hu­ma­ni­ta­rios, cam­pos de re­fu­gia­dos, hos­pi­ta­les y mu­seos? De mo­men­to se­rían ro­bots con al­gún ti­po de con­trol hu­mano, pe­ro irán ga­nan­do au­to­no­mía, so­bre to­do cuan­do ga­ran­ti­cen que son ca­pa­ces de dis­tin­guir a los ci­vi­les y de re­co­no­cer el fue­go ami­go. ¿Pe­ro có­mo se 'fa­bri­ca' un te­rro­ris­ta? En­ten­der sus pro­ce­sos men­ta­les tam­bién es una ma­ne­ra de com­ba­tir

al enemi­go. Los ge­nes pue­den de­cir­nos mu­cho. Los la­bo­ra­to­rios de la Uni­ver­si­dad Van­der­bilt han iden­ti­fi­ca­do una va­rian­te en el cro­mo­so­ma X. Se tra­ta de una en­zi­ma que tie­ne una fun­ción cru­cial en el con­trol de los im­pul­sos. Mu­chos com­por­ta­mien­tos vio­len­tos es­tán re­la­cio­na­dos con la in­ca­pa­ci­dad de ad­mi­nis­trar los cir­cui­tos de re­com­pen­sa ce­re­bral, una de­fi­cien­cia pro­pia de los adic­tos. ¿Y la neu­ro­cien­cia? Kent Kiehl, de la Uni­ver­si­dad de Nue­vo Mé­xi­co, ha me­ti­do en un es­cá­ner de re­so­nan­cia mag­né­ti­ca a cua­tro mil pre­sos de ocho cár­ce­les y ha des­cu­bier­to que los psi­có­pa­tas re­gis­tran me­nor ac­ti­vi­dad en la sus­tan­cia gris y sus amíg­da­las ce­re­bra­les son más pe­que­ñas. «En re­su­men, tie­nen ce­re­bros di­fe­ren­tes».

LOS PSI­CÓ­LO­GOS Y ANTROPÓLOGOS ES­TU­DIAN CÓ­MO DES­PRO­GRA­MAR A LOS TE­RRO­RIS­TAS ¿Y si no fue­ran tan di­fe­ren­tes? ¿Có­mo es po­si­ble que los ra­di­ca­les ha­yan re­clu­ta­do a trein­ta mil jó­ve­nes na­ci­dos en paí­ses oc­ci­den­ta­les en los úl­ti­mos cin­co años? ¿Por qué cau­sa tan­ta fas­ci­na­ción la cruel­dad ex­tre­ma? Dou­nia Bou­zar, an­tro­pó­lo­ga, ha iden­ti­fi­ca­do cua­tro fa­ses en la cap­ta­ción de los se­gui­do­res del ISIS. «La pri­me­ra es ais­lar­los de su fa­mi­lia, ami­gos, ins­ti­tu­to; la se­gun­da es im­buir­les la idea de que han si­do ele­gi­dos; la ter­ce­ra es ha­cer­les creer que son pu­ros y no de­ben ser con­ta­mi­na­dos por los que es­tán fue­ra de su gru­po; y la cuar­ta es la des­hu­ma­ni­za­ción». Re­pro­gra­mar­los, es­to es, vol­ver a hu­ma­ni­zar­los, es un pro­ce­so ar­duo en el que no fun­cio­na la ra­zón, so­lo los sen­ti­mien­tos. «Hay que vol­ver a co­nec­tar­los emo­cio­nal­men­te con su gen­te y con su en­torno».

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.