RE­DES EN ALERTA

Los gi­gan­tes de in­ter­net quie­ren eli­mi­nar los dis­cur­sos de odio de sus ser­vi­cios, has­ta aho­ra uti­li­za­dos pa­ra pro­pa­gar el te­rro­ris­mo.

El Observador Fin de Semana - Cromo - - PORTADA -

De Man­ches­ter a Tehe­rán; de Lon­dres a Pa­rís; de El Cairo a Bag­dad. El Es­ta­do Is­lá­mi­co gol­pea so­bre las po­bla­cio­nes ci­vi­les. La ma­yor or­ga­ni­za­ción te­rro­ris­ta de la his­to­ria des­pués de Al Qae­da se ha es­ta­do nu­trien­do de dos ar­mas: el te­rror e in­ter­net.

El pri­mer vi­deo de una de­ca­pi­ta­ción fue gra­ba­do por una cé­lu­la te­rro­ris­ta de­ri­va­da de Al Qae­da en 2004. En ese en­ton­ces no exis­tían Youtu­be ni Twit­ter. Fa­ce­book to­da­vía se­guía li­mi­ta­do a uni­ver­si­ta­rios. Y po­cas per­so­nas te­nían smartp­ho­nes. Hoy, sin em­bar­go, esas he­rra­mien­tas les per­mi­ten a los gru­pos te­rro­ris­tas lle­gar de for­ma di­rec­ta a un pú­bli­co de mi­llo­nes de per­so­nas.

“Los vi­deos tie­nen ca­li­dad de Holly­wood y se ha­cen con la úl­ti­ma ver­sión de Fi­nal Cut. Em­pe­za­ron con vi­deos de 5MB de pe­so, de ma­la ca­li­dad, y aho­ra po­de­mos ver­los con ca­li­dad de Blu-ray en la web”, di­jo a Vi­ce Evan Kohl­man, un consultor en te­rro­ris­mo que tra­ba­jó pa­ra el FBI.

El te­rro­ris­mo yiha­dis­ta en­con­tró en la red el me­jor es­ca­pa­ra­te pa­ra ex­hi­bir sus vic­to­rias, vi­ra­li­zar sus atro­ci­da­des y su­mar se­gui­do­res a sus fi­las. Prue­ba de ello fue el ase­si­na­to del pe­rio­dis­ta es­ta­dou­ni­den­se Ste­ven Sotloff en 2014. A tra­vés de 1.500 cuen­tas se lan­za­ron 3.000 tuits apo­yan­do la eje­cu­ción. El men­sa­je lle­gó a 2,5 mi­llo­nes de usua­rios.

En los úl­ti­mos años, Twit­ter, Fa­ce­book, Youtu­be, en­tre otros ser­vi­cios en lí­nea, se han con­ver­ti­do en una de las vías prin­ci­pa­les de re­clu­ta­mien­to. Ya en 2012 la ONU ad­ver­tía que los te­rro­ris­tas los uti­li­za­ban ca­da vez más pa­ra pro­pa­gar su men­sa­je.

Des­pués del ata­que te­rro­ris­ta en Man­ches­ter, que de­jó 22 muer­tos, la pri­me­ra mi­nis­tra bri­tá­ni­ca The­re­sa May di­jo que bus­ca­ría for­mas de obli­gar a las empresas a que abran sus ser­vi­cios, de mo­do que los go­bier­nos ac­ce­dan más fá­cil­men­te a los da­tos de los usua­rios sos­pe­cho­sos. “No le po­de­mos per­mi­tir a es­ta ideo­lo­gía te­ner el es­pa­cio se­gu­ro que ne­ce­si­ta pa­ra re­pro­du­cir­se. Y eso es pre­ci­sa­men­te lo que pro­por­cio­nan in­ter­net y las grandes com­pa­ñías pro­vee­do­ras de in­ter­net”, ex­pre­só.

El ob­je­ti­vo es que los gru­pos te­rro­ris­tas no pue­dan uti­li­zar las re­des so­cia­les co­mo me­gá­fono glo­bal. “El Es­ta­do Is­lá­mi­co es­tá dis­fru­tan­do de un mo­men­to vi­ral y los pun­tos de vis­ta com­pen­sa­to­rios ni se acer­can a la fuer­za ne­ce­sa­ria pa­ra opo­ner­se a ellos”, di­jo Vic­to­ria Grand, di­rec­to­ra de Po­lí­ti­cas de Goo­gle. ¿Es una ba­ta­lla que se pue­de ga­nar?

Cen­so­res en lí­nea

El ata­que al cen­tro co­mer­cial de West­ga­te (de Nai­ro­bi, Ke­nia), en el que fue­ron ase­si­na­das 72 per­so­nas, fue el pri­me­ro en coor­di­nar­se por Twit­ter y no en fo­ros yiha­dis­tas. Y ahí fue don­de el gru­po Al Sha­bab di­jo ser au­tor de la masacre. Des­de en­ton­ces, la red so­cial se ha con­ver­ti­do en unos de los prin­ci­pa­les ins­tru­men­tos de pro­pa­gan­da.

El ca­li­fa­to del Es­ta­do Is­lá­mi­co cuen­ta con un ejér­ci­to de apro­xi­ma­da­men­te 46 mil fie­les en Twit­ter, se­gún un es­tu­dio ela­bo­ra­do con da­tos de 2014 por la Broo­king Ins­ti­tu­tion. Una ci­fra que pre­su­mi­ble­men­te se­rá ma­yor hoy en día, da­da la re­per­cu­sión que ha lo­gra­do el gru­po te­rro­ris­ta en es­te tiem­po, y que ha em­pu­ja- do a la red so­cial a clau­su­rar los per­fi­les de mi­les de usua­rios.

Se es­ti­ma que cer­ca de 30 mil cuen­tas es­ta­rían con­tro­la­das por se­gui­do­res, mien­tras que el res­to se­rían bots, pro­gra­mas que imi­tan el com­por­ta­mien­to hu­mano.

Fren­te a las du­das ini­cia­les, en los úl­ti­mos me­ses los gi­gan­tes de in­ter­net han to­ma­do una ac­ti­tud más be­li­ge­ran­te, cen­su­ran­do los men­sa­jes vio­len­tos y clau­su­ran­do mi­les de cuen­tas.

“Con­de­na­mos el uso de Twit­ter co­mo he­rra­mien­ta pa­ra pro­mo­ver el te­rro­ris­mo”, ase­gu­ró un por­ta­voz de la red so­cial, que aña­dió: “Des­de me­dia­dos de 2015 he­mos sus­pen­di­do más de 125 mil cuen­tas, re­la­cio­na­das con el Es­ta­do Is­lá­mi­co, por ame­na­zas o pro­mo­ción del te­rro­ris­mo yiha­dis­ta”.

En ju­lio de 2016 Goo­gle y Fa­ce­book co­men­za­ron a au­to­ma­ti­zar el pro­ce­so de eli­mi­nar los vi­deos ex­tre­mis­tas de sus pla­ta­for­mas. El mé­to­do se co­no­ce co­mo has­hing y es una téc­ni­ca si­mi­lar a la que se usa pa­ra iden­ti­fi­car y bo­rrar con­te­ni­dos pro­te­gi­dos por de­re­chos de au­tor.

El pro­ce­so im­pli­ca ope­ra­cio­nes ma­te­má­ti­cas que asig­nan un va­lor, co­no­ci­do co­mo hash, a

una ca­de­na de da­tos. Los mis­mos ar­chi­vos re­ci­bi­rán el mis­mo hash, lo que per­mi­te a las compu­tado­ras en­con­trar los du­pli­ca­dos de for­ma fá­cil. El pro­pie­ta­rio de los de­re­chos pro­por­cio­na el hash del ma­te­rial y el si­tio eli­mi­na cual­quier ar­chi­vo subido a sus ser­vi- do­res que com­par­ta ese va­lor.

En di­ciem­bre de ese año, Twit­ter y Mi­cro­soft se su­ma­ron a Goo­gle y Fa­ce­book pa­ra te­ner una ba­se de da­tos en co­mún a fin de­que el ma­te­rial sea su­pri­mi­do de to­dos los ser­vi­cios.

A raíz de los úl­ti­mos ata­ques te­rro­ris­tas pro­du­ci­dos en Eu­ro­pa, Goo­gle re­cien­te­men­te afir­mó que in­ten­si­fi­ca sus es­fuer­zos pa­ra lu­char con­tra los con­te­ni­dos “ex­tre­mis­tas o re­la­cio­na­dos con el te­rro­ris­mo” en Youtu­be.

“Tra­ba­ja­mos, co­mo los de­más, des­de ha­ce años pa­ra iden­ti­fi­car y eli­mi­nar los con­te­ni­dos que van con­tra nues­tras re­glas. Pe­ro por mo­les­to que sea la ver­dad es que de­be­mos re­co­no­cer, y el sec­tor eco­nó­mi­co tam­bién, que hay que ha­cer más”, es­cri­bió el con­se­je­ro ge­ne­ral Kent Wal­ker en un tex­to pu­bli­ca­do en su blog.

Es­te ob­je­ti­vo “pue­de ser un desafío: el vi­deo de un aten­ta­do te­rro­ris­ta pue­de ser ma­te­rial in­for­ma­ti­vo si es pu­bli­ca­do por la BBC, o apo­lo­gía de la vio­len­cia si es subido en un con­tex­to di­fe­ren­te por otro usua­rio”, di­jo.

Ca­da minuto se suben a Youtu­be unas 300 ho­ras de vi­deo, por lo que re­sul­ta hu­ma­na­men­te im­po­si­ble re­vi­sar­las to­das. Goo­gle pro­me­te re­for­zar su uti­li­za­ción de la in­te­li­gen­cia ar­ti­fi­cial, de ma­ne­ra que las compu­tado­ras “nos ayu­den a iden­ti­fi­car y eli­mi­nar más rá­pi­da­men­te los con­te­ni­dos ex­tre­mis­tas o re­la­cio­na­dos con el te­rro­ris­mo”. El bus­ca­dor afir­ma que sus mo­de­los ac­tua­les lo­gran de­tec­tar más del 50% de los vi­deos inapro­pia­dos.

Sin em­bar­go, la fir­ma re­co­no­ce que la tecnología no pue­de ser la úni­ca res­pues­ta, por lo que pro­me­te au­men­tar “sig­ni­fi­ca­ti­va­men­te el nú­me­ro de ex­per­tos in­de­pen­dien­tes” en­car­ga­dos de su­per­vi­sar los vi­deos. El pro­gra­ma se ex­pan­di­rá con la in­te­gra­ción de 50 or­ga­ni­za­cio­nes no gu­ber­na­men­ta­les y 63 or­ga­ni­za­cio­nes es­pe­cia­li­za­das que tra­ba­jan en pro­ble­mas co­mo el dis­cur­so de odio, la au­to­le­sión y el te­rro­ris­mo.

Cuan­do un con­te­ni­do no vio­le cla­ra­men­te las po­lí­ti­cas de Youtu­be, co­mo por ejem­plo con­te­ni­do re­li­gio­so en un tono vio­len­to o de su­pre­ma­cía de al­gu­na cultura, la em­pre­sa los eti­que­ta­rá pa­ra ad­ver­tir a los usua­rios; es­tos no se­rán mo­ne­ti­za­dos (no po­drán ga­nar di­ne­ro por con­cep­to de pu­bli­ci­dad), no po­drán re­co­men­dar­se y se des­ha­bi­li­ta­rán los co­men­ta­rios, pa­ra re­du­cir su al­can­ce.

La em­pre­sa de Mark Zuc­ker­berg, por su par­te, em­pe­zó a ex­pe­ri­men­tar con in­te­li­gen­cia ar­ti­fi­cial pa­ra en­ten­der me­jor si el len­gua­je usa­do en las pu­bli­ca­cio­nes es pro­pa­gan­da te­rro­ris­ta; tam­bién usa he­rra­mien­tas de coin­ci­den­cia de imá­ge­nes pa­ra pre­ve­nir que los usua­rios suban vi­deos o imá­ge­nes de te­rro­ris­tas co­no­ci­dos y tam­bién usa al­go­rit­mos pa­ra de­tec­tar gru­pos de per­fi­les afi­nes, pá­gi­nas y otros que apo­yen el te­rro­ris­mo.

“Que­re­mos que Fa­ce­book sea un lu­gar hos­til pa­ra los te­rro­ris­tas”, di­jo la red so­cial en su blog en un post ti­tu­la­do Có­mo lu­cha­mos con­tra el te­rro­ris­mo.

Es­tas he­rra­mien­tas per­mi­ten iden­ti­fi­car me­jor las imá­ge­nes cues­tio­na­bles. “Cuan­do al­guien tra­ta de su­bir una fo­to o un vi­deo (de ca­rác­ter) te­rro­ris­ta, nues­tros sis­te­mas de­ter­mi­nan si es­tas imá­ge­nes son idén­ti­cas” a las imá­ge­nes cla­ra­men­te te­rro­ris­tas. Si es el ca­so, la des­car­ga se blo­quea.

Ade­más, la red so­cial tie­ne aho­ra más de 150 per­so­nas que es­tán en­fo­ca­das prin­ci­pal­men­te en lu­char con­tra el te­rro­ris­mo. Aun­que re­co­no­ció que la tecnología no pue­de re­em­pla­zar “la ex­pe­rien­cia hu­ma­na”, Fa­ce­book sos­tu­vo que el nú­me­ro de em­plea­dos en­car­ga­dos de la ges­tión de con­te­ni­dos au­men­ta­rá en 3.000 pa­ra el pró­xi­mo año, con lo que al­can­za­rá los 7.500. •

“Que­re­mos que Fa­ce­book sea un lu­gar hos­til pa­ra los te­rro­ris­tas” PU­BLI­CA­DO EN EL BLOG OFI­CIAL

Newspapers in Spanish

Newspapers from Uruguay

© PressReader. All rights reserved.