ABUN­DA ODIO EN RE­DES SO­CIA­LES

Ins­ta­gram, Facebook y Twit­ter han fa­ci­li­ta­do que los men­sa­jes de ex­tre­mis­tas lle­guen a más per­so­nas

El Diario de El Paso - - CLIMA -

San francisco — El 29 de oc­tu­bre, una bús­que­da en Ins­ta­gram, la pla­ta­for­ma pro­pie­dad de Facebook pa­ra com­par­tir imá­ge­nes, pro­du­jo un to­rren­te de imá­ge­nes y vi­deos an­ti­se­mi­tas pu­bli­ca­dos en la pla­ta­for­ma des­pués del ti­ro­teo del sá­ba­do en una si­na­go­ga de Pit­ts­burgh.

Una bús­que­da con la pa­la­bra “ju­díos” mos­tra­ba 11 mil 696 pu­bli­ca­cio­nes con la eti­que­ta #Jew­sDid911 (los ju­díos son res­pon­sa­bles del 11), me­dian­te la que se afir­ma­ba que los ju­díos ha­bían or­ga­ni­za­do los ata­ques te­rro­ris­tas del 11 de Sep­tiem­bre. Otras eti­que­tas en Ins­ta­gram ha­cían re­fe­ren­cia a la ideo­lo­gía na­zi, en­tre ellas el nú­me­ro 88, una abre­via­tu­ra uti­li­za­da pa­ra el sa­lu­do na­zi Heil Hitler.

Las pu­bli­ca­cio­nes de Ins­ta­gram mos­tra­ron una du­ra reali­dad. A lo lar­go de los úl­ti­mos diez años, las com­pa­ñías de re­des so­cia­les de Si­li­con Va­lley han ex­pan­di­do su al­can­ce e in­fluen­cia has­ta los rin­co­nes más re­mo­tos del mun­do. Sin em­bar­go, se ha vuel­to muy evi­den­te que las em­pre­sas ja­más en­ten­die­ron del to­do las con­se­cuen­cias ne­ga­ti­vas de esa in­fluen­cia ni lo que de­ben hacer al res­pec­to —y que no pue­den vol­ver a me­ter al ge­nio en la lám­pa­ra—.

“Las re­des so­cia­les es­tán en­va­len­to­nan­do a la gen­te pa­ra que cru­ce los lí­mi­tes y se com­por­te de ma­ne­ra ex­tre­ma res­pec­to a lo que es­tá dis­pues­ta a de­cir pa­ra pro­vo­car e in­ci­tar a otros”, co­men­tó Jo­nat­han Al­bright, di­rec­tor de in­ves­ti­ga­ción en el Cen­tro Tow pa­ra el Pe­rio­dis­mo Di­gi­tal de la Uni­ver­si­dad de Co­lum­bia. “Es­tá cla­ro que el pro­ble­ma es­tá cre­cien­do”.

Las re­per­cu­sio­nes de la in­ca­pa­ci­dad de las re­des so­cia­les pa­ra ma­ne­jar la des­in­for­ma­ción y el dis­cur­so de odio se han ma­ni­fes­ta­do de ma­ne­ra abun­dan­te en días re­cien­tes. Pa­re­ce ser que Ce­sar Sa­yoc, quien fue acu­sa­do la se­ma­na pa­sa­da de en­viar ar­te­fac­tos ex­plo­si­vos a de­mó­cra­tas des­ta­ca­dos, se ra­di­ca­li­zó en lí­nea a cau­sa de pu­bli­ca­cio­nes par­ti­dis­tas en Twit­ter y Facebook. Ro­bert Bo­wers, que ase­si­nó a on­ce per­so­nas en la si­na­go­ga Tree of Life (Ár­bol de la Vi­da) en Pit­ts­burgh el 27 de oc­tu­bre, pu­bli­có al­go so­bre el odio que sien­te por los ju­díos en Gab, una red so­cial que co­men­zó ope­ra­cio­nes ha­ce dos años.

Ade­más, miem­bros de al­to ni­vel de las fuer­zas ar­ma­das de Bir­ma­nia han uti­li­za­do men­sa­jes edi­ta­dos en Facebook pa­ra fo­men­tar an­sie­dad y mie­do con­tra la mi­no­ría de los rohin­yás mu­sul­ma­nes. Por otro la­do, en In­dia, historias fal­sas en What­sApp so­bre se­cues­tros de ni­ños pro­vo­ca­ron que mul­ti­tu­des ase­si­na­ran a más de una de­ce­na de per­so­nas es­te año.

“Las com­pa­ñías de re­des so­cia­les han crea­do, per­mi­ti­do y fa­ci­li­ta­do que los men­sa­jes de los ex­tre­mis­tas en­tren des­de lo marginal y se vuel­van par­te del dis­cur­so pre­do­mi­nan­te”, co­men­tó Jo­nat­han Green­blatt, di­rec­tor eje­cu­ti­vo de la Li­ga An­ti­di­fa­ma­ción, una or­ga­ni­za­ción no gu­ber­na­men­tal que com­ba­te el dis­cur­so de odio. “En el pa­sa­do, no po­dían en­con­trar una au­dien­cia a la cual trans­mi­tir su ve­neno. Aho­ra, tan só­lo con un clic, una pu­bli­ca­ción o un tuit, pue­den di­vul­gar sus ideas con una ve­lo­ci­dad nun­ca an­tes vis­ta”.

Facebook se­ña­ló que es­ta­ba in­ves­ti­gan­do las eti­que­tas an­ti­se­mi­tas en Ins­ta­gram des­pués de que The New York Ti­mes las de­nun­ció. Sa­rah Po­llack, por­ta­voz de Facebook, di­jo me­dian­te un co­mu­ni­ca­do que Ins­ta­gram es­ta­ba vien­do pu­bli­ca­cio­nes nue­vas y otro ti­po de con­te­ni­do re­la­cio­na­do con los su­ce­sos del 27 de oc­tu­bre y que es­ta­ba “ana­li­zan­do de ma­ne­ra ac­ti­va las eti­que­tas y el con­te­ni­do vin­cu­la­dos con esos in­ci­den­tes y eli­mi­nan­do los que vio­len nues­tras po­lí­ti­cas”.

You­Tu­be co­men­tó que tie­ne po­lí­ti­cas es­tric­tas que prohí­ben el con­te­ni­do que pro­mue­ve el odio o in­ci­ta la vio­len­cia, y agre­gó que eli­mi­na vi­deos que vio­lan esas re­glas.

Las re­des so­cia­les han se­ña­la­do que iden­ti­fi­car y eli­mi­nar el dis­cur­so de odio y la des­in­for­ma­ción —o in­clu­so de­fi­nir lo que cons­ti­tu­ye ese ti­po de con­te­ni­do— es di­fí­cil.

Facebook agre­gó es­te año que sus sis­te­mas in­ter­nos só­lo mar­ca­ron el 38 por cien­to del dis­cur­so de odio en su si­tio. En con­tras­te, sus sis­te­mas de­tec­ta­ron y eli­mi­na­ron el 96 por cien­to de lo que de­fi­nió co­mo imá­ge­nes de des­nu­dez, y 99.5 por cien­to del con­te­ni­do te­rro­ris­ta.

You­Tu­be se­ña­ló que los usua­rios re­por­ta­ron ca­si diez mi­llo­nes de vi­deos des­de abril has­ta ju­nio de­bi­do a que po­si­ble­men­te vio­la­ban los li­nea­mien­tos de la co­mu­ni­dad de su pla­ta­for­ma. Un es­tu­dio por par­te de in­ves­ti­ga­do­res del Ins­ti­tu­to de Tec­no­lo­gía de Mas­sa­chu­setts ha­lló que era un 70 por cien­to más pro­ba­ble que se com­par­tie­ran men­ti­ras en Twit­ter que no­ti­cias fi­de­dig­nas.

Facebook, Twit­ter y You­Tu­be han anun­cia­do pla­nes pa­ra in­ver­tir gran­des can­ti­da­des en in­te­li­gen­cia ar­ti­fi­cial y otras tec­no­lo­gías con el fin de en­con­trar y eli­mi­nar de sus si­tios con­te­ni­do no desea­do. Facebook tam­bién ha se­ña­la­do que con­tra­ta­ría a 10 mil per­so­nas más pa­ra tra­ba­jar en te­mas de se­gu­ri­dad y pro­tec­ción, y You­Tu­be ha men­cio­na­do que pla­nea con­tar con diez mil em­plea­dos de­di­ca­dos a ana­li­zar vi­deos. Jack Dor­sey, di­rec­tor eje­cu­ti­vo de Twit­ter, ha­ce po­co di­jo que aun­que el prin­ci­pio de la em­pre­sa des­de ha­ce mu­cho tiem­po era la li­bre ex­pre­sión, es­ta­ba dis­cu­tien­do có­mo “dar prio­ri­dad a la se­gu­ri­dad”.

No obs­tan­te, mien­tras las com­pa­ñías in­vier­ten di­ne­ro y re­cur­sos pa­ra re­sol­ver es­tos pro­ble­mas, al­gu­nos de sus em­plea­dos di­je­ron el lu­nes que es­ta­ban re­plan­teán­do­se si los ser­vi­cios de re­des so­cia­les po­dían te­ner un efec­to po­si­ti­vo.

En Twit­ter, por ejem­plo, los em­plea­dos es­tán ca­da vez más preo­cu­pa­dos de que la em­pre­sa es­té fa­llan­do en el ma­ne­jo del len­gua­je tó­xi­co y el dis­cur­so de odio, co­men­ta­ron cua­tro em­plea­dos que pi­die­ron con­ser­var su ano­ni­ma­to de­bi­do a los acuer­dos de con­fi­den­cia­li­dad que ha­bían fir­ma­do.

Los em­plea­dos di­je­ron que la in­cer­ti­dum­bre co­men­zó en agos­to, cuan­do Ap­ple y otras em­pre­sas eli­mi­na­ron gran par­te de las pu­bli­ca­cio­nes y vi­deos de Alex Jo­nes —que di­vul­ga teo­rías cons­pi­ra­ti­vas y es fun­da­dor del si­tio de de­re­cha In­fo­wars— que se en­con­tra­ban en sus si­tios, pe­ro Twit­ter no hi­zo lo mis­mo (sino has­ta se­ma­nas des­pués). El ti­ro­teo del sá­ba­do en la si­na­go­ga de Pit­ts­burgh pro­vo­có que los em­plea­dos ins­ta­ran a los al­tos man­dos de Twit­ter a con­so­li­dar una po­lí­ti­ca so­bre có­mo li­diar con el dis­cur­so de odio y el con­te­ni­do re­la­cio­na­do con la su­pre­ma­cía blan­ca, se­gún di­je­ron dos per­so­nas.

Twit­ter no abor­dó el 29 de oc­tu­bre las pre­gun­tas so­bre las preo­cu­pa­cio­nes de sus em­plea­dos, pe­ro se­ña­ló que la em­pre­sa de­bía ser “re­fle­xi­va y con­si­de­ra­da” en cuan­to a sus po­lí­ti­cas.

“El pro­gre­so en es­te espacio es di­fí­cil, pe­ro ja­más he­mos es­ta­do tan com­pro­me­ti­dos y con­cen­tra­dos en nues­tros es­fuer­zos”, se­ña­ló Twit­ter.

Ins­ta­gram, que se creó co­mo un si­tio en el que las per­so­nas pue­den com­par­tir fo­to­gra­fías de su co­mi­da, sus mas­co­tas ado­ra­bles y sus hi­jos, ha evi­ta­do en gran me­di­da el es­cru­ti­nio res­pec­to de la des­in­for­ma­ción y el con­te­ni­do de odio, so­bre to­do en com­pa­ra­ción con su em­pre­sa ma­triz, Facebook. Sin em­bar­go, los in­ves­ti­ga­do­res di­je­ron que en el trans­cur­so del año pa­sa­do, el si­tio se ha­bía con­ver­ti­do en un her­vi­de­ro de pu­bli­ca­cio­nes y vi­deos de odio que tienen co­mo ob­je­ti­vo pro­vo­car dis­cor­dia.

Fue evi­den­te des­pués del ti­ro­teo en la si­na­go­ga de Pit­ts­burgh, con el sur­gi­mien­to de nue­vo con­te­ni­do an­ti­se­mi­ta en la red so­cial de imá­ge­nes. El 28 de oc­tu­bre, un nue­vo vi­deo aña­di­do a Ins­ta­gram afir­ma­ba que el Es­ta­do de Israel fue crea­do por los Roths­child, una fa­mi­lia ju­día adi­ne­ra­da. De­ba­jo del vi­deo ha­bía eti­que­tas co­mo: #Cons­pi­racy y #Je­wWorl­dOr­der (or­den mun­dial ju­dío).

11 mil 696 pu­bli­ca­cio­nes con la eti­que­ta #Jew­sDid911

DES­PUÉS DEL ti­ro­teo en la si­na­go­ga Tree of Life en Pit­ts­burgh, sur­gie­ron men­sa­jes an­ti­se­mi­tas en Ins­ta­gram.

Newspapers in Spanish

Newspapers from USA

© PressReader. All rights reserved.