Los trolls ya ga­na­ron y no hay mu­cho que pue­das ha­cer

¿Por qué los co­men­ta­rios de in­ter­net son tan te­rri­ble­men­te ma­los y có­mo nos pro­te­ge­mos? Aun­que no hay una so­lu­ción sen­ci­lla, hay al­gu­nas me­di­das pa­ra to­mar

El Observador Fin de Semana - Cromo - - SÁBADO 25 DOMINGO 26 AGOSTO 2018 - BRIAN X. CHEN New York Ti­mes Ser­vi­ce

Alo lar­go de la úl­ti­ma dé­ca­da, los co­men­ta­rios en lí­nea aho­ra no so­lo se en­cuen­tran en re­cua­dros de­ba­jo de ar­tícu­los y vi­deos en in­ter­net, sino que tam­bién es­tán en las re­des so­cia­les. Eso ha abier­to la puer­ta a un ti­po más agre­si­vo de aco­so, in­ti­mi­da­ción y la ca­pa­ci­dad de di­vul­gar des­in­for­ma­ción, a me­nu­do con con­se­cuen­cias en la vi­da real.

Por ejem­plo, el si­tio cons­pi­ra­ti­vo de de­re­cha In­fo­wars. Du­ran­te años, el si­tio pu­bli­có in­for­ma­ción fal­sa que ins­pi­ró a trolls en in­ter­net pa­ra aco­sar a gen­te cer­ca­na a las víc­ti­mas del ti­ro­teo en la es­cue­la Sandy Hook. Des­pués de mu­cho de­ba­te y va­ci­la­ción pa­ra de­ci­dir si se in­vo­lu­cra­rían, al­gu­nos gi­gan­tes de la tec­no­lo­gía cen­su­ra­ron el con­te­ni­do.

¿Qué nos de­mues­tra eso? Que tú co­mo usua­rio de in­ter­net tie­nes po­ca au­to­ri­dad res­pec­to al con­te­ni­do en lí­nea que te pa­re­ce ofen­si­vo o da­ñino. Las em­pre­sas tec­no­ló­gi­cas son las en­ti­da­des que lle­van la ba­tu­ta.

Da­da la ma­ne­ra en que es­tán su­ce­dien­do las co­sas, nues­tra fe en el in­ter­net po­dría dis­mi­nuir has­ta que des­con­fie­mos del me­dio tan­to co­mo lo ha­ce­mos con las no­ti­cias por te­le­vi­sión, di­jo Zi­zi Pa­pa­cha­ris­si, pro­fe­so­ra de Co­mu­ni­ca­ción en la Uni­ver­si­dad de Illi­nois- Chica­go, quien im­par­te cla­ses so­bre re­des so­cia­les.

“Creo que no­so­tros es­ta­mos aca­ban­do con el in­ter­net, por­que ja­más apren­di­mos real­men­te có­mo usar­lo”, di­jo. “Lo des­trui­mos y lo res­tau­ra­mos de nue­vo to­dos los días. En al­gún mo­men­to se de­rrum­ba­rá”, agre­gó.

Hay mu­chas teo­rías acer­ca de por qué el in­ter­net pa­re­ce sa­car lo peor de la gen­te. Reuní mues­tras de al­gu­nos ha­llaz­gos no­ta­bles.

Pa­pa­cha­ris­si di­jo que en sus 20 años de in­ves­ti­ga­ción y en­tre­vis­tas a per­so­nas acer­ca del com­por­ta­mien­to en lí­nea, una con­clu­sión ha si­do cons­tan­te: la gen­te usa el in­ter­net pa­ra ob­te­ner más de lo que no con­si­gue en su vi­da co­ti­dia­na. Aun­que las per­so­nas han si­do edu­ca­das pa­ra re­sis­tir­se a los im­pul­sos en el mun­do real, en in­ter­net se rin­den an­te sus ten­ta­cio­nes y se des­bo­can. “El in­ter­net se vuel­ve un me­dio fá­cil pa­ra que di­ga­mos al­go y nos sin­ta­mos rea­li­za­dos por un mo­men­to aun­que en reali­dad lo es­te­mos gri­tan­do al ai­re”, co­men­tó.

Los co­men­ta­rios pue­den ser te­rri­bles sim­ple­men­te por­que hay mu­chas per­so­nas con de­fec­tos. De­pen­de de los crea­do­res de con- te­ni­do y las pla­ta­for­mas tec­no­ló­gi­cas ana­li­zar sus co­mu­ni­da­des y es­ta­ble­cer re­glas y es­tán­da­res pa­ra una dis­cu­sión ci­vi­li­za­da.

Esa es un área don­de mu­chas pu­bli­ca­cio­nes no­ti­cio­sas se que­dan cor­tas: a me­nu­do no hay sis­te­mas de mo­de­ra­ción en sus sec­cio­nes de co­men­ta­rios, así que se con­vier­ten en cal­dos de cul­ti­vo pa­ra el com­por­ta­mien­to tó­xi­co. Tam­bién es un área don­de las em­pre­sas tec­no­ló­gi­cas co­mo Fa­ce­book y Twit­ter tie­nen pro­ble­mas, por­que des­de ha­ce mu­cho se han pre­sen­ta­do co­mo pla­ta­for­mas neu­tra­les que no quie­ren ser ár­bi­tras de la ver­dad.

Las em­pre­sas tec­no­ló­gi­cas des­de ha­ce mu­cho han em­plea­do va­rios mé­to­dos pa­ra de­tec­tar co­men­ta­rios fal­sos de bots y en­ti­da­des que pu­bli­can men­sa­jes no desea­dos. Las prue­bas de Tu­ring com­ple­ta­men­te au­to­má­ti­cas y pú­bli­cas pa­ra di­fe­ren­ciar compu­tado­ras de hu­ma­nos (Capt­cha) te pi­den que te­clees una pa­la­bra o eli­jas fo­to­gra­fías que con­ten­gan un ob­je­to es­pe­cí­fi­co pa­ra ve­ri­fi­car que eres un ser hu­mano y no un bot. Otros mé­to­dos, co­mo de­tec­tar un ti­po de dis­po­si­ti­vo o la ubi­ca­ción de un co­men­ta­dor, pue­den usar­se pa­ra de­tec­tar bots.

Sin em­bar­go, los in­ves­ti­ga­do­res de se­gu­ri­dad han de­mos­tra­do que hay ma­ne­ras de elu­dir to­dos es­tos mé­to­dos.

Po­si­bi­li­da­des

Pa­ra el pro­ble­ma de los co­men­ta­rios fal­sos, hay una so­lu­ción muy sim­ple: pue­des re­por­tar­los al pro­pie­ta­rio del si­tio, quien pro­ba­ble­men­te ana­li­za­rá y eli­mi­na­rá los fal­sos.

Ade­más de eso, no in­ter­pre­tes los co­men­ta­rios en in­ter­net de ma­ne­ra li­te­ral. Kao di­jo que la lec­ción que apren­dió fue siem­pre in­ten­tar ver los co­men­ta­rios en un con­tex­to más am­plio. Re­vi­sa el his­to­rial de pu­bli­ca­cio­nes pre­vias de un usua­rio o verifica los he­chos de cual­quier afir­ma­ción o apo­yo du­do­sos en cual­quier lu­gar en in­ter­net, co­men­tó.

Sin em­bar­go, en cuan­to a los co­men­ta­rios ver­da­de­ra­men­te ofen­si­vos, la reali­dad es que los con­su­mi­do­res no tie­nen mu­cho po­der pa­ra com­ba­tir­los. Em­pre­sas co­mo Youtu­be, Fa­ce­book y Twit­ter han pu­bli­ca­do li­nea­mien­tos pa­ra los ti­pos de co­men­ta­rios y ma­te­rial que se per­mi­ten en sus si­tios, y pro­por­cio­nan he­rra­mien­tas pa­ra que la gen­te se­ña­le y re­por­te con­te­ni­do inapro­pia­do.

No obs­tan­te, en cuan­to re­por­tas un co­men­ta­rio ofen­si­vo, ge­ne­ral­men­te de­pen­de de las em­pre­sas tec­no­ló­gi­cas de­ci­dir si ame­na­za tu se­gu­ri­dad o vio­la la ley; a me­nu­do los aco­sa­do­res sa­ben exac­ta­men­te qué tan ofen­si­vos pue­den ser sin rom­per las re­glas de ma­ne­ra evi­den­te. His­tó­ri­ca­men­te, las em­pre­sas tec­no­ló­gi­cas han si­do con­ser­va­do­ras e in­cons­tan­tes res­pec­to de eli­mi­nar co­men­ta­rios inapro­pia­dos, en gran me­di­da pa­ra man­te­ner su pos­tu­ra co­mo pla­ta­for­mas neu­tra­les en las que la gen­te pue­de ex­pre­sar­se li­bre­men­te.

En los ca­sos en que los edi­to­res y las em­pre­sas tec­no­ló­gi­cas no pue­den ha­cer al­go res­pec­to de los co­men­ta­rios inapro­pia­dos, Pa­pa­cha­ris­si re­co­men­dó un ejer­ci­cio de au­to­dis­ci­pli­na. “Pien­sa an­tes de leer. Pien­sa an­tes de ha­blar. Y no siem­pre tie­nes que res­pon­der. Mu­chas co­sas no me­re­cen una res­pues­ta. A ve­ces no res­pon­der es más efec­ti­vo que de­vol­ver el ata­que”, se­ña­ló.

l

Newspapers in Spanish

Newspapers from Uruguay

© PressReader. All rights reserved.