Men­ti­ras que vue­lan

El Nacional (ENV) - - OPINIÓN - MOI­SÉS WASSERMAN

Se di­cen mu­chas co­sas. Pa­re­ce que fue­ra po­si­ble de­cir cual­quier co­sa. Las fal­se­da­des se re­pi­ten y, apo­ya­das en las re­des so­cia­les, se di­fun­den con ra­pi­dez. Al­gu­nos me­dios y ob­ser­va­to­rios de prensa ha­cen una bue­na la­bor po­nién­do­les el “de­tec­tor de men­ti­ras” a las de­cla­ra­cio­nes de los po­lí­ti­cos en cam­pa­ña (y en go­bierno). Lo que re­sul­ta des­co­ra­zo­na­dor es ver có­mo, ha­bien­do si­do de­mos­tra­da su fal­se­dad, al­gu­nas de­cla­ra­cio­nes si­guen sien­do di­fun­di­das con sa­ña. Pa­re­cie­ra que los par­ti­da­rios (y eso su­ce­de en ca­si to­dos los cam­pa­men­tos) le otor­gan a su lí­der una dis­pen­sa pa­ra men­tir.

Sin pre­ten­der dis­mi­nuir la gra­ve­dad del he­cho, hay que re­co­no­cer que no so­mos de­ma­sia­do ori­gi­na­les. Ha­ce unas se­ma­nas, dos gru­pos del MIT pu­bli­ca­ron en la re­vis­ta Scien­ce un es­tu­dio que mues­tra que los ru­mo­res fal­sos se di­fun­den más y me­jor que los ver­da­de­ros. La in­ves­ti­ga­ción con­sis­tió en eva­luar el con­te­ni­do de ver­dad en ru­mo­res difundidos por Twit­ter en­tre los años 2006 y 2017. Seis or­ga­ni­za­cio­nes re­vi­sa­ron la ve­ra­ci­dad de 126.000 “cas­ca­das de no­ti­cias”, que ori­gi­na­ron más de 4,5 mi­llo­nes de men­sa­jes.

Los in­ves­ti­ga­do­res ana­li­za- ron con muy bue­nos ins­tru­men­tos es­ta­dís­ti­cos los re­sul­ta­dos y en­con­tra­ron que las no­ti­cias fal­sas se di­fun­die­ron más fre­cuen­te­men­te y se vol­vie­ron más rá­pi­da­men­te vi­ra­les que las ver­da­de­ras. En una mues­tra, to­ma­da al azar, pu­die­ron de­ter­mi­nar que una no­ti­cia fal­sa lle­ga a las pri­me­ras 1.500 per­so­nas seis ve­ces más rá­pi­do que una ver­da­de­ra.

Los men­sa­jes po­lí­ti­cos fue­ron los pre­fe­ri­dos. Vi­vi­mos el tiem­po de las fa­ke news, que el es­tu­dio de­fi­ne co­mo la for­ma en que ca­li­fi­can los po­lí­ti­cos las no­ti­cias que los per­ju­di­can, in­de­pen­dien­te­men­te de su con­te­ni­do de ver­dad. Al tiem­po que co­rrie­ron 45.000 ru­mo­res po­lí­ti­cos, hu­bo tan so­lo 5.000 chis­mes de la fa­rán­du­la.

Pen­sa­ron que los re­sul­ta­dos po­dían es­tar de­for­ma­dos por ro­bots pro­gra­ma­dos pa­ra re­tui­tear se­lec­ti­va­men­te. Di­se­ña­ron un pro­gra­ma pa­ra de­tec­tar­los y en­con­tra­ron, con sor­pre­sa, que los ro­bots di­fun­dían fal­se­da­des y ver­da­des sin ses­go, mien­tras que la gen­te sí pre­fe­ría di­fun­dir lo fal­so. Pen­sa­ron tam­bién que ha­bía usua­rios de Twit­ter, con mu­chos se­gui­do­res o muy fre­cuen­tes, que de­for­ma­rían los re­sul­ta­dos. Pe­ro re­sul­tó lo con­tra­rio: las fal­se­da­des son más di­fun­di­das por per­so­nas con po­cos se­gui­do­res y una ac­ti­vi­dad li­mi­ta­da.

Las re­des han fa­ci­li­ta­do la di­fu­sión de ru­mo­res, pe­ro no son las cul­pa­bles de las pre­fe­ren­cias de la gen­te. En un es­tu­dio del año 2001, es de­cir, an­tes de que exis­tie­ran Twit­ter y Fa­ce­book, un gru­po de Stan­ford y otro de Du­ke ana­li­za­ron la di­fu­sión por los me­dios, y por el voz a voz, de mi­tos ur­ba­nos y me­mes (con el sig­ni­fi­ca­do que les dio Ri­chard Daw­kins, el crea­dor del con­cep­to). En­con­tra­ron que se se­lec­cio­na­ron más por su con­te­ni­do emo­cio­nal (ra­bia, mie­do o dis­gus­to) que por su con­te­ni­do in­for­ma­ti­vo (ver­dad o mo­ral). En­con­tra­ron que la gen­te es­ta­ba más dis­pues­ta a pa­sar no­ti­cias que ge­ne­ra­ban dis­gus­to y que en­tre dos de esas pre­fe­rían a la que ma­yor dis­gus­to ge­ne­ra­ra. Es­tos mi­tos, que cau­san mie­do y co­rren en for­ma de le­yen­da, son sus­ten­ta­dos ge­ne­ral­men­te con una úni­ca prue­ba: “Lo di­jo un ami­go de mi ami­go”. ¿Se­rá en­ton­ces que la na­tu­ra­le­za hu­ma­na nos con­de­na a di­fun­dir fal­se­da­des? Di­fí­cil sa­ber­lo, pe­ro ha­bría que in­ten­tar arre­glar­lo, co­mo he­mos arre­gla­do mu­chas otras co­sas que la na­tu­ra­le­za hu­ma­na pa­re­ce dic­tar. La la­bor de los me­dios, con sus de­tec­to­res de men­ti­ras, de­be ser tan ter­ca co­mo es la de los que las di­fun­den, y la gen­te de bue­na vo­lun­tad de­be em­pe­ñar­se en se­ña­lar la men­ti­ra. No se­ría des­car­ta­ble que los ge­nios de la compu­tación desa­rro­lla­ran al­gún al­go­rit­mo pa­ra ca­li­fi­car men­sa­jes y mar­car con una ban­de­ri­ta ro­ja los que de­be­rían ser leí­dos con pre­cau­ción.

Newspapers in Spanish

Newspapers from Venezuela

© PressReader. All rights reserved.