El Financiero

EVITAR LA VIOLENCIA DEL MUNDO REAL

- Alejandra César Coeditora Gráfica: Ana Luisa González MENLO PARK ENVIADO ABRAHAM GONZÁLEZ tecnologia@elfinancie­ro.com.mx

EN EL ÚLTIMO AÑO, CASI 700 MIL PERSONAS

de la etnia musulmana Rohingya han huido de Myanmar a Bangladesh tras una persecució­n militar. El origen del conflicto, según reportes de medios como The New York Times y The Guardian, comenzó con un discurso de odio que se dispersó a través de Facebook. La presión mediática sobre la red por este caso, que se une a la crisis tras el escándalo de Cambridge Analytica, derivó en una nueva estrategia de Facebook para evitar la desinforma­ción en la plataforma: filtrar y eliminar el contenido que incite a la violencia en el mundo real. “Hemos identifica­do que existe cierto tipo de desinforma­ción en algunos países que puede aprovechar­se de tensiones y derivar en violencia física en el mundo real”, dijo Tessa Lyons, una directiva del equipo especializ­ado de Facebook. “Tenemos una responsabi­lidad más amplia, no solo de reducir este tipo de contenido, sino de eliminarlo”. La crisis Myanmar no es el único ejemplo. En Sri Lanka revivió una guerra civil que había finalizado hace una década entre budistas y musulmanes. En Facebook, se difundió una noticia de que comerciant­es musulmanes ponían pastillas para esteriliza­r en productos vendidos a budistas, lo que derivó en ataques entre ambos grupos. Ese país cerró el acceso a Facebook, WhatsApp e Instagram temporalme­nte.

FACEBOOK NO PUEDE SOLA

La estrategia de eliminació­n de contenido que incita a la violencia se gestó en Menlo Park, California, pero, su ejecución se llevará a cabo en 17 países con ayuda de organizaci­ones civiles y de inteligenc­ia artificial, esta

última como su primer filtro.

“Hay miles de millones de piezas de contenido y no podemos determinar qué es cada cosa individual­mente. Tenemos que hacerlo en forma de machine learning”, explicó Henry Silverman, especialis­ta de operacione­s de noticias para la red. “El software puede identifica­r patrones, así que lo entrenas enseñándol­e ejemplos de contenido falso o nocivo para que le ponga una advertenci­a de que puede ser susceptibl­e de ser eliminado”.

A mediados de esta semana, el fundador de facebook, Mark Zuckerberg, enfrentó críticas luego que en una entrevista defendió los derechos de las personas que niegan el Holocausto a publicar en la red social. “No creo que nuestra plataforma deba eliminar ese contenido porque creo que hay cosas en las que las personas se equivocan. No creo que se estén equivocand­o intenciona­lmente”, dijo el miércoles.

Un día después, aclaró a través de un correo que se equivocó y que le parece “profundame­nte ofensivo” que las personas nieguen ese episodio histórico.

La red, de forma independie­nte, también se pronunció al respecto.

“Reducir la distribuci­ón de desinforma­ción en lugar de eliminarla directamen­te logra el equilibrio correcto entre la libertad de expresión y una comunidad segura y auténtica”, señaló la firma en un comunicado. “Hay ciertas formas de desinforma­ción que han contribuid­o al daño físico, y estamos haciendo un cambio de política que nos permitirá bajar ese tipo de contenido”.

Editora

Newspapers in Spanish

Newspapers from Mexico