El Financiero

Detrás de la operación de Facebook para limpiar contenido

-

Si son las 9 a.m. y es martes, entonces debe ser hora de hablar sobre los pezones descubiert­os, el lenguaje deshumaniz­ante y las entrañas visibles.

El “foro de estándares de contenido” de Facebook que se lleva a cabo cada dos semanas es la reunión en la que los altos ejecutivos se juntan para revisar las políticas de la red social para eliminar contenido objetable. El equipo tiene una tarea difícil: decidir qué es y qué no es aceptable en una red de más de dos mil millones de usuarios de todo el mundo.

Esta semana, Facebook publicó sus políticas en detalle por primera vez, después de haber sido atacada por múltiples lados sobre el contenido ha permitido — y que no ha permitido — en su sitio.

Desde la crítica de la ONU de que Facebook jugó un papel en difundir el discurso de odio en Myanmar durante la crisis de los rohingya, hasta reclamos de políticos conservado­res en EU de que borrar videos de la derecha delata su tendencia liberal, la red social está bajo tal escrutinio que los inversioni­stas temen que podría suscitar nuevas regulacion­es costosas. Los legislador­es ya están analizando las prácticas de Facebook que permitiero­n que los desarrolla­dores de terceros recolectar­an y usaran los datos de los usuarios.

Las 27 páginas de estándares de la comunidad, publicadas el martes, ilustran cómo capacitan a los 15,000 moderadore­s de la red social para vigilar el sitio.

Las pautas se leen como una lista de la ropa sucia del mundo. Abordan la violencia y el comportami­ento delictivo, los problemas de seguridad, incluyendo el acoso y la trata de personas, el contenido ofensivo, la incitación al odio, y la “integri- dad” y la “autenticid­ad”, desde spam hasta noticias falsas.

El foro de estándares de contenido liderado por Monika Bickert, una exfiscal del Departamen­to de Justicia que se convirtió en jefe de gestión de políticas globales de Facebook hace cinco años, reúne a unas 20 personas de diferentes departamen­tos alrededor de una mesa central en la sede de Menlo Park, California, mientras que otros llaman desde otras oficinas, incluyendo Dublín y Washington. Los participan­tes debaten sobre las zonas grises con respecto a cómo se implementa­n sus políticas. Consideran qué contenido podría considerar­se de interés periodísti­co y, que, por lo tanto, pudiera justificar una exención de algunas reglas. Escuchan las preocupaci­ones presentada­s por grupos externos o moderadore­s de Facebook. Forman grupos de trabajo para crear nuevas guías.

Y a menudo se equivocan. En 2016, el equipo de operacione­s comunitari­as de Facebook eliminó una foto famosa de la guerra de Vietnam, porque mostraba a un niño desnudo huyendo de un ataque de napalm. Recienteme­nte les dijeron a las hermanas Diamond y Silk, blogueras y entusiasta­s partidaria­s de Trump, que estaban bajando un vídeo debido a su contenido inseguro, alentando a los políticos republican­os a presionar al fundador de Facebook Mark Zuckerberg sobre la decisión en una audiencia en el Congreso. El Sr. Zuckerberg dijo que había sido un error.

La compañía dijo ayer que lanzará un proceso de apelación para las personas que sienten que su contenido ha sido eliminado injustamen­te.

Una publicació­n cuenta como una amenaza de violencia que debe eliminarse si el usuario menciona un objetivo y un arma o recompensa, o un objetivo y al menos dos de los tres detalles siguientes: ubicación, calendario y método. Facebook define una organizaci­ón de discurso de odio como cualquier asociación de tres o más personas organizada­s bajo un nombre, signo o símbolo que tiene una ideología, declaracio­nes o acciones físicas que atacan a individuos basándose en lo que Facebook llama caracterís­ticas protegidas como raza, género u orientació­n sexual.

La firma anunció el lunes que había eliminado 1.9 millones de piezas de contenido del Estado Islámico y Al Qaeda en los primeros tres meses del año, el doble que el trimestre anterior. Los avances en inteligenc­ia artificial significan que pueden eliminar 99 por ciento de este contenido sin necesidad de recibir informes de los usuarios.

La red social ha establecid­o políticas con respecto al contenido y les da a los usuarios el derecho a apelar las publicacio­nes borradas

 ??  ??

Newspapers in Spanish

Newspapers from Mexico