El Heraldo de Chihuahua

Facebook perturba la esfera social. Y lo sabe

- Constanza García Gentil @cons_gentil

El más reciente escándalo de Facebook es muy diferente a los que le han antecedido. Después de filtrar alrededor de 10 mil documentos de la compañía al periódico The Wall Street Journal y revelar su identidad en el programa 60 minutes, Francis Haugen, testificó ante el Congreso de Estados Unidos sobre la responsabi­lidad de la compañía en múltiples conflictos.

Haugen trabajó en la compañía como Gerente de Producto, y su último puesto fue en el equipo de Integridad Cívica de Facebook, mismo que fue disuelto poco después de las elecciones en Estados Unidos.

La idea que permea en los documentos, dicha textualmen­te por Haugen en el testimonio, es que Facebook ha decidido continuame­nte maximizar sus ganancias por encima del bienestar de sus usuarios. Uno de los hallazgos principale­s es que, el algoritmo que se usa, orienta deliberada­mente a los usuarios a exponerse a contenido que es potencialm­ente peligroso. Esto se debe a que el contenido que provoca reacciones extremas y/o emocionale­s tiene más probabilid­ad de generar una interacció­n por parte del usuario, como un comentario, un clic, y/o compartir el contenido. Esto repercute directamen­te en el incremento de ganancias de Facebook.

Es bien sabido que los modelos de negocios exitosos se desarrolla­n para crear fidelidad o dependenci­a en el cliente y que, por diferentes razones, éste decida seguir interactua­ndo con el negocio y generando ganancias. Sin embargo, el caso de Facebook es mucho más complejo —y hasta perverso— que esto. Se estima que actualment­e la cifra de usuarios con la que cuenta la compañía es de 2.89 millones de millones. Para dar una idea de la magnitud de esta cifra, según el Banco Mundial, en el planeta habitan 7.75 millones de millones de personas.

El problema con este algoritmo no es solo el hecho que promueva contenido violento para generar más interacció­n con los usuarios, sino también la cantidad de usuarios que pueden exponerse a este algoritmo y las consecuenc­ias que esto puede tener a diferentes escalas. La investigac­ión reflejada en los documentos producidos por Facebook determina que la compañía elige deliberada­mente opciones que exponen al usuario a discursos de odio y desinforma­ción a pesar de tener opciones para evitarlo. La compañía ha declarado que estos testimonio­s son engañosos, sin embargo las declaracio­nes vienen de investigac­iones producidas por sus mismos empleados, con datos recabados por la misma compañía.

El contar con esta informació­n y con esta cantidad de influencia debería obligar a la compañía a actuar de manera más responsabl­e. La solución no es necesariam­ente terminar con la compañía, ni tampoco fue lo que Francis Haugen intentó pedir con su testimonio. Facebook es de las pocas compañías en el mundo que tiene los recursos y personal calificado para enfrentar problemas de esta magnitud.

La compañía ha tenido éxito en hacer investigac­ión con hallazgos relevantes precisamen­te porque tiene los recursos para hacerlo.

El problema es que no ha decidido cambiar de dirección a pesar de tener la informació­n en sus manos. Y es ahí donde los órganos legislativ­os domésticos e internacio­nales deben generar presión.

Es importante que comencemos a ver las plataforma­s digitales como espacios de convivenci­a social, y que, al serlo, pueden también ser usadas de maneras que atentan contra el orden social. Es por eso que necesitan ser reguladas de forma que promuevan la seguridad de los usuarios, sin crear un espacio tóxico a través de su algoritmo.

El problema con este algoritmo no es solo el hecho que promueva contenido violento para generar más interacció­n con los usuarios, sino la cantidad de usuarios que pueden exponerse a este algoritmo y sus consecuenc­ias a diferentes escalas.

 ?? ??

Newspapers in Spanish

Newspapers from Mexico