Twitter castigará a los hostigadores virtuales
Son cuentas muy activas que tienen desproporcionado impacto. Harán menos visibles sus tweets.
Les cambiará el algoritmo para que tengan menos visibilidad.
Twittter anunció que las cuentas conocidas en su red social como “trolls”, a las que definió como aquellas que no violan sus normas pero sí distorsionan y restan valor a la conversación pública, serán menos visibles en algunas secciones de su plataforma.
“Se trata de contenidos que no violan nuestras políticas, y entonces permanecerán en Twitter. Estarán disponibles si clickeas en ‘Mostrar más respuestas’ o elegís ver todo el contenido en tu configuración de búsquedas”, pero estarán menos visibles, describieron desde la red social.
Mediante un comunicado, Twitter explicó que “la mayoría de las cuentas reportadas por abuso constituye menos del un 1% del total” (unas 3 millones), pero aclaró que “mucho de lo que se reporta no viola” sus normas.
No obstante, aunque sea un “número pequeño”, afirmó que como tienen una gran actividad, esas “cuentas tienen un impacto desproporcionadamente grande -y negativo- en la experiencia de otras personas en Twitter”.
“El reto para nosotros ha sido ver cómo podemos abordar proactivamente estos comportamientos disruptivos que no violan nuestras políticas pero impactan negativamente en la salud de la conversación”, indicó. De este modo, Twitter anuncia que ahora intentará sacar de las conversaciones a los trolls sin la necesidad de esperar a que otros usuarios los denuncien.
La idea, remarcaron, es “que las personas que contribuyen a una conversación saludable serán más visibles en conversaciones y búsquedas”.
Entre las nuevas señales que la red de 280 caracteres observa en cuentas a analizar, citó: si una cuenta no confirmó su dirección de correo electrónico, si la misma persona inicia sesión en múltiples cuentas de manera simultánea, cuentas que repetidamente tuitean y mencionan a otras que no les siguen, y comportamientos que podrían indicar un ataque coordinado.
Según trascendió, en las primeras pruebas para testear este modelo en varias partes del mundo, registraron un descenso del 8% en las denuncias de abuso en las conversaciones y un 4% en las búsquedas.
“También estamos analizando cómo están conectadas las cuentas con aquellos que violan nuestras reglas y cómo interactúan entre sí”, agregó.
Twitter admitió que en su análisis seguro haya “falsos positivos y cosas que se nos pasen. Nuestro objetivo es aprender rápido y hacer que nuestros procesos y herramientas sean más inteligentes”.
En noviembre de 2016 comenzó a conocerse que Twitter y otras redes sociales como Facebook sirvieron para propagar desinformación, intoxicar las conversaciones pública y manipular elecciones en Estados Unidos y varios países de Europa. ■