Troles bajo vigilancia
La red social usa un algoritmo que analiza el comportamiento y no los contenidos
Twitter ha puesto en marcha un sistema para mejorar la cortesía de las conversaciones que se basa más en el análisis del comportamiento de los usuarios que en el contenido.
El pasado martes, Twitter anunciaba –mediante un comunicado– que ha puesto en marcha “un nuevo enfoque” más proactivo para “mejorar la salud de las conversaciones” en la red social, basado no tanto en el análisis del contenido que publican los usuarios y más en su comportamiento.
Twitter ha estado probando este sistema los últimos meses y los resultados han sido tan buenos que ya lo ha implementado. El objetivo es que “las personas que contribuyen a una conversación saludable sean más visibles” que aquellas que, aún sin violar los términos y condiciones de uso de Twitter, tienen un comportamiento “tipo trol”, y que pueden llegar a “distorsionar la conversación”, dicen desde la red social.
La solución tecnológica que se acaba de implementar tiene en cuenta “nuevas señales de comportamiento para determinar la forma en que se presentan los tuits. Entre estos indicios, por ejemplo, se encuentran si una cuenta no ha confirmado su dirección de correo electrónico, si la misma persona inicia sesión en múltiples cuentas de manera simultánea, perfiles que repetidamente tuitean y mencionan a otros que no les siguen, o comportamientos que podrían indicar un ataque coordinado. Este nuevo algoritmo también analiza cómo están conectadas las cuentas con aquellos que violan las reglas y cómo interactúan entre sí. Según Twitter, la ventaja de este nueva aproximación es que es más proactiva, ya que permite detectar y avanzarse a futuros usuarios problemáticos sin necesidad de esperar a que los usuarios reporten potenciales problemas. Hay que tener en cuenta que, precisamente, la falta de antelación y la lentitud con la que las redes sociales actúan ante los contenidos inapropiados es una de las críticas recurrentes que se les hace.
Puesto que en ningún caso se trata de contenidos violen las políticas de uso de Twitter, el contenido que estos usuarios suban permanecerá en la red social y estará disponibles si se pincha en “Mostrar más respuestas” o se elige ver todo el contenido en la configuración de búsquedas, pero Twitter espera que el resultado sea que las personas que se comporten mejor sean más visibles.
Actualmente la red social está en pleno proceso de definir lo que se entiende por conversación saludable. Desde Twitter se explica que se trata de conseguir que todos los usuarios puedan participar y tengan
El objetivo es detectar las cuentas potencialmente conflictivas antes de que sean reportadas
una buena experiencia sin disrupción. Con este motivo en abril se abrió una consulta para que expertos de todo el mundo presentaran iniciativas o proyectos para definir cómo medir este concepto de conversación saludable. Los proyectos seleccionados colaborarán directamente con Twitter, que también los financiará.
Desde la red social aseguran que todo esto es un complemento de los cambios que, durante los dos últimos años, la red social ya ha realizado para mejorar sus políticas, sus equipos humanos de revisión y los procesos automatizados basados en machine learning para identificar a los usuarios que no se comportan correctamente.