Facebook fracasó en Christchurch
LA capacidad de las redes sociales para transmitir acontecimientos casi de forma instantánea es enorme. Esto constituye un gran avance tecnológico que, a su vez, se convierte en un gran problema cuando se trata de retransmisiones que vulneran los principios éticos y que buscan la propagación de la violencia y del terrorismo.
Cerca de una hora, según se supo ayer, tardó Facebook en retirar el vídeo de la matanza de cincuenta personas en dos mezquitas de Christchurch, en Nueva Zelanda, que se produjo hace una semana. Esa hora de plazo, sin embargo, fue suficiente para que el vídeo grabado por el propio asesino se viralizase en las redes sociales y en webs de medios de comunicación. De esta manera, con el apoyo de las redes sociales, se cumplieron los objetivos propagandísticos del criminal, que transmitió durante 17 minutos su escalofriante matanza por Facebook Live con una cámara GoPro.
A petición de la policía de Nueva Zelanda, Facebook reaccionó, aunque tarde, y en las primeras 24 horas llegó a eliminar 1,5 millones de vídeos de la red con imágenes de los ataques, pero muchos superaron sus barreras y llegaron también a Twitter y YouTube. Tanto fue así que ayer, siete días después, el vídeo de la masacre aún podía ser visto en la red y probablemente ahí seguirá por mucho tiempo en los foros de los supremacistas blancos o de personas fascinadas por la violencia, en las que genera un pernicioso y macabro ejemplo.
El debate debe centrarse, después de este hecho, en la incapacidad de las redes sociales para filtrar los contenidos violentos y propagandísticos del terrorismo, sea del tipo que sea. Los directivos de esta red social han reconocido que los sistemas que emplean de detección automática de contenidos inapropiados fallaron en esta ocasión, ayudados por internautas malintencionados que refilmaron el vídeo para saltarse los controles establecidos y poder seguir con su difusión. Facebook y el resto de las redes sociales deben perfeccionar sus sistemas de control para que no vuelva a ocurrir algo similar. Es evidente que son claramente mejorables, como ha demostrado el caso de la masacre de Christchurch. Los algoritmos de inteligencia artificial (IA) para filtrar contenidos no generan aún la suficiente garantía de confianza.
Todos los esfuerzos son pocos para combatir los intentos terroristas de utilizar la muerte como instrumento de propaganda. La misma reflexión debe hacerse desde los medios de comunicación que cayeron en la tentación de reproducir el citado vídeo íntegramente y que primaron la apuesta por la audiencia por delante de la información responsable y objetiva de los hechos.