La monetización a costa de todo
Dejar en manos de un algoritmo la salud mental de los adolescentes es un disparate
Según el Fondo de las Naciones Unidas para la Infancia (UNICEF, por sus siglas en inglés), de los 10 a los 13 años una persona está en la adolescencia temprana y es cuando comienzan los cambios hormonales en el cuerpo como el cambio de voz, aparición de vello en el cuerpo, aumento de sudoración, los lazos de amistad se empiezan a convertir en algo más importante y el sentido de pertenencia en un grupo social toma más fuerza. Es en esta época que somos más influenciables y el mundo en el que vivimos y las experiencias de vida que nos sucedan van a marcarnos de una o de otra forma en nuestra personalidad y forma de ver la vida hacia adelante.
Es también en esta época de la vida que, en estos tiempos, muchos adolescentes entran al mundo de las redes sociales y sus vínculos de amistad y complicidad toman forma compartiendo gustos, afinidades y experiencias. Pero, ¿están estos pequeños adolescentes listos para la vida digital en una red social? y también ¿las redes sociales están listas para ellos? A nivel tecnológico las redes están listas; sus algoritmos identifican lo que le gusta o comparte y la plataforma le va a ofrecer más contenido similar para que, finalmente, este nuevo usuario no salga de la red y consuma y comparta más y más contenido. El problema viene cuando este nuevo usuario busca contenido peligroso para su edad, contenido que puede ser que no entienda y le haga una distorsión de la realidad. El caso más emblemático y que retrata esta triste realidad es el de Molly Russell, que con 14 años tomó la decisión de suicidarse, en 2017, después de haber consumido y compartido más de dos mil 100 contenidos relacionados con suicidios y autolesiones 6 meses antes de morir.
El asunto es que Molly, al igual que millones de jóvenes en todo el mundo, pueden llegar a tener ideas suicidas. A cuatro años de su muerte y después de que los padres interpusieran una demanda en contra de Instagram y Pinterest, un tribunal sentenció que Molly murió por “un acto de autolesión mientras sufría de depresión y por los efectos negativos del contenido en redes sociales”. Su muerte ha sentado un precedente y las redes sociales han hecho cambios en sus plataformas cuando identifican que un usuario de cierta edad consume estos contenidos, por ejemplo; Tik Tok, que en nuestro país tiene más de cuatro millones de usuarios menores de 13 años, despliega líneas de ayuda y previene al usuario de que eso que va a ver y escuchar es delicado y probablemente necesite apoyo.
Dejar en manos de un algoritmo la salud mental de nuestros adolescentes es un disparate; los padres o tutores deben estar cercanos y supervisar lo que se comparte y se consume en Internet. Por supuesto que las plataformas deben poner manos en el asunto, como lo han comenzado a hacer, para que la Inteligencia Artificial de las plataformas no fomente el contenido dañino en los menores de edad, pero el acompañamiento de la familia y del círculo cercano es indispensable para que las redes se disfruten y no sean una pesadilla.