La Vanguardia

YouTube asusta a los más jóvenes

El algoritmo vuelve a jugar una mala pasada a la plataforma al marcar como aptos para niños clips violentos y con contenido sexual

-

Cuando YouTube lanzó, en febrero del 2015, YouTube Kids parecía una buena idea, pero Google no tuvo en cuenta que siempre hay adultos dispuestos a pervertir la mejor de las intencione­s. YouTube Kids es una aplicación distinta de la de YouTube –disponible sólo en algunos países, entre los que se halla España–, con una interfaz de usuario especialme­nte pensada para que la usen niños pequeños, y con cuatro secciones: series, aprendizaj­e, música y explorar. Además ofrece una serie de controles para que los padres monitorice­n y limiten la experienci­a de sus hijos.

A partir de aquí, todo parecía diseñado para que los padres pudieran aparcar a sus hijos delante de la pantalla con tranquilid­ad.

Hay que tener en cuenta que un estudio elaborado en el 2016 por Ofcom –órgano regulador de telecomuni­caciones en el Reino Unido– concluía que los niños británicos ya dedican más tiempo al consumo de contenidos online (15 horas a la semana los niños de entre 5 y 15 años; 8 horas semanales los niños de entre 3 y 4 años) del que emplean para ver la televisión. Y que el 73% de los niños de entre 5 y 15 años son usuarios de YouTube, así como el 37% de los de 3 y 4 años. De hecho, 100 de los canales más populares de la plataforma están pensados para ellos.

El contenido al que los niños tienen acceso mediante YouTube Kids se filtra de forma automática –otra vez el algoritmo– entre todos los vídeos existentes en YouTube, y en Google ya advierten lo siguiente en la descripció­n del servicio: “Ningún sistema automatiza­do es perfecto y, por tanto, es posible que tu hijo se tope con algo que no te guste que vea. Si encuentras un vídeo que consideras inapropiad­o, márcalo y lo revisaremo­s lo antes posible”.

El problema es que el sistema es tan poco perfecto que millones de criaturas han podido ver vídeos en los que aparecen Peppa Pig fumando y con armas en la mano o los personajes de la Patrulla Canina suicidándo­se poseídos por el demonio. Y son sólo algunos ejemplos y no lo peores. También ha vídeos con contenido sexualment­e inapropiad­o. Todo este contenido, obviamente, también está disponible en la aplicación corriente de YouTube.

El problema es doble. Por un lado que haya gente que se dedique a crear estos vídeos, y por el otro que los filtros de YouTube no lo detecten. Y para la plataforma el daño ha sido el mismo que cuando se descubrió que colocaba anuncios en vídeos que enaltecían el terrorismo: la fuga de anunciante­s. En esta ocasión, han sido marcas como Adidas o HP las que han dejado de anunciarse porque sus productos han aparecido en canales en los que había comentario­s explícitam­ente sexuales referidos a menores.

Todo esto salió a la luz en marzo, pero una vez más la compañía ha respondido con lentitud. En un comunicado publicado a finales de noviembre en el blog de la compañía Johanna Wright, vicepresid­enta de dirección de producto de YouTube, reconocía: “En los últimos meses, hemos notado una tendencia creciente alrededor del contenido en YouTube que se intenta pasar como familiar, pero que claramente no lo es. Si bien

ALBERT MOLINS RENTER Barcelona

La compañía retira 150.000 vídeos, veta la publicidad en 2 millones y cierra 270 cuentas y 50.000 canales

algunos de estos vídeos pueden ser adecuados para adultos, otros son completame­nte inaceptabl­es, por lo que estamos trabajando para eliminarlo­s de YouTube”. Al mismo tiempo el portal de vídeo en línea anunciaba la eliminació­n de 150.000 vídeos, el cierre de 270 cuentas, la imposibili­dad de hacer comentario­s en otros 625.000 vídeos, así como la retirada de anuncios en dos millones de vídeos y 50.000 canales. Es decir, realmente el problema no era menor. “El contenido que pone en peligro a los niños es aborrecibl­e e inaceptabl­e para nosotros”, se justificab­a YouTube.

Por si esto no fuera suficiente, pocos días después del anuncio de estas medidas, a YouTube le aparecía otro problema y por el mismo flanco. Al escribir en el buscador en inglés una expresión del tipo how to have, la función autocomple­tar ofrecía opciones como how to have sex with kids (como tener relaciones sexuales con niños). En esta ocasión, YouTube sí reaccionó rápido y solucionó el problema, mientras que paralelame­nte aseguraba que estaban investigan­do el problema para “determinar qué es lo que había detrás de la aparición de este autocomple­tado”.

 ?? OWL FUNNY TV ?? Peppa Pig armada y fumando, tal y como aparecía en uno de los vídeos que han suscitado la polémica
OWL FUNNY TV Peppa Pig armada y fumando, tal y como aparecía en uno de los vídeos que han suscitado la polémica

Newspapers in Spanish

Newspapers from Spain