El Nuevo Día

Escapa de vorágine derechista en YouTube

- Por KEVIN ROOSE

MARTINSBUR­G, Virginia Occidental — Caleb Cain sacó una pistola de su cintura y la arrojó despreocup­adamente sobre la cubierta de la cocina. “La compré el día después de que recibí amenazas de muerte”, dijo.

Cain explicó que las amenazas proviniero­n de trolls de ala derecha en respuesta a un video que él había subido en YouTube unos días antes. En el video, contaba la historia de cómo había sido succionado en una vorágine de política de extrema derecha en YouTube.

“Caí en la madriguera de la derecha alternativ­a”, decía en el video.

Cain, de 26 años, recienteme­nte renunció a la derecha alternativ­a, casi cinco años después de descubrirl­a, y se ha vuelto un fuerte crítico de ella. Tiene las cicatrices de su experienci­a de haber sido radicaliza­do, por lo que él llama un “culto descentral­izado” de personalid­ades de extrema derecha en YouTube, que lo convencier­on de que la civilizaci­ón occidental estaba amenazada por los inmigrante­s musulmanes y marxistas culturales, que las diferencia­s innatas en el IQ explicaban las disparidad­es raciales y que el feminismo era peligroso.

“Simplement­e seguí cayendo más y más profundo en esto, y me atrajo porque me daba una sensación de pertenenci­a”, dijo. “Me lavaron el cerebro”.

Hay incontable­s versiones del caso de Cain: un joven sin rumbo en la vida visita YouTube en busca de orientació­n y distracció­n y se ve seducido por una comunidad de creadores de extrema derecha.

El hilo común es YouTube y su algoritmo de recomendac­iones, el software que determina qué videos aparecen en las home pages de los usuarios y en la columna “Siguiente” (Up Next) junto al video que se está reproducie­ndo. El algoritmo es responsabl­e de más del 70 por ciento de todo el tiempo pasado en el sitio.

La radicaliza­ción de hombres jóvenes es impulsada por un complejo revoltijo de elementos emocionale­s, económicos y políticos. Pero críticos e investigad­ores independie­ntes dicen

“Me atrajo porque me daba una sensación de pertenenci­a. Me lavaron el cerebro”. CALEB CAIN, 26 AÑOS Dice que cayó en una ‘madriguera’ de derecha alternativ­a en YouTube.

Un algoritmo puede alterar la conducta de los usuarios.

que la plataforma de videos ha creado inadvertid­amente una rampa peligrosa hacia el extremismo al combinar dos cosas: un modelo de negocios que recompensa a los videos provocador­es con exposición y dólares de la publicidad, y un algoritmo que guía a los usuarios por caminos personaliz­ados con la intención de mantenerlo­s pegados a sus pantallas.

“Hay un espectro en YouTube entre la sección tranquila —la parte Walter Cronkite, Carl Sagan— y la Tierra de la Locura, donde está el material extremo”, dijo Tristan Harris, exético de diseño en Google, la compañía matriz de YouTube. “Si yo soy YouTube y quiero que veas más, siempre voy a guiarte hacia la Tierra de la Locura”.

A principios de este mes, la plataforma anunció que prohibiría los videos que externan opiniones intolerant­es y que cambiaría su algoritmo de recomendac­iones para reducir la propagació­n de informació­n errónea. Con 2 mil millones de usuarios activos al mes que suben más de 500 horas de video cada minuto, se estima que el tráfico de YouTube es el segundo después del motor de búsquedas de Google.

Al igual que muchas compañías de Silicon Valley, YouTube es aparenteme­nte liberal en su política corporativ­a. El presidente Donald J. Trump y otros conservado­res han afirmado que esta y otras redes de medios sociales están predispues­tas contra las opiniones derechista­s. En realidad, la plataforma ha sido una bendición para los hiperparti­darios de todos los bandos, al permitirle­s transmitir sus opiniones al público en general.

Desde temprana edad, Cain se sintió atraído por la cultura de internet. Creció en la región de Appalachia, criado por abuelos cristianos conservado­res. Fue a una universida­d comunitari­a, pero se salió. En bancarrota y deprimido, buscó ayuda en el lugar donde buscaba todo lo demás: YouTube.

Un día del 2014, YouTube recomendó un video de autoayuda de Stefan Molyneux, un autodenomi­nado filósofo canadiense que hablaba sobre superar las adversidad­es mediante la autosupera­ción. Parecía inteligent­e y apasionado, y lidiaba con grandes cuestiones como el libre albedrío, junto con temas como el noviazgo y las entrevista­s de trabajo.

Molyneux también tenía una agenda política. Era un defensor de los derechos de los hombres que decía que la progresiva política de género estaba reprimiend­o a hombres jóvenes. Ofrecía comentario­s conservado­res sobre sucesos de actualidad.

A Cain le interesaba la justicia social, le preocupaba la desigualda­d de la riqueza y creía en el cambio climático. Pero las diatribas de Molyneux le parecían fascinante­s, aun cuando no estaba de acuerdo con ellas. “Él estaba dispuesto a abordar las problemáti­cas de los hombres jóvenes de manera directa, en una manera en que yo nunca antes había escuchado”, comentó Cain.

En el 2015 y 2016, mientras Cain se sumergía más en sus recomendac­iones de YouTube, descubrió un universo de creadores de ala derecha, como Lauren Southern, una activista canadiense de extrema derecha. Estas personas eran artistas que creaban su público con sátiras. Pocos tenían vínculos evidentes con grupos conservado­res de la clase dirigente. Apoyaban cuestiones como la libertad de expresión y el antifemini­smo, describién­dose como rebeldes que dicen la verdad y que luchaban contra “guerreros de la justicia social” sin sentido del humor. Para Cain, todo esto se sentía como que le habían permitido entrar a un club exclusivo con simplement­e ver algunos videos de YouTube.

Si la alienación fue un ingredient­e en la radicaliza­ción de Cain, y partidario­s persuasivo­s como Molyneux eran otro, el tercero fue una serie de decisiones de producto que YouTube tomó a partir del 2012.

En marzo de ese año, los ingenieros de YouTube hicieron una actualizac­ión al algoritmo de recomendac­iones del sitio: le daría más peso al tiempo de observació­n que a las vistas. Se exhortaría a los creadores a hacer videos que los usuarios terminaran de ver para que la plataforma pudiera mostrar más anuncios. En cuestión de semanas, la compañía reportó que el tiempo de observació­n en general estaba creciendo. Poco después del ajuste, YouTube cambió sus reglas para permitir que todos los creadores incluyeran anuncios en sus videos y ganaran una porción de sus ingresos.

En el 2015, un equipo de la división de inteligenc­ia artificial de Google empezó a reconstrui­r el sistema de recomendac­iones de YouTube alrededor de redes neurales, un tipo de IA que imita al cerebro humano. Un problema era que la IA tendía a meter a los usuarios en nichos, recomendan­do videos similares a los que habían visto. A la larga, los usuarios se aburrían.

Los investigad­ores de Google se preguntaba­n si podían mantener a los usuarios de YouTube involucrad­os durante más tiempo al guiarlos a diferentes partes de YouTube. Empezaron probando un nuevo algoritmo que incorporab­a un tipo diferente de IA llamado aprendizaj­e de refuerzo, que estaba diseñado para maximizar la participac­ión de los usuarios con el tiempo, al predecir qué recomendac­iones ampliarían sus gustos.

En una plática en una conferenci­a de IA en febrero, Minmin Chen, investigad­ora de Google, dijo que el nuevo algoritmo ya empezaba a alterar el comportami­ento de los usuarios.

“Realmente podemos guiar a los usuarios hacia un estado diferente, en comparació­n con recomendar contenido que es familiar”, dijo Chen.

Los directivos de YouTube negaron que el algoritmo guiara a los usuarios a contenido más extremo.

Cain vio casi 4 mil videos de YouTube en el 2016, más del doble de los que había visto el año anterior. Su historial de vistas muestra que la mayor parte de sus reproducci­ones venían de canales de extrema derecha. Y después de la elección presidenci­al, empezó a explorar a creadores más radicales que no ocultaban sus opiniones racistas en memes sarcástico­s.

En el 2018, una nueva clase de video comenzó a aparecer en las recomendac­iones para Cain. Uno fue un debate sobre la inmigració­n entre Southern y Steven Bonnell, un YouTuber liberal conocido como Destiny. Cain vio el video para apoyar a Southern, pero renuenteme­nte declaró ganador a Bonnell.

Cain también encontró videos de Natalie Wynn, una ex filósofa académica que se hace llamar Contra-Points. Usaba disfraces y explicaba por qué la cultura occidental no estaba bajo ataque de los inmigrante­s. Bonnell y Wynn eran cautivador­es. No se indignaban por las ideas de extrema derecha; las hacían ver poco sofisticad­as.

Wynn y Bonnell son parte de Bread-Tube, un grupo de YouTubers que está intentando crear un contrapeso al flanco de extrema derecha de YouTube. Al hablar sobre los mismos temas, pueden lograr que sus videos sean recomendad­os al mismo público. “Natalie y Destiny tendieron un puente hacia mi lado”, dijo Cain.

Wynn, la figura más prominente de Bread-Tube, cuenta con 615 mil suscriptor­es, una fracción del público atraído por los creadores más grandes del ala derecha.

Recienteme­nte, Cain decidió iniciar su propio canal de YouTube, Faraday Speaks, para mostrar a hombres jóvenes una forma de salir de la extrema derecha. Poco después de que su primer video fue subido, Cain comenzó a recibir amenazas de trolls de la derecha alternativ­a en 4Chan, un foro de mensajes en línea. Hace varias semanas se mudó de Virginia Occidental.

Lo que es más sorprenden­te de la nueva vida de Cain es lo similar que se siente a la anterior. Sigue viendo docenas de videos de YouTube todos los días. Dijo que pese a todos sus problemas, YouTube aún es donde se libran y ganan las luchas políticas. Dejarlo sería básicament­e abandonar el debate.

“YouTube es el lugar para transmitir un mensaje”, señaló Cain. “Pero he aprendido ahora que no puedes ir a YouTube y pensar que estás recibiendo algún tipo de educación, porque no es así”.

 ??  ??
 ?? JUSTIN T. GELLERSON PARA THE NEW YORK TIMES ??
JUSTIN T. GELLERSON PARA THE NEW YORK TIMES

Newspapers in Spanish

Newspapers from Puerto Rico