La censura y los softwares biempensantes
Algún día vamos a tener que pensar bien qué lugar le damos a la Inteligencia Artificial en nuestras vidas, si siguen cometiendo errores como el que se conoció hace unos días. Resulta que los algoritmos de YouTube -como los de otras plataformasfueron entrenados para frenar a tiempo el lenguaje racista y evitar que se publique contenido inapropiado. Claro, sería imposible poner a personas a ver y escuchar las más de 500 horas de filmaciones que se suben a diario a ese sitio. Es necesario un algoritmo. Pero el algoritmo puede fallar. Y falló. Fue en la transmisión de una partida de ajedrez del exitoso youtuber y ajedrecista croata Antonio Radić, que tiene más de un millón de suscriptores. Esa partida, de octubre de 2020, era seguida por cientos de miles de fanáticos y de golpe se cortó la transmisión. YouTube nunca dio una explicación, pero el servicio se restableció en 24 horas.
Entonces surgieron todo tipo de elucubraciones, pero ahora investigadores del Instituto de Tecnologías del Lenguaje de Carnegie Melon, que estudiaron el caso, concluyeron que el algoritmo que usa YouTube (recordemos, un software que aprende solo a partir de ciertos parámetros) está cometiendo algunos “errores”.
Y el principal error, en este caso, fue no haber podido discriminar el contexto en el que se dicen ciertas palabras y frases como: “blancas atacan, blanca mata a negra, las negras están amenazadas, negra se come a blanca, entre otras”. El algoritmo lo entendió como mensajes racistas e hizo lo que tenía que hacer y para lo fue programado: bajó la palanca nomás.
No es el primer error de los algoritmos. Cada tanto aparecen obras de arte censuradas en Facebook por tener desnudos. O fotos de mujeres amamantando. También está el caso de Google Fotos que etiquetó como “gorilas” a una pareja de jóvenes negros. Todos casos conocidos, ahora ¿cuánto contenido habremos dejado de ver sólo porque un software lo quitó en silencio? Hay un debate ahí sobre la libertad de expresión y la censura, gobernada por máquinas digitales de grandes compañías tecnológicas. Pero también un peligro de que los productores de contenidos -artistas, periodistas, todos nosotros- adoptemos opiniones y visiones del mundo para el agrado de esos softwares censuradores y biempensantes. Acaso, ¿a cuánto estamos de que -con el objetivo de eludir a esos algoritmosterminemos jugando al ajedrez con verdes contra fucsias? ■