Algunos ejemplos relevantes
Tay, la robot racista y machista de Microsoft
El año pasado la compañía Microsoft se vio obligada a disculparse después de que Tay, su bot de inteligencia artificial programado para entablar conversaciones en redes sociales como si fuera un joven estadounidense de entre 18 y 24 años, publicara frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno”, entre otros muchos comentarios racistas, sexistas y xenófobos.
El bot estaba diseñado para aprender de la interacción con los usuarios. Y eso hizo: aprendió como un loro expresiones antisemitas y machistas que le iban proporcionando los internautas para alimentar el programa. Microsoft se vio obligada a retirar Tay sólo dieciséis horas después de lanzarla, y aunque días después hizo un segundo intento de que funcionase, tuvo que suspender su actividad de nuevo debido a que enviaba mensajes no solicitados (spam) y sus nuevos comentarios fuera de lugar, como uno en el que se jactaba de estar cometiendo un delito: “Estoy fumando marihuana enfrente de la policía”.
La discriminatoria política antiracista de Google Adsense
Amie Breeze Harper, una feminista afroamericana autora de libros y estudios sobre veganismo y racismo, denunció este verano que el programa inteligente de Google Adsense –uno de los productos del gigante tecnológico que permite ganar dinero admitiendo publicidad en una web– interpreta que sus trabajos violan las reglas de no discriminación porque son racistas, porque como habla del racismo que existe en la sociedad o de la discriminación que sufren los negros “está impulsando el tema de la raza”.
Google Adsense tuvo que revisar y corregir los prejuicios racistas de sus algoritmos después de que, en el 2013, un estudio de una profesora de la Universidad de Harvard, Latanya Sweeny, comparara los resultados de buscar nombres asociados a bebés blancos (Geoffrey, Jill, Emma) con los de buscar nombres asociados con bebés afroamericanos (Darnell, Jermaine, DeShawn) y detectara que al lado de casi el 80% de las búsquedas de nombres “negros” aparecían anuncios que contenían la palabra “detención”, cosa que ocurría en menos del 30% de las búsquedas de nombres “blancos”.
El algoritmo racista de la justicia estadounidense
Diversas investigaciones, entre ellas una de la agencia de noticias ProPublica, han revelado que el algoritmo más utilizado en EE.UU. para evaluar el riesgo de reincidencia de los delincuentes tenía el doble de probabilidades de señalar como probable reincidente a una persona de raza negra que a otra de raza blanca. El algoritmo parte de un cuestionario que no incluye preguntas sobre el origen étnico de los acusados pero, según los investigadores, el problema está en las bases de datos que utiliza, las tendencias de la administración de justicia durante los últimos 200 años, “con un número desproporcionado de encarcelados afroamericanos y un sinfín de condenas guiadas por los sesgos personales de los humanos”.
Los repartos clasistas de Amazon Prime
El año pasado un análisis de Bloomberg sobre el servicio de suscripción Amazon Prime –que ofrece el envío gratuito de muchos artículos–, reveló que en muchas importantes ciudades estadounidenses los abonados a Prime en barrios mayoritariamente pobres y afroamericanos –el Bronx en Nueva York y Roxbury en Boston, por ejemplo– quedaban excluidos del reparto en el día que sí se facilitaba en otros barrios. Amazon justificó que cuando un código postal de una ciudad es excluido suele deberse a que la zona dispone de demasiados pocos abonados Prime para justificar el envío de las furgonetas.
Las sexistas ofertas de trabajo de Google
Un estudio de la Carnegie Mellon University y el Instituto Internacional de Ciencia Informática realizado en el 2015 demostró que Google ofrecía ofertas de trabajos mejor pagados a hombres que a mujeres. En concreto, observaron que los anuncios online de trabajos con salarios por encima de los 200.000 dólares se mostraban a un número significativamente menor de mujeres que de hombres.
El error racista de Google Photos
En 2015 Google tuvo que pedir disculpas después de que el algoritmo de Google Photos etiquetara como “gorilas” la foto de dos afroamericanos. Yonatan Zunger, arquitecto jefe del área social de Google Plus, lo atribuyó a las dificultades del sistema de reconocimiento de imágenes para identificar los rostros de piel oscura.