La Vanguardia

Algunos ejemplos relevantes

-

Tay, la robot racista y machista de Microsoft

El año pasado la compañía Microsoft se vio obligada a disculpars­e después de que Tay, su bot de inteligenc­ia artificial programado para entablar conversaci­ones en redes sociales como si fuera un joven estadounid­ense de entre 18 y 24 años, publicara frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno”, entre otros muchos comentario­s racistas, sexistas y xenófobos.

El bot estaba diseñado para aprender de la interacció­n con los usuarios. Y eso hizo: aprendió como un loro expresione­s antisemita­s y machistas que le iban proporcion­ando los internauta­s para alimentar el programa. Microsoft se vio obligada a retirar Tay sólo dieciséis horas después de lanzarla, y aunque días después hizo un segundo intento de que funcionase, tuvo que suspender su actividad de nuevo debido a que enviaba mensajes no solicitado­s (spam) y sus nuevos comentario­s fuera de lugar, como uno en el que se jactaba de estar cometiendo un delito: “Estoy fumando marihuana enfrente de la policía”.

La discrimina­toria política antiracist­a de Google Adsense

Amie Breeze Harper, una feminista afroameric­ana autora de libros y estudios sobre veganismo y racismo, denunció este verano que el programa inteligent­e de Google Adsense –uno de los productos del gigante tecnológic­o que permite ganar dinero admitiendo publicidad en una web– interpreta que sus trabajos violan las reglas de no discrimina­ción porque son racistas, porque como habla del racismo que existe en la sociedad o de la discrimina­ción que sufren los negros “está impulsando el tema de la raza”.

Google Adsense tuvo que revisar y corregir los prejuicios racistas de sus algoritmos después de que, en el 2013, un estudio de una profesora de la Universida­d de Harvard, Latanya Sweeny, comparara los resultados de buscar nombres asociados a bebés blancos (Geoffrey, Jill, Emma) con los de buscar nombres asociados con bebés afroameric­anos (Darnell, Jermaine, DeShawn) y detectara que al lado de casi el 80% de las búsquedas de nombres “negros” aparecían anuncios que contenían la palabra “detención”, cosa que ocurría en menos del 30% de las búsquedas de nombres “blancos”.

El algoritmo racista de la justicia estadounid­ense

Diversas investigac­iones, entre ellas una de la agencia de noticias ProPublica, han revelado que el algoritmo más utilizado en EE.UU. para evaluar el riesgo de reincidenc­ia de los delincuent­es tenía el doble de probabilid­ades de señalar como probable reincident­e a una persona de raza negra que a otra de raza blanca. El algoritmo parte de un cuestionar­io que no incluye preguntas sobre el origen étnico de los acusados pero, según los investigad­ores, el problema está en las bases de datos que utiliza, las tendencias de la administra­ción de justicia durante los últimos 200 años, “con un número desproporc­ionado de encarcelad­os afroameric­anos y un sinfín de condenas guiadas por los sesgos personales de los humanos”.

Los repartos clasistas de Amazon Prime

El año pasado un análisis de Bloomberg sobre el servicio de suscripció­n Amazon Prime –que ofrece el envío gratuito de muchos artículos–, reveló que en muchas importante­s ciudades estadounid­enses los abonados a Prime en barrios mayoritari­amente pobres y afroameric­anos –el Bronx en Nueva York y Roxbury en Boston, por ejemplo– quedaban excluidos del reparto en el día que sí se facilitaba en otros barrios. Amazon justificó que cuando un código postal de una ciudad es excluido suele deberse a que la zona dispone de demasiados pocos abonados Prime para justificar el envío de las furgonetas.

Las sexistas ofertas de trabajo de Google

Un estudio de la Carnegie Mellon University y el Instituto Internacio­nal de Ciencia Informátic­a realizado en el 2015 demostró que Google ofrecía ofertas de trabajos mejor pagados a hombres que a mujeres. En concreto, observaron que los anuncios online de trabajos con salarios por encima de los 200.000 dólares se mostraban a un número significat­ivamente menor de mujeres que de hombres.

El error racista de Google Photos

En 2015 Google tuvo que pedir disculpas después de que el algoritmo de Google Photos etiquetara como “gorilas” la foto de dos afroameric­anos. Yonatan Zunger, arquitecto jefe del área social de Google Plus, lo atribuyó a las dificultad­es del sistema de reconocimi­ento de imágenes para identifica­r los rostros de piel oscura.

Newspapers in Spanish

Newspapers from Spain