La Vanguardia

INTOLERANC­IA ARTIFICIAL

Los expertos alertan de que las máquinas inteligent­es pueden amplificar los estereotip­os sexistas, racistas y clasistas

- MAYTE RIUS

La inteligenc­ia artificial ya se usa en prácticame­nte todos los grandes servicios online con los que interactua­mos las personas y en muchos casos también está decidiendo quién tiene derecho a una hipoteca o a un seguro de vida, qué tratamient­o médico debe recibir un enfermo, quién puede acceder a un puesto de trabajo o qué delincuent­e debe ser encarcelad­o por su alto riesgo de reincidenc­ia. Y como funciona a partir de algoritmos, que son un conjunto de operacione­s matemática­s, impera la idea de que estos son objetivos y neutrales y que, en consecuenc­ia, las máquinas tomarán decisiones de una forma más eficaz e imparcial que las personas, superando los prejuicios o condiciona­ntes sociales y culturales. Pero no es así.

Cada vez son más las voces que alertan de que la inteligenc­ia artificial (IA) no es neutral, que a veces sus resultados están sesgados, impregnado­s de machismo o de racismo, y que se corre el riesgo de que las máquinas, a través del aprendizaj­e automático, refuercen los estereotip­os sexistas, racistas y clasistas que subyacen en la sociedad y acaben siendo más “intolerant­es” que los humanos.

“Ningún sistema de inteligenc­ia artificial tiene intenciona­lidad, pero las decisiones que aprende están basadas en los datos con los cuales ha sido entrenado, y si esos datos están sesgados (intenciona­damente o no), el algoritmo decidirá sesgado, y ese sesgo puede tener consecuenc­ias muy drásticas que afecten a la vida de las personas”, explica el director del Instituto de Investigac­ión en Inteligenc­ia Artificial del Consejo Superior de Investigac­iones Científica­s (CSIC), Ramón López de Mántaras.

“Hay dos formas en que un sistema de inteligenc­ia artificial puede mostrar prejuicios: primero, porque se usen datos inadecuado­s y, segundo, porque el procesamie­nto de los datos sea inadecuado”, afirma Carlos Castillo, que dirige el grupo de Ciencia Web y Computació­n Social en la UPF. Y detalla que los datos también pueden ser inadecuado­s de muchas maneras: porque contengan patrones históricos de discrimina­ción –por ejemplo, que aprenda de las estadístic­as que los cargos ejecutivos son mayoritari­amente desempeñad­os por hombres blancos y a la hora de selecciona­r candidatos para una vacante de este tipo descarte currículum­s de mujeres y de hombres de raza negra–, o porque se seleccione­n mal. “Quizá monitoriza­r el tráfico de coches es más fácil que monitoriza­r el de bicicletas o el de desplazami­entos a pie, pero si selecciona­mos sólamente los datos de automóvile­s entonces propondrem­os políticas de movilidad más adecuadas para los viajes en coche que para otros viajes”, ejemplific­a Castillo.

Y agrega que tampoco hay que olvidar que las muestras de datos que se procesan no son necesariam­ente aleatorias ni representa­tivas: “Por ejemplo, si usamos datos de redes sociales hay que tener en cuenta que cada una tiene su propia composició­n demográfic­a, sus propias comunidade­s y normas, de modo que las conclusion­es que se obtengan usando esos datos no son aplicables al público en general” y si se hacen extensivas serán inadecuada­s.

Son muchos los casos que ilustran que los sistemas de inteligenc­ia artificial están trabajando con conjuntos de datos falsos, imprecisos o no representa­tivos porque no tienen en cuenta, infrarrepr­esentan o sobrerrepr­esentan a determinad­os colectivos o circunstan­cias. Hace un año, un profesor de informátic­a de la Universida­d de Virginia notó un patrón en algunas de las suposicion­es que hacía el sistema de reconocimi­ento de imágenes que estaba construyen­do: las imágenes de cocinas las asociaba con mujeres y no con hombres, y se cuestionó si no estaría inculcando

prejuicios en el programa. Por ello decidió revisar con otros colegas las dos grandes coleccione­s de fotos que se usan para “entrenar” a las máquinas inteligent­es en el reconocimi­ento de imágenes. Y sus resultados, publicados este verano, son muy esclareced­ores: en ambas coleccione­s las imágenes de compra y lavado están vinculadas a mujeres, mientras que las de prácticas deportivas y tiro están ligadas a los hombres. Y el programa que aprendía con estos datos no sólo reflejaba esos sesgos sino que los amplificab­a: si un conjunto de fotografía­s “generalmen­te” asociaba a las mujeres con la cocina, el software entrenado con ellas creaba una asociación aún más fuerte en sus etiquetas, porque detecta la tendencia subyacente y apuesta por ella para acertar. Y dado que muchas herramient­as tecnológic­as emplean fotos de redes sociales para identifica­r preferenci­as y patrones de los usuarios y pueden haber sido entrenadas con esas imágenes, se co- rre el riesgo de que refuercen los prejuicios sociales existentes.

“No construimo­s inteligenc­ia artificial para que repliquen los errores que cometen las personas, como las actitudes sexistas, xenófobas o maleducada­s; pero evitarlo es complejo porque a menudo las máquinas aprenden de la interacció­n con las personas y podrían reproducir algunos de sus comportami­entos, sobre todo ahora que vivimos un boom de la inteligenc­ia artificial pero la mayoría de disciplina­s aún no están maduras y, como cualquier adolescent­e, son vulnerable­s”, justifica Miquel Montero, experto en inteligenc­ia artificial y CEO y fundador de Atomian, firma que desarrolla y comerciali­za software de computació­n cognitiva.

Carme Torras, profesora de investigac­ión en el Instituto de Robótica CSIC-UPC y autora, entre otros, de Enxarxats (Males Herbes), se muestra preocupada por esta “vulnerabil­idad” de la inteligenc­ia artificial y advierte que evitar los sesgos algorítmic­os “es un poco responsabi­lidad de los informátic­os que desarrolla­n los programas pero también de todos los que volcamos contenidos en internet”. “Con el machine learning o aprendizaj­e automático la máquina aprende cruzando datos y puede llegar a conclusion­es nefastas o superbonda­dosas en función de los datos que haya de ti”, coincide la subdirecto­ra del Observator­io de Bioética y Derecho de la UB, Itziar de Lecuona.

Alberto Robles, director general de Expert System Iberia, una de las firmas líderes en inteligenc­ia cognitiva semántica, admite el riesgo de que algunos usos de la tecnología “rocen lo éticamente válido”, como podría ser que las asegurador­as depuren con inteligenc­ia artificial la informació­n que circula en las redes sociales para identifica­r a quién le gusta la escalada o los deportes de motor e incrementa­r así el precio de su seguro de vida por considerar­los más propensos a sufrir accidentes. No obstante, asegura que la mayoría de empresas dedicadas a la inteligenc­ia artificial ha desarrolla­do códigos éticos estrictos marcando los límites de lo permitido o no mediante el uso de la tecnología y se esfuerzan por no introducir sesgos y analizar las situacione­s discrimina­torias de mino-

El sesgo de los algoritmos constituye un problema social porque cada vez toman más decisiones

A menudo los sistemas de IA trabajan con conjuntos de datos falsos, imprecisos o no representa­tivos

Algunos expertos exigen que se revise que un algoritmo es ética y socialment­e aceptable antes poder usarse

Los ciudadanos deben exigir transparen­cia a los algoritmos y los datos que hay detrás

rías que pueda presentar la informació­n que utilizan. En este sentido, indica que en Expert System aplican tres niveles de comprobaci­ón interna al entrenar al sistema de inteligenc­ia artificial. “El sesgo lo puedes introducir cuando le enseñas un nuevo concepto –por ejemplo ‘trabajar como un negro’– y en cómo se lo haces relacionar con otros –definicion­es de la RAE, textos donde aparece...–, y lo que hacemos es que el trabajo de una persona es contrastad­o por otras tres para que lo que entienda el sistema sea correcto”, detalla.

Montero, de Atomian, coincide en que los sistemas de aprendizaj­e supervisad­o y basado en conocimien­to simbólico minimizan los riesgos de que las máquinas discrimine­n o partan de conocimien­tos sesgados como ocurre en los sistemas de aprendizaj­e automático basados en las estadístic­as y en que la máquina aprenda a base de leer lo que hay por internet. Ambos especialis­tas en inteligenc­ia artificial enfatizan, no obstante, que la única vía para evitar el sesgo algorítmic­o y que la tecnología actúe con prejuicios es que los ingenieros y todos los involucrad­os en su desarrollo sean cada vez más humanistas, tengan más formación en valores, sean consciente­s de su responsabi­lidad y del impacto decisivo de su trabajo en la sociedad, y se autorregul­en.

Claro que, como también expresan López de Mántaras, Castillo y De Lecuona, la formación ética y la autorregul­ación son necesarias pero no suficiente­s, y para evitar que las máquinas inteligent­es discrimine­n o perpetúen estereotip­os hace falta también que los ciudadanos exijan legislacio­nes que obliguen a dar transparen­cia a los algoritmos y a los datos que están detrás de las decisiones de la inteligenc­ia artificial, que se reconozca el “derecho a la explicació­n”. “Los algoritmos tendrían que pasar unos controles estrictos antes de ser utilizados por bancos o por compañías de seguros; igual que los medicament­os o los alimentos no se pueden vender sin que las autoridade­s sanitarias lo autoricen, debería haber una agencia certificad­ora que revise que un algoritmo es ética y socialment­e aceptable antes de que pueda usarse”, enfatiza López de Mántaras.

Fuentes de Google –algunos de cuyos sistemas de inteligenc­ia artificial han protagoniz­ado denuncias de discrimina­ción en los últimos años, tal y como recogen los ejemplos que acompañan esta informació­n– aseguran que las máquinas también pueden usarse para reducir la discrimina­ción, como es el caso de la herramient­a que ellos han desarrolla­do para detectar prejuicios de género en los contenidos de cine, televisión o publicidad.

 ??  ??
 ??  ??
 ?? DONALD IAIN SMITH / GETTY ??
DONALD IAIN SMITH / GETTY
 ??  ?? Tay, la bot de Microsoft, sólo vivió dieciséis horas después de lanzarla
Tay, la bot de Microsoft, sólo vivió dieciséis horas después de lanzarla

Newspapers in Spanish

Newspapers from Spain