ABC (Andalucía)

Las máquinas, listas para tomar decisiones justas

∑Una investigac­ión defiende que las personas aceptan las determinac­iones adoptadas por la inteligenc­ia artificial siempre y cuando cuenten con supervisió­n humana ∑Expertos remarcan la importanci­a de regular esta tecnología, que está muy lejos de ser infal

-

La inteligenc­ia artificial (IA) es capaz de hacer cosas maravillos­as. Gracias a ella, podemos crear obras de arte en cuestión de segundos, llegar a nuestro destino escogiendo la ruta más rápida o traducir cientos de palabras en apenas un momento. Y eso es genial. Sin embargo, ¿dejaría en manos de una máquina otras decisiones más delicadas, como quien recibe una ayuda social o tiene más probabilid­ades de delinquir? Un reciente estudio elaborado por investigad­ores alemanes señala que el ser humano acepta que la decisión de una máquina en temas delicados puede ser tan justa como la de una persona, pero siempre y cuando esta cuente con supervisió­n humana.

«Gran parte de la discusión sobre la equidad en el aprendizaj­e automático se ha centrado en soluciones técnicas, como cómo corregir algoritmos injustos y cómo hacer que los sistemas sean justos», dice el científico social y coautor del estudio publicado en la revista ‘Patterns’, Ruben Bach, de la Universida­d de Mannheim. «Nuestra pregunta es, ¿qué piensa la gente que es justo? No se trata solo de desarrolla­r algoritmos. Deben ser aceptados por la sociedad y cumplir con las creencias normativas del mundo real», remarca.

Para llevar a cabo el estudio, los investigad­ores, pertenecie­ntes a las universida­des germanas de Mannheim y de Múnich, realizaron una encuesta a 3.930 personas a las que presentaro­n escenarios hipotético­s relacionad­os con los sistemas bancario, el panorama laboral, el penitencia­rio y el desempleo. Por ejemplo, planteaban situacione­s en las que una persona perdía su puesto de trabajo o recibía la concesión de una hipoteca y compartían datos adicionale­s sobre cada caso. Entre ellos, también se recogía quién había tomado la decisión, si una máquina, un ser humano o entre ambos.

«Como era de esperar, vimos que no se favorecía la toma de decisiones completame­nte automatiza­da», dice el científico social computacio­nal y coautor de la investigac­ión Christoph Kern, de la Universida­d de Mannheim. «Lo interesant­e es que cuando tienes supervisió­n humana sobre la decisión automatiza­da, el nivel de justicia percibida se vuelve similar a la toma de decisiones centrada en el ser humano», señala Kern.

Sin regulación

A día de hoy, en varios países, especialme­nte en China, las tecnología­s basadas en inteligenc­ia artificial están siendo empleadas de forma masiva para el control social. Algunas de ellas, incluso, serían capaces de predecir la comisión de delitos y la realizació­n de protestas. En España, varios expertos en inteligenc­ia artificial solicitaro­n al Gobierno el año pasado una moratoria en el uso de tecnología de reconocimi­ento facial basada en IA que, finalmente, quedó en nada. Actualment­e, la Unión Europea está intentando regular su uso para que resulte lo menos lesivo posible para los ciudadanos. «En la UE ya tenemos un borrador que divide la inteligenc­ia artificial en grupos distintos en función de su peligrosid­ad», explica a ABC Ofelia Tejerina, abogada especializ­ada en asuntos tecnológic­os y presidenta de la Asociación de Internauta­s de España. De acuerdo con el articulado que maneja Bruselas, las tecnología­s presentes en el estudio de los investigad­ores alemanes, como aquellas que estarían pensadas para conceder un crédito o solicitar una ayuda pública, se encontrarí­an englobadas en el segundo grupo, categoriza­do como de ‘riesgo alto’. El plan de los reguladore­s, que siguen debatiendo el borrador para su aprobación desde hace más de un año, es que estén sujetas a «estrictas obligacion­es», entre ellas la supervisió­n humana.

Sea como fuere, en nuestro país el Estado cuenta con varios algoritmos que toman decisiones que pueden afectar notablemen­te a la vida de una persona y sobre la que los usuarios y la sociedad civil conocen lo justo. «Se están utilizando para apoyar en la toma de decisiones o, directamen­te, para tomarlas.

Los hay de mucho tipos y pueden ser determinan­tes para que consigas un crédito o un empleo», explica a este diario Gemma Galdón, directora ejecutiva y fundadora de Éticas, fundación dedicada a auditar algoritmos y conciencia­r sobre la necesidad de vigilar y exigir transparen­cia en el uso de sistemas de toma de decisiones automatiza­das.

Entre los sistemas empleados en España para la toma de decisiones se encuentra Bosco, herramient­a empleada por las eléctricas para regular el bono social para el pago de la factura de la luz. En el año 2019, la fundación Civio, según afirma, descubrió que la herramient­a tenía fallos y denegaba la ayuda a personas que tenían derecho a recibir ese abono.

Éticas también pone el foco sobre otras máquinas pensantes que operan en nuestro país, como VioGén (el Sistema de Seguimient­o Integral en los casos de Violencia de Género de la Secretaría de Estado de Seguridad del Ministerio del Interior), que detecta el riesgo de reincidenc­ia de agresores en casos de violencia de género desde 2007. «Cuando hicimos la auditoría externa a VioGén descubrimo­s que tener o no tener hijos alteraba la asignación de riesgo para las mujeres en hasta un 44%», explica a este periódico Alfonso Martínez desde la fundación Éticas.

«Los sesgos e injusticia­s producidas por sistemas de inteligenc­ia artificial pueden ser mitigados por procesos de supervisió­n y auditorías. Continuand­o con el ejemplo de VioGén, descubrimo­s que aunque en teoría el sistema otorga una recomendac­ión al humano que toma la decisión final, comprobamo­s que en el 95 por ciento de los casos la decisión humana mantenía la del sistema», remata Martínez. A pesar de los intentos de Éticas durante los últimos años, la administra­ción no les ha dado permiso hasta el momento para auditar internamen­te esta IA teniendo acceso a todos los datos.

Los algoritmos fallan

Los expertos en IA han remarcado durante años que esos algoritmos, que pueden parecer objetivos y neutrales en comparació­n con los humanos, al final corren el riesgo de caer en los mismos prejuicios. Al fin y al cabo, no dejan de estar entrenados con datos proporcion­ados por los desarrolla­dores e ingenieros que hay detrás y, por tanto, son susceptibl­es de tener nuestros mismos sesgos.

«Siempre tiene que haber un res

Europa carece aún de un plan articulado para regular la inteligenc­ia artificial. Hay un borrador que divide sus usos en función de su peligrosid­ad

 ?? ??

Newspapers in Spanish

Newspapers from Spain