ABC - Alfa y Omega

«Un algoritmo puede acabar aprendiend­o patrones que no son aceptables»

Gemma Galdón, fundadora de Eticas Consulting, advierte de que los desarrollo­s más complejos pueden aprender «patrones que no son aceptables» y apuesta por someterlos a auditorías permanente­s

- Rodrigo Pinedo Madrid

La luz de alarma se encendió en 2018. A personas vulnerable­s que en teoría tenían derecho a percibir el bono social eléctrico se les empezó a denegar sin más explicació­n. La clave parecía estar en que la asignación «ya no la hacía un funcionari­o que revisaba la documentac­ión», sino que «se había adquirido un software para hacerlo de forma automática», tal y como explica Gemma Galdón, fundadora de Eticas Consulting y experta en auditoría de algoritmos.

A fin de «identifica­r dónde estaba el error y por qué se estaba dejando fuera a gente que cumplía todos los requisitos», varias entidades –con la fundación Civio a la cabeza– pidieron al Gobierno que facilitara el código fuente esgrimiend­o la Ley de Transparen­cia. El Ejecutivo «se escudó en la protección de la propiedad intelectua­l» para no darlo «ni explicar si se había auditado para subsanar errores», prosigue Galdón, y el tema se encuentra ahora en los tribunales. «Se confía tanto en la tecnología que nadie se pregunta ¿y si el algoritmo se equivoca? Si está ma l progra mado, ¿cómo pueden quejarse las personas afectadas y que un humano revise la decisión?», plantea. La fundadora de Eticas, que hizo su tesis de «por qué y cómo se tomaban las decisiones sobre qué tecnología­s incorporar a lo público», subraya que los ser vicios sociales están automatiza­ndo decisiones «muchas veces sencillas» –como «si has aportado los documentos A, B y C»– y que, cuando fallan, puede ser por un error humano de programaci­ón. Pero al mismo tiempo advierte de que en otros casos, como podría ser el del bono social eléctrico, hay «algoritmos más complejos» que van aprendiend­o y pueden acabar discrimina­ndo. «Si a las personas de tal barrio se les va denegando el bono, el algoritmo identifica un patrón y va a denegar a quien venga de ahí la ayuda en un mayor número de ocasiones que a los de otro barrio», asevera.

Las bases de esta discrimina­ción pueden deberse a «errores de diseño» y a emplear datos que no responden al «objetivo que tú tienes». Un ejemplo de ello –según relata Galdón– es el de una asegurador­a de Estados Unidos que tenía un hospital y usaba un algoritmo para «decidir a quién se atendía antes»: «Al auditarlo se descubrió que, como los datos que tenía la asegurador­a eran económicos, estaba priorizand­o a las personas por potencial gasto, no por la urgencia de la atención médica».

Más reciente es la polémica en el hospital de Stanford, donde confiaron el diseño de la campaña de vacunación frente a la COVID-19 a la inteligenc­ia artificial. Uno de los datos recabados era el lugar de trabajo; los residentes que actúan en primera línea contra la pandemia se quedaron al final de la lista, incluso por detrás de personal de atención telefónica, dado que se encuentran en formación y no tienen un puesto asignado.

Estas situacione­s van a producirse cada vez más a menudo porque se están fiando muchas decisiones a este tipo de soluciones informátic­as. Y aunque Galdón cree que la legislació­n europea de protección de datos es garantista y adecuada, aboga por estar alerta especialme­nte con desarrollo­s que afectan a derechos y libertades fundamenta­les como, por ejemplo, los relativos al control fronterizo. Según remarca, se plantea la «recogida sistemátic­a de datos biométrico­s de las personas que quieren entrar en Europa» y «si no haces una buena gestión de esos datos me puedes generar un daño para siempre», porque «una contraseña o un número de DNI me lo puedo cambiar, pero mi cara o mis dedos no los puedo cambiar».

Para evitar que surjan todos estos problemas, la fundadora de Eticas sostiene que «lo ideal es programar una auditoría desde el principio», que lo primero que hace es «trabajar conjuntame­nte con todos los equipos para diseñar ese proceso de datos» y después «de forma periódica va asegurando que el algoritmo no aprenda cosas negativas». «Tú puedes tener un algoritmo perfecto de partida, pero, si después va aprendiend­o a revulnerab­ilizar a colectivos vulnerable­s, tienes que volver a entrar e intervenir. Con el algoritmo no se acaba nunca el proceso de revisión –concluye– porque el algoritmo siempre puede acabar aprendiend­o patrones que no son aceptables».

 ??  ??
 ?? DANI BLANCO / ARGIA ?? 0 Galdón incide en la importanci­a de fijar bien qué datos se recopilan.
DANI BLANCO / ARGIA 0 Galdón incide en la importanci­a de fijar bien qué datos se recopilan.

Newspapers in Spanish

Newspapers from Spain