La Razón (Madrid) - Innovadores

Auditorías de algoritmos para asegurar la ética de los datos

La española Eticas Consulting desarrolla una metodologí­a para que la transparen­cia o la no discrimina­ción se traduzcan en especifica­ciones técnicas de los desarrollo­s tecnológic­os

- NOELIA HERNÁNDEZ

LaLa inteligenc­ia artificial (IA) está presente en la mayoría de los ám-bitos ám-bitos de nuestra vida. A veces solo de forma rudimentar­ia y otras a través del empleo de técnicas muy sofisticad­as. Para su ejecución se emplean algoritmos que, tras un proceso de aprendizaj­e, ofrecen las claves para la toma de deci-siones deci-siones acerca de qué anuncios nos mues-tra mues-tra una web, si nuestro perfil se ajusta a una oferta de empleo, si cumplimos los requisitos para un préstamo o qué pa-ciente pa-ciente tiene prioridad cuando llega al servicio de urgencias de un centro hos-pitalario. hos-pitalario.

Lo deseable es que los datos que se empleen para esos cálculos sean de cali-dad cali-dad y libres de sesgos. Sin embargo, hay sobradas muestras de que esto no es así, a pesar de las normativas sobre su trata-miento trata-miento y uso aprobadas en los últimos años. Esto ocurre, en parte, porque «la regulación plantea que los algoritmos tienen que ser explicable­s, pero nadie ha determinad­o cuáles son las herramient­as para garantizar­lo», apunta Gemma Gal-don, Gal-don, experta en ética de la tecnología y fundadora de Eticas Consulting, en con-versación con-versación con INNOVADORE­S.

Esta compañía española trabaja desde 2012 en el desarrollo de un servicio de auditoría de algoritmos para identifica­r de qué manera impacta la tecnología en los procesos sociales y comprobar que las garantías legales que ya existen se aplican al mundo digital. «Nuestros clientes nos preguntaba­n cómo podían traducir en especifica­ciones técnicas principios como la equidad y la no discrimina­ción dentro de sus soluciones de IA».

Eticas fue la primera empresa que, junto con la Comisión Europea, incor-poró incor-poró un paquete de trabajo de ética de la tecnología dentro de un gran proyec-to proyec-to de I+D industrial liderado por Indra. «Fuimos pioneros y seguimos siendo, por desgracia, los únicos», afirma Gal-don, Gal-don, quien sostiene que «tendría que emerger ya un ecosistema que consiga hacer lo que hacemos nosotros para sa-car sa-car lo mejor de la técnica y de las ciencias sociales para optimizar el uso de la tec-nología». tec-nología».

Colaboran desde hace dos años con empresas del ámbito privado y público para testear diferentes atributos en siste-mas siste-mas de inteligenc­ia artificial y desarrolla­r su propia metodologí­a. Han aprendido que una auditoría ética ha de pasar por tres fases. Una inicial para entender cómo un desarrolla­dor, organizaci­ón o gobierno gobierno ha convertido un tema social complejo complejo en inputs de datos. «Muchas veces las entidades no utilizan los inputs que necesitan, necesitan, sino los que tienen, generando una mala planificac­ión de ese desarrollo algorítmic­o», algorítmic­o», cuenta la experta.

La segunda fase es puramente técnica para averiguar cómo funciona el algoritmo algoritmo y así «identifica­r cuáles son los grupos grupos vulnerable­s y el impacto sobre ellos». En la tercera, y última etapa, tienen en cuenta cómo se produce la interacció­n entre el resultado algorítmic­o y la aportación aportación humana. «En Europa la ley obliga a que se produzca esa mediación (conocida (conocida como human in the loop) y nos hemos hemos encontrado con decisiones muy disfuncion­ales. Suele concurrir lo peor del sesgo algorítmic­o con lo peor del sesgo humano», explica Galdon.

Entre sus proyectos figura su colaboraci­ón colaboraci­ón con Alpha, la instalació­n para la innovación creada por Telefónica en 2016. Involucrad­os desde el principio en la rama de salud y bienestar, su trabajo fue limitar los datos que recogían, asegurar asegurar que daban lugar a una toma de decisiones decisiones lo más justa posible y que no había riesgos. «Hay que garantizar, por ejemplo, que las patologías médicas de las mujeres, históricam­ente infraestud­iadas e infravalor­adas, infravalor­adas, tienen visibilida­d».

El de género es el sesgo preeminent­e, pero no el único. También los hay de geografía y renta, o de discrimina­ción de personas mayores o modos de vida. En un sistema de reconocimi­ento facial, su auditoría detectó que la falta de datos raciales diversos producía fallos en el entrenamie­nto de la IA elevando la tasa de falsos positivos a más del 30%. «Los algoritmos actuales son de muy mala calidad porque el proveedor no ha tenido tenido en cuenta las particular­idades del colectivo al que van dirigidos», advierte Galdon. «Cuando se emplean para recomendar recomendar un producto, no tiene implicacio­nes implicacio­nes importante­s; pero si se trata del acceso a servicios públicos y sociales, no nos lo podemos permitir».

 ?? DANI BLANCO / ARGIA ?? Gemma Galdon, experta en ética de la tecnología y fundadora de Eticas Consulting.
DANI BLANCO / ARGIA Gemma Galdon, experta en ética de la tecnología y fundadora de Eticas Consulting.

Newspapers in Spanish

Newspapers from Spain