Newsweek Baja California

¿Es posible automatiza­r la toma de decisiones sin discrimina­r?

Algunos sistemas de Inteligenc­ia Artificial presentan sesgos que discrimina­n, y aunque muchas veces no es intenciona­l, se trata de un problema que debe ser atendido.

- POR ANTONIO GARCÍA MACÍAS

HAY UN ADAGIO QUE DEBE CONOCER toda persona que se inicia en la programaci­ón de computador­as: “Si entra basura, sale basura”.

No importa qué tan bien diseñado esté un sistema, si se alimenta con datos erróneos, incompleto­s o sesgados, los resultados reflejarán estas cualidades.

Por ejemplo, hay cámaras fotográfic­as que tienen algoritmos incorporad­os para la detección de rostros y pueden retratar automática­mente cuando todas las personas a cuadro sonríen.

Sin embargo, algunas no funcionaro­n con personas asiáticas, pues detectaron que tenían los ojos cerrados.

Asistentes digitales guiados por voz como Alexa de Amazon o Home de Google, también tienen problemas con ciertos acentos. El problema no radica en los algoritmos de inteligenc­ia artificial (IA), sino en los datos que utilizamos para alimentarl­os.

A un algoritmo de clasificac­ión de imágenes se le podrían mostrar miles o millones de imágenes de bicicletas, para que luego distinga entre una bicicleta y una motociclet­a.

Entre mayor sea la cantidad de imágenes mostradas y la variedad de bicicletas, mejor será el aprendizaj­e para ese algoritmo. Pero si solo se utilizan unas decenas de bicicletas y muy parecidas entre ellas, el algoritmo podría equivocars­e. Desafortun­adamente, si alguien lo desea, puede manipular el entrenamie­nto de los algoritmos con fines políticos, culturales, religiosos, o de cualquier otra índole. Puede ser grave si influyen en procesos de admisión escolar, contrataci­ón laboral, en primas de seguros y otras actividade­s cotidianas.

Esto le sucedió en 2015 a la empresa

Amazon a partir de un sistema que desarrolla­ron para reclutar personal. Notaron que la herramient­a solamente recomendó a hombres para cubrir puestos relacionad­os con el desarrollo de software. La razón fue que el sistema se alimentó con solicitude­s que en su mayoría eran de hombres y aprendió que los mejores perfiles eran los masculinos.

Según voceros de la empresa, este sistema no se usa más en su proceso de reclutamie­nto, pero otras empresas trabajan en el desarrollo de sus propios sistemas de apoyo para la toma de decisiones.

Tal como lo indica Tal Zarsky, profesor en la University of Haifa, la discrimina­ción explícita se da cuando los algoritmos se diseñan para solo considerar a ciertos grupos.

En cambio, la discrimina­ción implícita surge de manera no intenciona­l, pero también se deben tomar medidas para eliminarla o tratar de minimizarl­a.

Ante las situacione­s de injusticia que resultan de los sesgos algorítmic­os, se buscan alternativ­as en la programaci­ón, pero el proceso es complejo.

Para que un sistema informátic­o pueda identifica­r la presencia de un sesgo que genera injusticia, primero debe ser capaz de cuantifica­r estos conceptos.

Se han utilizado métodos estadístic­os pero son insuficien­tes y existen otros enfoques más avanzados, como las medidas basadas en similarida­d y el razonamien­to causal, pero tampoco están libres de la selección subjetiva y limitada de los programado­res. Por otro lado, vale la pena reflexiona­r en que, si bien se están haciendo esfuerzos para tratar de reducir los sesgos algorítmic­os, muchos sistemas que involucran tales algoritmos están siendo utilizados en este momento.

Es decir, actualment­e siguen causando daños mientras se corrigen; puesto de otra forma, la población en general estamos siendo parte de un gran experiment­o y estamos contribuye­ndo a que se mejoren los algoritmos.

No importa qué tan bien diseñado esté un sistema, si se alimenta con datos erróneos, incompleto­s o sesgados, los resultados reflejarán estas cualidades. La población en general estamos siendo parte de un gran experiment­o y estamos contribuye­ndo a que se mejoren los algoritmos.

 ??  ?? SI ALGUIEN LO DESEA, PUEDE MANIPULAR EL ENTRENAMIE­NTO DE LOS ALGORITMOS CON FINES POLÍTICOS, CULTURALES, RELIGIOSOS, O DE CUALQUIER OTRA ÍNDOLE.
SI ALGUIEN LO DESEA, PUEDE MANIPULAR EL ENTRENAMIE­NTO DE LOS ALGORITMOS CON FINES POLÍTICOS, CULTURALES, RELIGIOSOS, O DE CUALQUIER OTRA ÍNDOLE.
 ??  ?? LA DISCRIMINA­CIÓN EXPLÍCITA SE DA CUANDO LOS ALGORITMOS SE DISEÑAN PARA SOLO CONSIDERAR A CIERTOS GRUPOS Y LA IMPLÍCITA
SURGE DE MANERA NO INTENCIONA­L, SE DEBEN TOMAR MEDIDAS PARA ELIMINARLA O MINIMIZARL­A.
LA DISCRIMINA­CIÓN EXPLÍCITA SE DA CUANDO LOS ALGORITMOS SE DISEÑAN PARA SOLO CONSIDERAR A CIERTOS GRUPOS Y LA IMPLÍCITA SURGE DE MANERA NO INTENCIONA­L, SE DEBEN TOMAR MEDIDAS PARA ELIMINARLA O MINIMIZARL­A.

Newspapers in Spanish

Newspapers from Mexico