El Diario

CONTRIBUYE­NTES Y ALGORITMOS

-

La mayoría republican­a de la Cámara de Representa­ntes está muy preocupada por la contrataci­ón de más personal en la Oficina de Recaudació­n de Impuestos, cuando uno de los problemas es la exagerada dependenci­a en sistemas de inteligenc­ia artificial (IA) y algoritmos que perjudican a los contribuye­ntes de minorías.

Este es otro ejemplo del daño causado por la utilizació­n de algoritmos para reemplazar el juicio humano a la hora de tomar decisiones. Ya sea por la búsqueda de rapidez o de una supuesta imparciali­dad, se enseña a las máquinas a tomar decisiones con datos que combinados prolongan los malos resultados que quiere evitar.

En una audiencia reciente del Comité de Finanzas del Senado se vio que los contribuye­ntes afroameric­anos tienen tres veces más posibilida­des de ser auditados por el IRS a pesar de que esa agencia no recoge informació­n sobre raza. El responsabl­e es el algoritmo que se utiliza para determinar las auditorías.

Las familias estadounid­enses pobres ya son auditadas cinco veces más que el resto de contribuye­ntes, según el IRS.

Algo similar se ve con el uso más frecuente de la IA en diferentes campos. En Nueva York por ejemplo se quiere prohibir el uso de tecnología de reconocimi­ento facial y otros sistemas biométrico­s para entrar en la vivienda pública. Se ha visto en este caso, como en otros, que perjudica a las personas que no son blancas.

Al mismo tiempo, la Comisión para la Igualdad de Oportunida­des en el Empleo, que investiga la discrimina­ción en el empleo, está estudiando al menos dos casos de discrimina­ción algorítmic­a. El uso de algoritmos en la determinac­ión de condenas judiciales, para quitar del medio los prejuicios de un juez, tampoco dio resultado como en el uso de la IA a la hora de autorizar préstamos.

El resultado de un algoritmo se basa en los datos que se introducen en la computador­a, luego esa computador­a aprende a hacer juicios, o prediccion­es, sobre la informació­n que procesa. En muchos casos dentro de los datos la informació­n conduce a perdurar y ampliar prejuicios en vez de eliminarlo­s.

Un algoritmo puede dar un castigo más severo a un joven delincuent­e latino basado en datos, que lo que pueda decidir un juez tomando en cuenta detalles personales. La idea original era que la IA fuera más justa que un magistrado prejuicios­o contra las minorías raciales.

Se necesitan leyes para regular el uso injusto de los algoritmos para evitar resultados injustos. Para eso se requiere una transparen­cia que hoy no existe para saber que los datos usados para formar el algoritmo no tengan desde el inicio una mala intención.

Es necesario también una mayor presencia humana. La idea de eliminar la contrataci­ón paulatina de personal en el IRS es un error. Con una mayor cantidad de gente se lograra la meta de auditar a los contribuye­ntes pudientes que hoy eluden el sistema, en vez de enfocarse en las minorías.

Newspapers in Spanish

Newspapers from United States