CONTRIBUYENTES Y ALGORITMOS
La mayoría republicana de la Cámara de Representantes está muy preocupada por la contratación de más personal en la Oficina de Recaudación de Impuestos, cuando uno de los problemas es la exagerada dependencia en sistemas de inteligencia artificial (IA) y algoritmos que perjudican a los contribuyentes de minorías.
Este es otro ejemplo del daño causado por la utilización de algoritmos para reemplazar el juicio humano a la hora de tomar decisiones. Ya sea por la búsqueda de rapidez o de una supuesta imparcialidad, se enseña a las máquinas a tomar decisiones con datos que combinados prolongan los malos resultados que quiere evitar.
En una audiencia reciente del Comité de Finanzas del Senado se vio que los contribuyentes afroamericanos tienen tres veces más posibilidades de ser auditados por el IRS a pesar de que esa agencia no recoge información sobre raza. El responsable es el algoritmo que se utiliza para determinar las auditorías.
Las familias estadounidenses pobres ya son auditadas cinco veces más que el resto de contribuyentes, según el IRS.
Algo similar se ve con el uso más frecuente de la IA en diferentes campos. En Nueva York por ejemplo se quiere prohibir el uso de tecnología de reconocimiento facial y otros sistemas biométricos para entrar en la vivienda pública. Se ha visto en este caso, como en otros, que perjudica a las personas que no son blancas.
Al mismo tiempo, la Comisión para la Igualdad de Oportunidades en el Empleo, que investiga la discriminación en el empleo, está estudiando al menos dos casos de discriminación algorítmica. El uso de algoritmos en la determinación de condenas judiciales, para quitar del medio los prejuicios de un juez, tampoco dio resultado como en el uso de la IA a la hora de autorizar préstamos.
El resultado de un algoritmo se basa en los datos que se introducen en la computadora, luego esa computadora aprende a hacer juicios, o predicciones, sobre la información que procesa. En muchos casos dentro de los datos la información conduce a perdurar y ampliar prejuicios en vez de eliminarlos.
Un algoritmo puede dar un castigo más severo a un joven delincuente latino basado en datos, que lo que pueda decidir un juez tomando en cuenta detalles personales. La idea original era que la IA fuera más justa que un magistrado prejuicioso contra las minorías raciales.
Se necesitan leyes para regular el uso injusto de los algoritmos para evitar resultados injustos. Para eso se requiere una transparencia que hoy no existe para saber que los datos usados para formar el algoritmo no tengan desde el inicio una mala intención.
Es necesario también una mayor presencia humana. La idea de eliminar la contratación paulatina de personal en el IRS es un error. Con una mayor cantidad de gente se lograra la meta de auditar a los contribuyentes pudientes que hoy eluden el sistema, en vez de enfocarse en las minorías.