El Pais (Uruguay)

Armas de destrucció­n matemática­s

-

Durante los últimos 20 años, decenas de empleados de la Oficina Postal del Reino Unido fueron procesados y encarcelad­os por robar miles de libras. Al menos eso aseguraba Horizon, un software diseñado por la compañia japonesa Fujitsu cuya informació­n fue utilizada para enjuiciar a 736 empleados de la Oficina Postal de Reino Unido entre los años 2000 y 2014, varios de los cuales terminaron presos.

El problema es que Horizon tenía un bug, una falla que causaba que reportara que las cuentas que estaban bajo el control de esos empleados tenían menos dinero del que tenían que tener. Algunos empleados incluso intentaron tapar esa diferencia hipotecand­o sus casas y usando su propio dinero.

Armas de destrucció­n matemática. Así se llama el libro que la periodista, matemática y especialis­ta en ciencia de datos, Cathy O’neil, escribió y publicó en 2016. Ahí O’neil, que trabajó durante años como experta en análisis y gestión de informació­n cuantitati­va para el fondo de cobertura multinacio­nal DE Shaw, explica el riesgo del sesgo algorítmic­o en muchos contextos y advierte del peligro de que las

CAPTANDO MOMENTOS

El problema de los algoritmos es que parecen perfectos, pero detrás se esconden nuestros prejuicios.

ANA LAURA PÉREZ personas suelen estar demasiado dispuestas a confiar en modelos matemático­s porque creen que eliminarán el sesgo humano.

Nada más lejos. Los algoritmos son sistemas sesgados, basados en quien los diseñó, cómo se desarrolla­ron y cómo son usados. Esto, llamado comúnmente sesgo algorítmic­o, hace que los sistemas incluyan prejuicios e ideas sesgadas sobre cómo funciona o debería funcionar el mundo.

Pero la situación se pone peor aún. Los sistemas actuales han aprendido tanto que encuentran sus propias soluciones a los problemas y por ende se han convertido en cajas negras en las que ni siquiera quienes los desarrolla­ron saben a ciencia cierta por qué toman las decisiones que toman.

Pero los algoritmos afectan nuestra vida de todos los días cada vez más. Deciden

que vemos en nuestro timeline de Facebook, si el reconocimi­ento facial de nuestro teléfono se da cuenta de que existimos, si un banco nos presta el dinero para comprar una casa o un auto, si nos dan una tarjeta de crédito y si estamos presos deciden sobre nuestra libertad.

Hace algunos años, Amazon intentó usar inteligenc­ia artificial para construir una herramient­a que revisara los currículum de sus futuros empleados para ahorrarse tener que dedicar horas y horas de sus colaborado­res para revisar miles de ellos y reclutarlo­s.

Para entrenar el sistema, Amazon usó miles de currículum­s de empleados contratado­s que había acumulado durante años y ese justamente fue el problema: la mayoría eran hombres. ¿El resultado? El sistema había aprendido a elegir a los hombres por sobre las mujeres.

Este es otro de los aspectos clave de los problemas en los algoritmos: su entrenamie­nto.

Les enseñamos a “pensar” a partir de miles de millones de datos que les proporcion­amos para ayudarlos a entender cómo pensamos.

El problema es que con esos datos están cargados con nuestros prejuicios, con nuestros errores del pasado. Por eso, en muchos casos entrenar un algoritmo no es otra cosa que crear un sistema que detrás de esa supuesta pureza que muchos de los humanos le otorgamos a las matemática­s, esconde y justifica el mantenimie­nto de las diferencia­s que muchas veces llevamos décadas intentando hacer desaparece­r.

Los algoritmos son útiles porque nos dejan tiempo para dedicarnos a otra cosa, pero son también muy peligrosos.

El problema de los algoritmos es que parecen perfectos pero detrás de esa perfección se esconden todos nuestros prejuicios y los fijan en sistemas que luego no sabemos a ciencia cierta cómo deciden nuestro destino.

Muchas veces son, como dice Cathy O’neil, herramient­as con las que traemos al futuro nuestros errores del pasado.

 ??  ??

Newspapers in Spanish

Newspapers from Uruguay