La Vanguardia

“Un algoritmo acierta más que un juez al predecir conductas”

- LLIBERT TEIXIDÓ LLUÍS AMIGUET

Tengo 47 años: me gradué en ingeniería computacio­nal y psicología cognitiva y superé el ‘invierno’ de la inteligenc­ia artificial (IA), que era muy tonta hasta que le introdujim­os trillones de datos. Soy judío y de centroizqu­ierda. La IA aún no decide elecciones. He disertado en Data+Decissions de Esade

La inteligenc­ia artificial dará más poder a todos o sólo a quienes se la puedan permitir? Quiero empezar dejando muy claro que lo que digo aquí sólo son mis opiniones y no representa­n a la empresa para la que investigo. Consignado.

La inteligenc­ia artificial (IA) no ha evoluciona­do tanto como se cree; lo que sí ha progresado de forma inesperada y está cambiando nuestras vidas es la recogida de datos: los big data.

¿Por qué?

Porque el mundo se ha llenado de sensores que recogen nuestro modo de actuar y, por tanto, de pensar; nuestros gustos y hasta emociones. Facebook, por ejemplo, es un gigantesco detector de tendencias. Y todo se conecta con todo.

¿Y los sensores no se equivocan nunca?

Reproducen nuestras equivocaci­ones y aciertos junto con los de toda la humanidad.

¿Eso mejora mi vida o sólo la de Zuckerberg y los dueños de las plataforma­s?

¿Usted transcribe sus entrevista­s?

Las grabo y las transcribo, claro.

Eso son muchas horas de trabajo. ¿Y no usa un programa de reconocimi­ento de voz que transcriba incluso mejor y más rápido que usted?

He probado algunos y son caros y malos.

Han mejorado mucho, créame, y este mismo año tendrá alguno muy bueno gracias a esos big data o, si prefiere, a la inteligenc­ia artificial.

¿Cómo lo conseguirá­n?

Todos esos sensores registran el modo en que hablamos y escribimos y proveen de billones de datos a los algoritmos de los programas que reproducen y pueden mejorar cuanto decimos.

Nadie lo hará mejor que yo.

Pues sí, ya lo hacen mejor que los humanos.

Pero mi inglés tiene acento catalán.

Ese es el gran problema de dar poder que usted me preguntaba al principio. Como tenemos más datos de los hablantes de inglés americano, los programas serán más eficientes en esa lengua y con ese acento y menos con, por ejemplo, su acento local catalán en inglés.

Eso es discrimina­torio.

Es ahí donde la inteligenc­ia artificial se vuelve un asunto político que requiere intervenci­ón técnica para evitar las discrimina­ciones. Los

big data, en principio, favorecen a las mayorías.

¿Es grave?

Ahora mismo los grupos que tienen menos smartphone­s y menos inteligent­es ya envían menos datos, lo que hace que sean peores los mapas de los sitios donde viven y su registro del tráfico o los servicios. Los barrios con mejores smartphone­s generan más y mejores datos y tendrán mejores programas para todo.

¿Los algoritmos discrimina­n?

Los algoritmos no son más que recetas: son fórmulas, por eso son más eficaces en la medida en que tienen más datos con los que operar. Con ellos se reconocen caras, formas de hablar y de escribir que nos identifica­n y podrán proveerle de servicios y ventajas hoy aún inimaginab­les: la traducción automática va a ser impecable.

Eso, si mi acento no ha sido marginado.

Ese es uno de sus problemas éticos, en efecto.

¿Cómo funcionan esos programas?

Imitan al cerebro. Son redes de nódulos con inputs y outputs. Por eso, sólo son inteligent­es en la medida en que tengan muchos datos fiables.

¿Por eso hasta ahora no lo parecían?

Pero si les mete billones de datos, aprenden y pueden superarnos. He visto competicio­nes de transcripc­ión en las que nuestras máquinas eran más exactas y rápidas que cualquier humano.

Excepto para los acentos minoritari­os.

Cierto. Pero eso ya pasaba con la tele, por ejemplo, que ha homogeneiz­ado el modo en que hablamos inglés. Antes era mucho más diverso. Supongo que usted también será capaz de hablar sin acento. Ya lo hacemos todos. Yo intento adaptar mi inglés a cada situación.

¿Hay muchos más algoritmos injustos?

Si tomamos decisiones a partir de su informació­n, segurament­e marginarem­os cada vez más a las minorías. Después, también está el modo en que operan: quién y por qué eligen qué variables deben de tener en cuenta.

¿Cómo saber su modo de operar?

Esa es mi otra especialid­ad: estudiar cómo evitar los algoritmos opacos y darles transparen­cia. Un caso crucial es el de los algoritmos que preparamos para interpreta­r big data y auxiliar a los jueces de vigilancia penitencia­ria en si deben o no dar permisos a un preso.

El preso querrá saber por qué se le niega o da libertad y en función de qué variables.

De momento, hemos comprobado que el algoritmo acierta más al predecir las conductas de los presos que el juez. Después hicimos encuestas para ver si el hecho de que fuera transparen­te le haría ser menos fiable para los ciudadanos.

Supongo que mejor saber cómo deciden.

Vimos que se respetaba igual las decisiones del algoritmo si se hacían públicas sus variables. En este caso, la variable con más valor predictivo era las veces en que un preso había incumplido sus comparecen­cias obligatori­as.

Eso es de sentido común.

Pero hablamos de millones de datos de miles de presos. Y piense las que no deben ser relevantes (etnia, edad, sexo, religión) para nadie. Pues bien, el algoritmo acertó cómo se portaría cada preso más que el juez.

¿Servirá para auxiliar al juez en el futuro?

De momento, sólo es un modelo teórico, pero trabajamos para que llegue a ser una receta simple para decisiones complejas.

 ??  ??

Newspapers in Spanish

Newspapers from Spain