La evolución enorme e inesperada del big data,
El desarrollo de la recopilación de datos es imparable, las redes sociales detectan tendencias y el intercambio de información genera beneficios para una gran parte del mundo.
Daniel Goldstein es uno de los cerebros que diseñan los cerebros que cambian el mundo. Contra lo que se preveía, no lo están cambiando por su capacidad de computación, sino por la ingente cantidad de datos que suministramos hoy gracias a los sensores y la conexión de todo con todo, a los mismos algoritmos que antaño no lograban que la inteligencia artificial dejara de ser tonta. El inconveniente es que las mayorías generan más datos y por eso los algoritmos les hacen la vida más fácil, mientras que las minorías quedan desasistidas en los programas de reconocimiento de voz y muchos otros.
–La inteligencia artificial dará más poder a todos o sólo a quienes se la puedan permitir?
–La inteligencia artificial (IA) no ha evolucionado tanto como se cree; lo que sí ha progresado de forma inesperada y está cambiando nuestras vidas es la recogida de datos: los big data.
–¿Por qué?
–Porque el mundo se ha llenado de sensores que recogen nuestro modo de actuar y, por tanto, de pensar; nuestros gustos y hasta emociones. Facebook, por ejemplo, es un gigantesco detector de tendencias. Y todo se conecta con todo. –¿Y los sensores no se equivocan? –Reproducen nuestras equivocaciones y aciertos junto con los de todos. –¿Mejora mi vida o la de Zuckerberg y los dueños de las plataformas? –¿Usted transcribe sus entrevistas? –Las grabo y las transcribo, claro. –Eso son muchas horas de trabajo. ¿Y no usa un programa de reconocimiento de voz que transcriba incluso mejor y más rápido que usted?
–Son caros y malos.
–Han mejorado mucho, créame, y este mismo año tendrá alguno muy bueno gracias a esos big data o, si prefiere, a la inteligencia artificial.
–¿Cómo lo conseguirán?
–Todos esos sensores registran el modo en que hablamos y escribimos y proveen de billones de datos a los algoritmos de los programas que reproducen y pueden mejorar cuanto decimos.
–Nadie lo hará mejor que yo.
–Pues sí, ya lo hacen mejor que los humanos.
–Mi inglés tiene acento catalán. –Ese es el gran problema de dar poder que usted me preguntaba al principio. Como tenemos más datos de los hablantes de inglés estadounidense, los programas serán más eficientes en esa lengua y con ese acento y menos con, por ejemplo, su acento local catalán en inglés. –Eso es discriminatorio.
–Es ahí donde la inteligencia artificial se vuelve un asunto político que requiere intervención técnica para evitar las discriminaciones. Los big data, en principio, favorecen a las mayorías. –¿Es grave?
–Ahora mismo los grupos que tienen menos smartphones ya envían menos datos, lo que hace que sean peores los mapas de los sitios donde viven y su registro del tráfico o los servicios. Los barrios con mejores smartphones generan más y mejores datos y tendrán mejores programas para todo.
–¿Los algoritmos discriminan?
–Los algoritmos no son más que recetas: son fórmulas, por eso son más eficaces en la medida en que tienen más datos con los que operar. Con ellos se reconocen caras, formas de hablar y de escribir que nos identifican y podrán proveerle de servicios y ventajas hoy aún inimaginables: la traducción automática va a ser impecable.
–Eso, si mi acento no ha sido marginado.
–Ese es uno de sus problemas éticos. –¿Cómo funcionan los programas? –Imitan al cerebro. Son redes de nódulos con inputs y outputs. Por eso, sólo son inteligentes en la medida en que tengan muchos datos fiables.
–¿Por eso no lo parecían?
–Pero si les mete billones de datos, aprenden y pueden superarnos. He visto competiciones de transcripción en las que nuestras máquinas eran más exactas y rápidas que cualquier humano. –Excepto en acentos minoritarios. –Cierto. Pero eso ya pasaba con la tele, por ejemplo, que ha homogeneizado el modo en que hablamos inglés. Antes era mucho más diverso. Supongo que usted también será capaz de hablar sin acento. Ya lo hacemos todos. Yo intento adaptar mi inglés a cada situación.
–¿Hay más algoritmos injustos?
–Si tomamos decisiones a partir de su información, seguramente marginaremos cada vez más a las minorías. Después, también está el modo en que operan: quién y por qué eligen qué variables deben tener en cuenta.
–¿Cómo saber su modo de operar? –Esa es mi otra especialidad: estudiar cómo evitar los algoritmos opacos y darles transparencia. Un caso crucial es el de los algoritmos que preparamos para interpretar big data y auxiliar a los jueces de vigilancia penitenciaria en si deben o no dar permisos a un preso.
–El preso querrá saber por qué se le niega o da libertad.
–De momento, hemos comprobado que el algoritmo acierta más al predecir las conductas de los presos que el juez. Después hicimos encuestas para ver si el hecho de que fuera transparente le haría ser menos fiable para los ciudadanos. –Supongo que mejor saber cómo deciden.
–Vimos que se respetaba igual las decisiones del algoritmo si se hacían públicas sus variables. En este caso, la variable con más valor predictivo era las veces en que un preso había incumplido sus comparecencias obligatorias.
–Eso es de sentido común.
–Pero hablamos de millones de datos de miles de presos. Y piense las que no deben ser relevantes (etnia, edad, sexo, religión) para nadie. Pues bien, el algoritmo acertó cómo se portaría cada preso más que el juez.
–¿Servirá para auxiliar al juez?
–De momento, sólo es un modelo teórico, pero trabajamos para que llegue a ser una receta simple para decisiones complejas.