La Vanguardia (1ª edición)

“Enseñamos al lavaplatos a ver y saber si la vajilla está sucia”

La inteligenc­ia es perspectiv­a que crece con los años y ya tengo 44. Nací en Madrid, pero estudié en la UPC. Investigo en el Centro de Inteligenc­ia Artificial del MIT. Creo en la ciencia, que también es espíritu. Diserto en el XX Aniversari del Centre de

- LLUÍS AMIGUET

Siempre me interesó la inteligenc­ia artificial y uno de sus grandes retos es la visión: cómo lograr que las máquinas –robots, coches, ordenadore­s– vean y sean capaces de reconocer lo que ven.

No parece tan difícil. Eso decían los amigos y mucha gente. A ellos les parecía tan natural ver que les costaba pensar que un ordenador no pudiera.

Se le pone una cámara y ya está... ¿no? Es una pregunta algo ingenua, pero también lo fue la planificac­ión de los investigad­ores del MIT en 1966, que planearon solucionar el problema del reconocimi­ento de imágenes en apenas tres meses.

Veo que solucionar­lo ya cuesta 50 años. Ha sido una larga historia: en los setenta y ochenta las memorias de ordenador apenas tenían capacidad para almacenar imágenes. Era alquimia más que química. En los noventa su memoria te permitía ensayar algún tipo de reconocimi­ento visual por ordenador, pero sin grandes resultados hasta que hace 15 años las cosas mejoraron mucho.

Mi cámara de fotos ya reconocía caras. Porque lo primero que los ordenadore­s aprendiero­n a reconocer fueron rostros humanos, como hacía su cámara. Hoy Google StreetView reconoce miles de caras en fotos de todo el planeta en segundos y las torna inmediatam­ente irreconoci­bles...

Para evitar que les demanden. Es el tipo de reconocimi­ento visual que queremos que logren los ordenadore­s y no sólo para distinguir caras, sino todos los objetos.

Pues adelante. Sigue sin ser fácil. Para que el ordenador pueda reconocer la realidad, antes hay que haberla convertida en datos que pueda procesar: hay que medir todo cuanto queremos que pueda ver para poder almacenarl­o en su memoria como trillones de píxeles.

Medir el mundo es una misión titánica. Que empieza a ser posible a medida que mejora nuestra capacidad de captar, almacenar y procesar infinidad de datos. Es el big data de la inteligenc­ia artificial.

Últimament­e todos mis entrevista­dos acaban citando esas palabritas. Porque es la última frontera tecnológic­a también en inteligenc­ia artificial. Antes de que los procesador­es multiplica­ran su capacidad y de que refináramo­s –que es igual de necesario– los algoritmos de interpreta­ción, para enseñar a los ordenadore­s a ver sólo teníamos bases de datos muy limitadas . Al ¿Cómo principio, les con enseñaban? imágenes muy simples y precisas: estereotip­os sobre fondos inequívoco­s. La primera base de datos con imágenes para ordenadore­s sólo tenía una cara: Lena. Era una chica muy admirada, porque los investigad­ores llegamos a aprenderno­s sus píxeles casi de memoria.Las Supongo actuales que bases hoy de datos tendrán ofrecen alguna millonesmá­s. de imágenes Imagenet, reconocibl­espor ejemplo, para almacenalo­s ordenadore­s.más de 80 millones.ir aumentándo­los.Places es otra maravilla. Pero hay que

Tenemos ¿Quién introduce colaborado­res, todas algunosesa­s imágenes? remunerado­s imágenesa céntimospa­ra por que tarea, puedan que ser van memorizada­s, etiquetand­o almacenada­s ¿Becarios? y ¿Estudiante­s?procesadas. Mi paper madre, sobre por su ejemplo, experienci­aha escrito etiquetado­rahasta un de imágenes ¿Cuándo para podrá bases un de ordenadord­atos icónicas. reconocer tantas imágenes como los humanos? Yo calculo que en unos cinco años. Las nuevas arquitectu­ras de ordenador y, en especial, las redes neuronales nos permiten un salto gigantesco en robótica y en esos famosos coches inteligent­es, que ya ven y reconocen imágenes para poder conducir solos.

¿Cómo ve un coche sin conductor? Se trata de que opere en un entorno cerrado y siempre predecible. El problema se plantea cuando deja de serlo.

¿Cuando se cuela un gato en la ruta? El desafío está en haber previsto lo imprevisto y que lo vea, lo reconozca y actúe.

¿Cómo logran saber mi cámara que enfoco una cara y no la pared? Se trata de deconstrui­r un problema complejo en multitud de opciones binarias: sí o no. Se descompone­n las imágenes en píxels, en cuadradito­s, y el ordenador analiza sólo un fragmento, por ejemplo, de 30/30 píxels.

¿Y sólo con eso ya sabe si es un rostro? El procesador va diciendo por exclusión sí o no ante cada píxel, porque todas las caras humanas coinciden en algunos. Y si la imagen no sigue ese patrón, no es una cara.

¿Hasta dónde llegarán por ese camino? Ahora mismo se me ocurre algo muy elemental, pero también muy práctico...

¿La guerra de las galaxias? ¿Visión nocturna para evitar robos? Enseñar al lavaplatos a ver y reconocer si la vajilla está sucia y lavar en consecuenc­ia.

Pues ya haría más que yo muchos días. De eso se trata. De enseñar a las máquinas para que un día nos enseñen a nosotros.

Muy ambicioso me parece. Trasel ya momentose muchospued­e y de nosotrosañ­os pensarde pasitosa y lo los grande, ordenadore­scortos créame.ha llegadolo Hoyvamos a ver pronto.

 ?? XAVIER CERVERA ??
XAVIER CERVERA
 ?? VÍCTOR-M. AMELA
IMA SANCHÍS
LLUÍS AMIGUET ??
VÍCTOR-M. AMELA IMA SANCHÍS LLUÍS AMIGUET

Newspapers in Spanish

Newspapers from Spain