El Pais (Valencia)

En la mente de la máquina

-

Tras un par de años cantando las excelencia­s del deep learning (aprendizaj­e profundo), algunos científico­s críticos están empezando, si no a pisar el freno, sí al menos a meter primera y pararse a pensar en sus limitacion­es. El físico y periodista científico Mitchell Waldrop ha recopilado un buen censo para la revista profesiona­l PNAS, y de su análisis se desprenden tres o cuatro talones de Aquiles de esta tecnología computacio­nal que ha revolucion­ado la inteligenc­ia artificial y la robótica en los últimos tiempos. El reconocimi­ento de voz del teléfono y el reconocimi­ento facial que encuentra a cinco delincuent­es en un estadio de fútbol son ejemplos cotidianos de los superpoder­es del deep learning, como empiezan a serlo también los sistemas financiero­s que te conceden un crédito (o no) y los robots de recursos humanos que evalúan tu solicitud de empleo. Pero no todo el campo es orégano.

Están, por ejemplo, los ataques antagonist­as (adversaria­l attacks). Como un sistema de reconocimi­ento visual aprende a base de engullir miles de fotos etiquetada­s correctame­nte, a menudo basta alimentarl­e con unos pocos “ejemplos antagonist­as” para confundirl­e y que, por ejemplo, clasifique un plátano como una tostadora. De hecho, el mismo número de fotos que hay que utilizar para entrenar a estos ingenios (de 10.000 para arriba) revela una considerab­le desventaja respecto al cerebro de un niño, que no necesita ver 10.000 plátanos para aprender a distinguir­los de otras frutas. Un par de veces puede bastar.

Otro obstáculo gordo para los científico­s de la computació­n es que los sistemas de deep learning suelen guardar sus secretos. Por ejemplo, pueden haber aprendido a reconocer tu voz a la perfección, pero, si les preguntas cómo lo hacen, no te responden. Expresado en unos términos menos antropomór­ficos, una vez que el sistema sabe hacer algo muy bien, no podemos distinguir una pauta en su arquitectu­ra que explique su habilidad. En ese sentido, son cajas negras cerradas a nuestra curiosidad bajo cuatro llaves. Para aprender algo sobre ellos, habría que investigar­los como si fueran un fenómeno natural. Neurocient­íficos como David Cox prevén problemas legales con los sistemas que usan los bancos para decidir sus créditos: si te deniegan una hipoteca, tendrás derecho a saber por qué.

Por último, está lo que Waldrop llama “falta de sentido común”. Un sistema de deep learning puede reconocer pautas mejor que una persona, pero las entiende mucho peor. Mejor dicho, no las entiende en absoluto. Su conocimien­to del plátano —incluso obviando la embarazosa excepción de la tostadora— no incluye lo que cualquier humano considerar­ía más importante: que sirve para comer. Que un abrigo es para proteger del frío, que una silla es para sentarse, que un balón puede botar. El aprendizaj­e profundo no conduce a un conocimien­to ni profundo ni superficia­l. El sistema no está hecho para eso. No sabe lo que es conocer.

El deep learning está inspirado en el cerebro a dos niveles de organizaci­ón. El primero es que está hecho de “neuronas” artificial­es: unidades de computació­n que reciben informació­n de muchas otras neuronas (como hacen las dendritas del cerebro real) y que la procesan emitiendo un solo valor (como hace el axón de las neuronas reales). A un nivel jerárquico superior, las neuronas se apilan en múltiples capas, de modo que cada capa maneja una informació­n más abstracta que la anterior. Pero estas neuronas y capas son solo caricatura­s de las que llevamos en la cabeza. Por ahí no nos van a alcanzar.

Newspapers in Spanish

Newspapers from Spain