Inteligencias artificiales que nos enseñan a soñar
Una nueva hipótesis plantea una relación entre el sueño y la capacidad de generalizar lo que aprendemos durante el día, la clave podría estar en la IA
Al hablar de inteligencias artificiales nos referimos, realmente, a números y operaciones. Líneas de código de ordenador desposeídas de toda voluntad o autoconciencia, pero que no solo simulan cierto tipo de inteligencia, sino que suelen ser capaces de adaptarse a nueva información, de aprender. En esto se parecen bastante a nuestro cerebro, no en vano las primeras redes neuronales se inspiraron en el funcionamiento de nuestro cerebro. Con el tiempo, la inteligencia artificial ha ido divergiendo, optimizándose para propósitos tecnológicos que distan mucho de lo que nuestro cerebro pretende hacer. No obstante, una parte del campo ha permanecido fiel a sus orígenes inspirados en lo biológico para, así, poder emplear esta poderosa tecnología para ahondar en el estudio del cerebro. Y eso es lo que está ocurriendo con el estudio de los sueños.
Simulaciones de doble filo
La idea es muy tentadora: utilizar redes neuronales artificiales para simular funciones cerebrales muy concretas en un ordenador y así estudiarlas desde una nueva perspectiva. Por desgracia, no debemos de olvidar que, en el fondo, son modelos sumamente simplificados y han de valer como brújula para orientarnos en lo desconocido, pero no como mapa detallado de la realidad.
Sabemos bien que dormir es fundamental y que contribuye a la reparación de los tejidos y a la consolidación de memorias. Sin embargo, soñar no es lo mismo que dormir. Precisamente por eso y por su naturaleza esquiva, los sueños han inspirado todo tipo de explicaciones más especulativas que científicas. Unas de las más populares vienen de la escuela psicoanalítica. Todavía en nuestro tiempo se extiende el mito de que los sueños tienen por función ayudarnos a lidiar con nuestras emociones y exteriorizar sentimientos reprimidos a saber dónde. Claro que, si abandonamos estas fantasías freudianas tendremos que enfrentarnos a la dura realidad de que no tenemos una hipótesis hegemónica sobre la funcionalidad de los sueños en sí mismos. Habremos por lo tanto de suspender nuestro juicio y escuchar lo que diferentes estudios tengan que decirnos, ya sea afirmando que carecen de función alguna, que permiten anticiparse a las experiencias o que son la clave para generalizar lo que aprendemos.
Johan F. Storm se abrió camino a los titulares de medio mundo hace apenas unos meses. Sus investigaciones apuntaban en una interesante dirección. Los sueños, después de todo, podrían no tener un propósito claro como tal. Según sus interpretaciones más radicales, estos serían una suerte de alucinaciones que emergieron como algo colateral a la propia estructura y actividad de nuestro cerebro. Un tema diferente sería si, a pesar de su origen fortuito, los sueños tuvieran algo que ver con nuestra capacidad de imaginación.
Lo que Storm estaba planteando era, básicamente, que cuando el cerebro está dormido, deja de introducir estímulos del mundo exterior y las neuronas cambian su actividad. Cuando vemos algo, se activan unas estructuras concretas de nuestro cerebro, cuando lo recordamos se activan prácticamente las mismas, por lo que, en privación del estímulo, podríamos esperar que la actividad propia de nuestras redes neuronales (que apagarse no se apagan) acabaran activando estructuras donde donde hay almacenados recuerdos, evocándolos con una viveza similar a la que tendríamos si los estuviéramos viendo.
Es más, sabemos desde hace tiempo que, en un entorno de privación sensorial (con los ojos tapados, los oídos taponados y en sensación de ingravidez), emergen alucinaciones bastante vívidas. Sin embargo, la propuesta de Storm se fundamentaba en sus experiencias con las unas redes neuronales de la inteligencia artificial, las cuales, presentaban actividad interna extraña ante la privación de estímulos, un equivalente a esas alucinaciones que el experto terminó asociando tentativamente a nuestros sueños.
Si esto fuera podo podríamos darnos por satisfechos. Sin embargo, como ya anticipábamos antes, existen otras hipótesis igualmente plausibles y que cuentan con la misma naturaleza especulativa. Uno de los ejemplos más clásicos es el de nuestra capacidad para imaginar situaciones y practicar nuestra reacción antes de enfrentarnos realmente a un problema. Así es como podemos visualizar la forma en que esquivaremos un obstáculo antes de esquivarlo realmente, o la capacidad de plantera un horario realista que organice nuestras tareas durante un día.
En cierto modo, hay redes neuronales que nos permiten enfrentar así los problemas, simulando situaciones y afinando nuestra respuesta mediante los llamados algoritmos evolutivos. Existen por lo tanto hipótesis que plantean un funcionamiento análogo de nuestro cerebro durante el sueño, produciendo variaciones aleatorias de sucesos triviales para facilitar nuestra capacidad de reaccionar a ellos. Una explicación más que, por ahora, no ha sido demostrada más allá de su plausibilidad teórica. Entre contemplarla y aceptarla como cierta existe un gran abismo que debemos tener presente antes de sacar conclusiones.
Finalmente, llegamos a una tercera hipótesis que, a decir verdad, acaba de ver la luz. Esta es, posiblemente la que más se apoya en conceptos de inteligencia artificial y, por lo tanto, la más extraña. Para compensarlo, Erik Hoel ha hecho algunas demostraciones puramente teóricas y planteado algunos posibles experimentos empíricos que ayudarían a reforzar su hipótesis. Lo que él plantea es que gracias a los sueños somos capaces de generalizar aquello que hemos aprendido durante el día. Cuando una inteligencia artificial aprende lo que está haciendo realmente es adaptarse a una serie de situaciones similares a las que le presentamos durante su entrenamiento. Si estas situaciones son todas muy parecidas entre sí, esta se optimizará tanto para este cometido específico que será poco tolerante a variaciones en el problema, como un niño que, en lugar de aprender a razonar los problemas matemáticos, aprende la fórmula que siempre utiliza el profesor en sus exámenes.
Aprendizaje por sobreajuste
Esto es lo que se llama sobreajuste ( del inglés «overfitting») y una forma de evitarlo es introducir ruido (aleatoriedad) en los datos, para no malacostumbrar a las redes neuronales. Pues, bien, la propuesta de Hoel es similar. Plantea que nuestro cerebro generaliza durante la noche lo que aprende durante el día, mediante la introducción de aleatoriedad en esos recuerdos, lo cual se nos presentaría como sueños, realidad distorsionada hasta darle ese toque onírico e incoherente que suele tener.
En la actualidad, estamos viviendo una explosión en este campo y cada paso se traduce en metafóricos kilómetros que avanza la comunidad científica. Por ahora, tenemos grandísimas limitaciones, técnicas y éticas, que complican nuestro propósito de extraer conclusiones firmes del maridaje entre la neurociencia y la inteligencia artificial. Claro que, eso es lo que podemos esperar de una disciplina que está naciendo todavía. Harán falta algunos años más para afinar todas las respuestas, pero mientras tanto, tenemos modelos interesantes que nos permitirán intuir para qué soñamos exactamente, y así, comprender a qué debemos aspirar.