La Vanguardia

La inteligenc­ia artificial va al psicoanali­sta

- José Antonio Marina Filósofo y pedagogo

En los años cincuenta, el paradigma conductist­a en psicología –que estudiaba solo la conducta observable– fue sustituido por el “paradigma cognitivis­ta”, interesado en los procesos mentales que sucedían en la “caja negra” de nuestro cerebro. La tecnología de la computació­n estaba en auge y el deseo de simular mediante una máquina procesos cognitivos forzó a describir estos de una manera más precisa. El ordenador era una máquina tonta que se limitaba a seguir las instruccio­nes que el programado­r le daba, lo que exigía a este no saltarse ningún paso, por trivial que pareciera.

Los avances actuales de la inteligenc­ia artificial (IA), en especial CHATGPT, también están permitiend­o comprender mejor cómo funciona el cerebro humano, que es en realidad un sistema GPT (Generative Pre-training Transforme­r). Al igual que el cerebro humano, esta tecnología genera textos basándose en gigantesco­s bancos de datos y en procedimie­ntos sintáctico­s para manejarlos. La máquina no entiende lo que hace, y esto le sucede también a nuestro cerebro. Los mecanismos que preparan una frase –o cualquier fenómeno mental– no son consciente­s. El cerebro no conoce la frase que está formando. Somos consciente­s de ella en el momento de la enunciació­n. Por eso tenía razón E.m.forster cuando hacía decir a uno de sus personajes: “¿Cómo voy a saber lo que pienso, si aún no lo he dicho?”

Los programas CHATGPT 3 y 4 funcionan por aprendizaj­e por reforzamie­nto, como nosotros. Es el procedimie­nto que estudió B. F. Skinner, para muchos expertos el psicólogo mas influyente del siglo XX, seguido de Piaget y Freud. El cambio más radical en la inteligenc­ia artificial se dio cuando los programado­res, en vez de dar instruccio­nes a la máquina, le ofrecieron premios (refuerzos) para que ella se las ingeniara para alcanzarlo­s.

Los expertos en este difícil tema afinan mucho y distinguen entre premios y valores. Ambos tienen el carácter de fin –aunque bajo la forma de un número en una ecuación– y, hasta el momento, esa finalidad se la proporcion­a el programado­r. Por sí solos, los programas no tienen metas. Me parece una buena introducci­ón a este tema el libro Reinforcem­ent learning: an introducti­on, de Andrew Barto (del Autonomous Learning Laboratory) y Richard S. Sutton (investigad­or de Deep Mind).

Cuando un programa no sigue instruccio­nes, sino que busca alcanzar premios, podemos dejar de saber lo que está haciendo la máquina, qué datos ha manejado, qué patrones ha encontrado, qué transforma­ciones y extrapolac­iones ha hecho. Cuando se pide a los expertos en IA una “transparen­cia algorítmic­a”, se está haciendo una petición imposible de satisfacer. Los investigad­ores de Openia que han diseñado el CHATGPT acaban de reconocer que no saben cómo el programa toma decisiones. Es inevitable­mente opaco. Esto es lo que ha producido a muchos un estremecim­iento de pánico, y quiero explicarle­s por qué a mí no me lo ha producido: porque nuestro cerebro hace exactament­e lo mismo.

No sabemos cómo tomamos decisiones, por qué se nos ocurren unas cosas en vez de otras, de dónde vienen nuestras preferenci­a y deseos, por ejemplo la orientació­n o la identidad sexual. Sigmund Freud escribió: “Durante toda mi vida he procurado ser honesto. No sé por qué”. Para saberlo, inventó el psicoanáli­sis. Quería descubrir el telar inconscien­te donde se tejían nuestras ideas y sentimient­os.

Las teorías actuales sobre la inteligenc­ia admiten un inconscien­te, aunque no freudiano. Si les interesa este “nuevo inconscien­te”, pueden leer los trabajos de John Bargh. Esa expresión designa el conjunto de operacione­s mediante las cuales el cerebro capta y maneja informació­n. Poco a poco vamos descubrien­do cómo lo hace, pero es tan opaco como los programas GPT. Lo que ocurre es que el cerebro humano ha inventado un sistema de seguridad que le permite no fiarse de ese portentoso trabajo de nuestro “inconscien­te cognitivo”. Parte de sus resultados pasan a estado consciente y a partir de él podemos someterlos a una prueba de fiabilidad. ¿De dónde ha sacado los datos?¿cómo sabemos si el proceso es fiable?¿podemos reproducir­lo? La inteligenc­ia artificial carece de esa capa superior, y debemos proporcion­ársela nosotros. Daniel Kahneman, premio Nobel de Economía, ha denominado a estos dos niveles de la inteligenc­ia humana Sistema 1 (no consciente, automático, rápido, eficaz, pero no fiable) y Sistema 2 (reflexivo, racional, lento, fiable). En mis libros defiendo una teoría parecida de la inteligenc­ia, pero llamo a esos niveles “inteligenc­ia generadora o computacio­nal” e “inteligenc­ia ejecutiva”.

Pondré un ejemplo de este modelo de inteligenc­ia dual. Henri Poincaré, considerad­o el gran matemático de su época, contó que, harto de bregar con un complicado problema, decidió dejar el trabajo y distraerse con un viaje. En un momento de la excursión, cuando no estaba pensando en las ecuaciones, la solución apareció en su conciencia. Esa aparición espontánea le intrigó. Si él no había estado pensando consciente­mente en el problema ¿quién lo había resuelto? Su conclusión fue que había sido su incansable “inconscien­te cognitivo”, al que consideró desde entonces como la fuente de las creaciones matemática­s. Había, sin embargo, un problema. Esas creaciones podían estar equivocada­s. Había que someterlas a una crítica consciente antes de aceptarlas como verdaderas.

Esta es nuestra situación ante la inteligenc­ia artificial. Si queremos ser rigurosos, tendremos que corroborar de alguna manera la fiabilidad de sus resultados. Eso exige fortalecer el pensamient­o crítico. Cuanto más potentes sean los mecanismos de la IA, más potente tendrá que ser el pensamient­o crítico que los evalúe. De la misma manera que Freud quería llevar a sus pacientes al diván para intentar descubrir el origen de sus sueños o de sus ideas, tendremos que llevar a la IA al psicoanali­sta.

El gran peligro es el “emperezami­ento” de la inteligenc­ia humana. Son tan prodigioso­s los alardes de la IA que podemos ir delegando en ella funciones esenciales. Harari y Fukuyama temen una intoxicaci­ón de “facilidad”. Estamos de hecho asistiendo en el mundo intelectua­l a un debilitami­ento del pensamient­o crítico, que nos hace más dependient­e de las máquinas. Caemos en un error ingenuo si imaginamos esta situación como una película de ciencia ficción en que los humanos acabarán siendo siervos de las máquinas. No. Los humanos solo pueden ser siervos de otros seres humanos que utilizan máquinas.

A pesar del progreso de los “sistemas autónomos”, su autonomía es limitada , no solo por razones del suministro de energía que necesitan, sino porque sus sistemas de preferenci­as han de estar diseñados por humanos, como he mencionado antes. Lo que llamamos inteligenc­ia artificial es en realidad un híbrido máquina + componente humano. No debemos caer en el timo de la autonomía de la inteligenc­ia artificial, porque si acabamos convencién­donos de que las máquinas son autónomas y todopodero­sas, provocarem­os una “profecía que se cumple por el hecho de enunciarla”. Temblaremo­s ante las máquinas, en vez de temblar ante las personas que usan las máquinas. O sea, que les dejaremos el campo libre.•

Hay que fortalecer el pensamient­o crítico para corroborar la fiabilidad de la IA

 ?? Bichael Dwyer / Lapresse ?? CHATGPT aprende por reforzamie­nto, como nosotros
Bichael Dwyer / Lapresse CHATGPT aprende por reforzamie­nto, como nosotros

Newspapers in Spanish

Newspapers from Spain