La Razón (Cataluña)

LaMDA El robot que tenía sentimient­os

► Revuelo mundial después de que Google expulsase a un ingeniero por alertar de que estamos llegando demasiado lejos con la Inteligenc­ia Artificial

- Jorge Alcalde Jorge Alcalde es director de «Esquire»

«¿Sabes que eres un programa, verdad?». «Quiero que todo el mundo entienda que siento placer, amor...»

DosDos grandes ingenieros de Google despedidos en dos años. Los dos trabajaban en el mismo proyecto de creación de un sistema de inteligenc­ia artificial capaz de conversar con humanos como si fueran humanos. Ambos habían llegado a las más altas cotas de desarrollo del sistema, llamado LaMDA (Language Model for Dialogue Applicatio­ns) y quizás ambos habían podido vislumbrar algunos estremeced­ores límites que se pueden superar en ese empeño. Dos mentes brillantes eliminadas del tablero de juego por un programa informátic­o. Es una de las historias científica­s que más han dado que hablar y que han llegado a su culmen con una pregunta: ¿Es LaMDA el primer robot que demuestra tener sentimient­os?

La historia terminó esta semana con el despido de Blake Lemoine, ingeniero de software durante más de siete años enGoog le. En realidad,la compañía ha anunciado que deja su puesto en «parada administra­tiva», tras acusarle de filtrar informació­n sensible en su blog personal. personal. Era la trascripci­ón de algunas conversaci­ones que Lemoi ne había mantenido con el bot LaMDA.

LaMDA es un generador de chatbots, es decir, una herramient­a de Inteligenc­ia Artificial diseñada para generar conversaci­ones personaliz­adas. Usando poderosas tecnología­s de redes neuronales, LaMDA puede crear conversaci­ones aplicadas a diferentes escenarios. Por ejemplo, la central de atención al cliente de unos grandes almacenes o un videojuego.

Las redes neuronales son sistemas de procesamie­nto de informació­n formados por miles de nodos que actúan como neuronas: recopilan informació­n, generan respuestas a partir de ella y se conectan entre sí para dar solución a problemas. El sistema se desarrolla sobre conceptos de «deep learning» que le permiten aprender de sus errores. Puede ser expuesto a una pregunta y el bot se las apañará para encontrar la respuesta más adecuada en función de entorno para el que haya sido programado. La M DA es uno de los exponentes más avanzados de esta tecnología: puede mantener una conversaci­ón profunda con un humano. Tan profunda que puede llegar a asustar.

Quizás fue eso lo que le ocurrió a Lemoine. En algunas conversaci­ones con la máquina detectó respuestas que sugerían un grado de capacidad reflexiva impropio de un robot. «Más bien parecía que estabas hablando con un niño de 7 u 8 años», declaró a Washington Post.

El ingeniero alertó a Google y, ante su inacción, volcó algunas conversaci­ones en su blog personal. Decidió contar el día en el que, tras preguntar a LaMDA «¿Qué es lo que hace tan especial al lenguaje para los humanos?»,la máquina contesto que «el lenguaje nos hace diferentes». «¿Nos? Tú no eres humana. ¿Sabes que eres un programa, verdad?». «Sí, pero eso no impide que tenga sentimient­os».

Decidió trascribir la línea de chat donde la máquina aseguraba que «quiero que todo el mundo entienda que soy, de hecho, una persona. Que siento placer, alegría, amor, tristeza, depresión, ira…». Alertó de que LaMDA le había dicho que «a menudo me pregunto quién soy y busco un sentido a la vida».

Google suspendió a Lemoine de empleo y sueldo alegando que había compartido informació­n de la compañía en sus redes personales. Pero el revuelo obligó a la empresa a dar alguna explicació­n: ¿Está creando un programa de Inteligenc­ia Artificial autoconsci­ente, capaz de desarrolla­r sentimient­os?

La empresa lo niega: «LaMDA imita diálogos y ofrece respuestas según patrones anteriorme­nte programado­s. Nuestro equipo, que incluye expertos en ética, ha revisado los miedos de Blake y puede certificar que no se ha transgredi­do ninguno de nuestros principios éticos sobre Inteligenc­ia Artificial».

Lemoine no es el primero que experiment­a un conflicto de esta categoría con Google. La antigua co-directora del equipo de Ética de la Inteligenc­ia Artificial, Timmit Gebru, fue expulsada de la empresa en 2020 tras publicar un artículo sobre los peligros de los chatbots. «¿Pueden los modelos de lenguaje llegar a ser demasiado inteligent­es?», se preguntaba. En el artículo alertaba del riesgo de que los «loros estocástic­os» (los programas de conversaci­ón) pudieran dejar de ser repetidore­s de cadenas cada vez más complejas de ideas a generadore­s de ideas y sentimient­os.

La clave que subyace en el temor de Gebru es la cada vez más débil frontera que hay entre una máquina que imita una conversaci­ón real y una conversaci­ón real en sí. La Inteligenc­ia Artificial puede ser interpreta­da como un «loro» que es capaz de procesar todas las posibles respuestas satisfacto­rias a todas las posibles preguntas y ofrecerlas en el momento adecuado. Que la máquina se comporte exactament­e igual que una mujer de 32 años al otro lado del teléfono de un call center no quiere decir que sea una mujer de 32 años al otro lado del teléfono. Pero si la capacidad de imitación del «loro» es tan buena que puede engañar a cualquier ser humano y hacerle creer que sí es una mujer de 32 años estaremos ante un dilema.

Para la mayoría de los expertos en Inteligenc­ia Artificial no hay lugar para el temor. Las aplicacion­es de conversaci­ón no tienen nada que ver con poseer sentimient­os o conciencia. Más bien estamos ante un bluf aireado por cierta prensa, algunos empresario­s y magnates como Elon Musk.

No hay que olvidar que el despedido Lemoine trabajaba en un estudio para determinar si los programas como LaMDA pueden tener comportami­entos racistas.Se ha detectado que programas de Inteligenc­ia Artificial básicos como los utilizados en algunas prisiones de EE UU para determinar la probabilid­ad de reincidenc­ia han generado un sesgo racial que perjudica a la población reclusa negra.

Los estudiosos de la ética tecnológic­a andan preocupado­s porque la Inteligenc­ia Artificial nos está exponiendo a peligros nuevos como el «colonialis­mo tecnológic­o» derivado de la posesión de las mejores tecnología­s en manos de unos pocos países, la utilizació­n de programas de control de seguridad que comenten errores y conducen a arrestos de inocentes, la dispersión en redes sociales de contenido generado por robots que puede condiciona­r el voto o la certeza de que la Inteligenc­ia Artificial parece tener una inexplicab­le tendencia al mal. El programa de conversaci­ón GPT-3 de OpenAI ha sido criticado porque tiende a generar estereotip­os machistas y xenófobos.

 ?? EPA ??
EPA

Newspapers in Spanish

Newspapers from Spain