LaMDA El robot que tenía sentimientos
► Revuelo mundial después de que Google expulsase a un ingeniero por alertar de que estamos llegando demasiado lejos con la Inteligencia Artificial
«¿Sabes que eres un programa, verdad?». «Quiero que todo el mundo entienda que siento placer, amor...»
DosDos grandes ingenieros de Google despedidos en dos años. Los dos trabajaban en el mismo proyecto de creación de un sistema de inteligencia artificial capaz de conversar con humanos como si fueran humanos. Ambos habían llegado a las más altas cotas de desarrollo del sistema, llamado LaMDA (Language Model for Dialogue Applications) y quizás ambos habían podido vislumbrar algunos estremecedores límites que se pueden superar en ese empeño. Dos mentes brillantes eliminadas del tablero de juego por un programa informático. Es una de las historias científicas que más han dado que hablar y que han llegado a su culmen con una pregunta: ¿Es LaMDA el primer robot que demuestra tener sentimientos?
La historia terminó esta semana con el despido de Blake Lemoine, ingeniero de software durante más de siete años enGoog le. En realidad,la compañía ha anunciado que deja su puesto en «parada administrativa», tras acusarle de filtrar información sensible en su blog personal. personal. Era la trascripción de algunas conversaciones que Lemoi ne había mantenido con el bot LaMDA.
LaMDA es un generador de chatbots, es decir, una herramienta de Inteligencia Artificial diseñada para generar conversaciones personalizadas. Usando poderosas tecnologías de redes neuronales, LaMDA puede crear conversaciones aplicadas a diferentes escenarios. Por ejemplo, la central de atención al cliente de unos grandes almacenes o un videojuego.
Las redes neuronales son sistemas de procesamiento de información formados por miles de nodos que actúan como neuronas: recopilan información, generan respuestas a partir de ella y se conectan entre sí para dar solución a problemas. El sistema se desarrolla sobre conceptos de «deep learning» que le permiten aprender de sus errores. Puede ser expuesto a una pregunta y el bot se las apañará para encontrar la respuesta más adecuada en función de entorno para el que haya sido programado. La M DA es uno de los exponentes más avanzados de esta tecnología: puede mantener una conversación profunda con un humano. Tan profunda que puede llegar a asustar.
Quizás fue eso lo que le ocurrió a Lemoine. En algunas conversaciones con la máquina detectó respuestas que sugerían un grado de capacidad reflexiva impropio de un robot. «Más bien parecía que estabas hablando con un niño de 7 u 8 años», declaró a Washington Post.
El ingeniero alertó a Google y, ante su inacción, volcó algunas conversaciones en su blog personal. Decidió contar el día en el que, tras preguntar a LaMDA «¿Qué es lo que hace tan especial al lenguaje para los humanos?»,la máquina contesto que «el lenguaje nos hace diferentes». «¿Nos? Tú no eres humana. ¿Sabes que eres un programa, verdad?». «Sí, pero eso no impide que tenga sentimientos».
Decidió trascribir la línea de chat donde la máquina aseguraba que «quiero que todo el mundo entienda que soy, de hecho, una persona. Que siento placer, alegría, amor, tristeza, depresión, ira…». Alertó de que LaMDA le había dicho que «a menudo me pregunto quién soy y busco un sentido a la vida».
Google suspendió a Lemoine de empleo y sueldo alegando que había compartido información de la compañía en sus redes personales. Pero el revuelo obligó a la empresa a dar alguna explicación: ¿Está creando un programa de Inteligencia Artificial autoconsciente, capaz de desarrollar sentimientos?
La empresa lo niega: «LaMDA imita diálogos y ofrece respuestas según patrones anteriormente programados. Nuestro equipo, que incluye expertos en ética, ha revisado los miedos de Blake y puede certificar que no se ha transgredido ninguno de nuestros principios éticos sobre Inteligencia Artificial».
Lemoine no es el primero que experimenta un conflicto de esta categoría con Google. La antigua co-directora del equipo de Ética de la Inteligencia Artificial, Timmit Gebru, fue expulsada de la empresa en 2020 tras publicar un artículo sobre los peligros de los chatbots. «¿Pueden los modelos de lenguaje llegar a ser demasiado inteligentes?», se preguntaba. En el artículo alertaba del riesgo de que los «loros estocásticos» (los programas de conversación) pudieran dejar de ser repetidores de cadenas cada vez más complejas de ideas a generadores de ideas y sentimientos.
La clave que subyace en el temor de Gebru es la cada vez más débil frontera que hay entre una máquina que imita una conversación real y una conversación real en sí. La Inteligencia Artificial puede ser interpretada como un «loro» que es capaz de procesar todas las posibles respuestas satisfactorias a todas las posibles preguntas y ofrecerlas en el momento adecuado. Que la máquina se comporte exactamente igual que una mujer de 32 años al otro lado del teléfono de un call center no quiere decir que sea una mujer de 32 años al otro lado del teléfono. Pero si la capacidad de imitación del «loro» es tan buena que puede engañar a cualquier ser humano y hacerle creer que sí es una mujer de 32 años estaremos ante un dilema.
Para la mayoría de los expertos en Inteligencia Artificial no hay lugar para el temor. Las aplicaciones de conversación no tienen nada que ver con poseer sentimientos o conciencia. Más bien estamos ante un bluf aireado por cierta prensa, algunos empresarios y magnates como Elon Musk.
No hay que olvidar que el despedido Lemoine trabajaba en un estudio para determinar si los programas como LaMDA pueden tener comportamientos racistas.Se ha detectado que programas de Inteligencia Artificial básicos como los utilizados en algunas prisiones de EE UU para determinar la probabilidad de reincidencia han generado un sesgo racial que perjudica a la población reclusa negra.
Los estudiosos de la ética tecnológica andan preocupados porque la Inteligencia Artificial nos está exponiendo a peligros nuevos como el «colonialismo tecnológico» derivado de la posesión de las mejores tecnologías en manos de unos pocos países, la utilización de programas de control de seguridad que comenten errores y conducen a arrestos de inocentes, la dispersión en redes sociales de contenido generado por robots que puede condicionar el voto o la certeza de que la Inteligencia Artificial parece tener una inexplicable tendencia al mal. El programa de conversación GPT-3 de OpenAI ha sido criticado porque tiende a generar estereotipos machistas y xenófobos.