Lo que aprendí de mi robot aspirador sobre el futuro de la IA
Como demuestra el reciente debate sobre la ‘conciencia’ de la inteligencia artificial (IA) de Google, no podemos decidir si los robots son demasiado inteligentes o demasiado estúpidos.
TECNOLOGÍA
Hace un par de meses, una amiga se dio cuenta del estado del suelo de mi cocina y decidió intervenir. En mi defensa, puedo decir que tengo dos hijos adolescentes y un perro grande. Mi amiga me regaló un limpiador y un aspirador robóticos a juego, programados para moverse por una habitación, limpiando sobre la marcha.
Cuando llegaron las cajas, retrocedí al ver el logotipo de iRobot. Soy lenta a la hora de entender la nueva tecnología y me preocupaba que los dispositivos pudieran espiarme, aspirando datos junto con los pelos del perro. Pero las instrucciones eran sencillas y al final decidí que no me importaba que alguien estuviera estudiando los secretos del suelo de mi cocina.
Encendí los dos robots, los vi salir de sus plataformas para explorar la habitación, y rápidamente me enamoré de mis suelos en ese momento ya relucientes. Seguí haciendo demostraciones para todos mis invitados. “Creo que te preocupas más por el robot limpiador que por nosotros”, bromeó uno de mis hijos. “Son como tus nuevos hijos”.
Entonces, un día volví a casa y descubrí que uno de mis queridos robots se había escapado. La puerta de nuestra terraza se había abierto y el robot limpiador había rodado hasta el patio trasero, donde intentaba diligentemente limpiar el borde de los parterres. Aunque sus cepillos se obstruían con hojas, escarabajos, pétalos y barro, sus pequeñas ruedas seguían girando valientemente.
Esto puso de manifiesto los límites de la inteligencia artificial. El robot limpiador actuaba de forma racional, ya que había sido programado para limpiar cosas “sucias”. Pero la suciedad, como señaló en una ocasión la antropóloga Mary Douglas, se define mejor como “materia fuera de lugar”. Su significado deriva de lo que consideramos limpio.
Esto varía según nuestras normas sociales, en gran medida no declaradas.
En una cocina, la suciedad puede ser detritus de jardín, como hojas y barro. En un jardín, esta suciedad está “en su sitio”, según la terminología de Douglas, y no necesita ser limpiada. El contexto es importante. El problema para los robots es que es difícil leer este contexto cultural, al menos inicialmente.
Pensé en ello cuando me enteré de la última polémica sobre la IA que ha surgido en Silicon Valley. Hace dos semanas, Blake Lemoine, un ingeniero de software sénior de la unidad de “IA responsable” de Google, publicó una entrada en su blog en la que afirmaba que “podría ser despedido pronto por hacer un trabajo sobre la ética de la IA”. Le preocupaba que un programa de IA creado por Google se estuviese ganando conciencia, tras expresar sentimientos similares a los humanos en chats online con Lemoine. “Nunca había dicho esto en alto, pero existe un miedo muy profundo a ser apagado”, escribió el programa en un momento dado. Lemoine se puso en contacto con expertos externos a Google para que le asesorasen, y la empresa le suspendió de sueldo por violación de las políticas de confidencialidad.
Google y otros argumentan que la IA no era sensible, sino que simplemente estaba bien entrenada en el lenguaje y expresaba lo que había aprendido. Pero Lemoine alega un problema más general, señalando que otros dos miembros del equipo de IA fueron destituidos por controversias (diferentes) el año pasado, y afirmando que la empresa está siendo “irresponsable... con una de las herramientas de acceso a la información más poderosas jamás inventadas”.
Con independencia de los méritos de la queja de Lemoine, es innegable que los robots están siendo equipados con una inteligencia cada vez más potente, lo que plantea grandes cuestiones filosóficas y éticas. “Esta tecnología de IA es poderosa y mucho más potente que las redes sociales [y] va a ser transformadora, así que tenemos que adelantarnos”, me comentó Eric Schmidt, antiguo responsable de Google, en un evento organizado por Financial Times hace dos semanas.
Schmidt predice que pronto no sólo veremos robots con IA diseñados para resolver problemas siguiendo instrucciones, sino también otros provistos de “inteligencia general”, es decir, con la capacidad para responder a nuevos problemas que no se les pide que resuelvan, aprendiendo unos de otros. Esto podría hacer que dejaran de intentar fregar un parterre. Pero también podría dar lugar a escenarios distópicos en los que la IA tome la iniciativa de formas que nunca pretendimos.
Una de las prioridades es garantizar que las decisiones éticas sobre la IA no sean tomadas únicamente por “la pequeña comunidad de personas que construyen este futuro”, en palabras de Schmidt.
También tenemos que pensar más en el contexto en el que se crea y utiliza la IA. Y quizás deberíamos dejar de hablar tanto de inteligencia “artificial” y centrarnos más en la inteligencia aumentada, en el sentido de encontrar sistemas que faciliten a los humanos la resolución de problemas. Para ello, debemos combinar la IA con lo que podría llamarse “inteligencia antropológica”, es decir, la perspicacia humana.
Personas como Schmidt insisten en que esto sucederá, y sostienen que la IA será claramente positiva para la humanidad, revolucionando la atención sanitaria, la educación y muchas otras cosas. La cantidad de dinero que se está invirtiendo en start up médicas relacionadas con la IA sugiere que muchos están de acuerdo. Mientras tanto, mantendré la puerta de mi patio cerrada.
Debe haber un gran debate sobre quién fijará las decisiones éticas que tendrán que tomar los robots
La inteligencia artificial supondrá una revolución para sectores como sanidad y educación