¿Temer a inteligencia artificial?
SAN FRANCISCO — Mark Zuckerberg pensó que su colega multimillonario del Valle del Silicio, Elon Musk, estaba siendo alarmista.
Musk, el emprendedor detrás de SpaceX y del fabricante de autos eléctricos Tesla, estaba advirtiendo al mundo en entrevistas por televisión y en redes sociales que la inteligencia artificial era “potencialmente más peligrosa que las armas nucleares”.
Así que el 19 de noviembre del 2014, Zuckerberg, director ejecutivo de Facebook, invitó a Musk a cenar a su casa en Palo Alto, California. Dos importantes investigadores del nuevo laboratorio de inteligencia artificial (IA) de Facebook y otros dos ejecutivos de la red social se les unieron.
El contingente de Facebook trató de convencer a Musk de que estaba equivocado. Pero él no cambiaba de opinión. “Genuinamente creo que esto es peligroso”, dijo Musk a los allí reunidos, de acuerdo con uno de los asistentes a la cena, Yann LeCun, investigador que encabezaba el laboratorio de IA de Facebook.
Los temores de Musk respecto a la IA eran simples: si creamos máquinas que son más inteligentes que los humanos, podrían volverse contra nosotros; debemos considerar las consecuencias involuntarias de lo que estamos creando antes de soltarlo al mundo.
Ni Musk ni Zuckerberg darían detalles acerca de la cena, que no ha sido reportada con anterioridad, ni sobre su prolongado debate sobre la IA.
Aún parece como de ciencia ficción la creación de la “superinteligencia” —el nombre del desarrollo tecnológico superlisto que lleva a la IA al siguiente nivel y crea máquinas que no solo realizan tareas limitadas que típicamente requieren inteligencia humana (como los autos de conducción autónoma), sino que superan en pensamiento a los humanos.
Pero la disputa por el futuro de la IA se ha extendido por toda la industria
tecnológica.
Más de 4,000 empleados de Google firmaron en fecha reciente una petición protestando por un contrato de IA de nueve millones de dólares que la compañía había firmado con el Departamento de Defensa de EE.UU. El acuerdo era sumamente preocupante para muchos investigadores de IA de la compañía. A principios de este mes, ejecutivos de Google, en un intento por atajar una rebelión de trabajadores, dijeron que no renovarían el contrato el próximo año.
La investigación en IA tiene enorme potencial y enormes implicaciones, como motor económico y como fuente de superioridad militar. Beijing ha señalado su disposición a invertir miles de millones de dólares para convertir a China en el líder mundial en IA, y el Departamento de Defensa de EE.UU. está cortejando agresivamente a la industria tecnológica en busca de ayuda. Una nueva clase de armas autónomas puede no estar muy lejos.
Todo tipo de pensadores se han unido al debate, desde una reunión de filósofos y científicos celebrada en la costa central de California hasta una conferencia anual organizada en Palm Springs, California, por Jeff Bezos, director ejecutivo de Amazon.
Y la crítica pública contra Facebook y otras compañías tecnológicas durante los últimos meses ha hecho mucho para plantear la cuestión de las consecuencias involuntarias de la tecnología creada por el Valle de Silicio.
En abril, Zuckerberg pasó dos días contestando preguntas de miembros del Congreso estadounidense sobre la privacidad de datos y el papel de Facebook en la propagación de información engañosa antes de las elecciones del 2016 en EE.UU. El mes pasado enfrentó un intenso interrogatorio similar en Europa.
El que Facebook reconociera que se tardó en comprender lo que estaba sucediendo ha llevado a un momento poco común de autorreflexión en una industria que ha creído que está mejorando al mundo.
Incluso figuras tan influyentes como Bill Gates, fundador de Microsoft, y el difunto Stephen Hawking han expresado preocupación por la creación de máquinas que son más inteligentes que nosotros.
Unen cerebros y máquinas
Pacific Grove es un pueblito en la costa de California. Genetistas se reunieron allí en 1975 para debatir si su trabajo —la edición genética— terminaría perjudicando al mundo.
La comunidad de IA celebró un evento similar ahí en el 2017.
La reunión privada fue organizada por el Future of Life Institute, un grupo de expertos creado para considerar los riesgos de la IA.
Los líderes de este campo estaban presentes —entre ellos LeCun, el director del laboratorio de IA de Facebook, quien había ayudado a desarrollar una red neuronal, una de las herramientas más importantes de hoy en la inteligencia artificial. Además estaban NickBostrom, cuyo libro del 2014,“Super in tellig en ce: Paths, Dangers, Strategies”, tuvo un efecto descomunal en el debate de IA; Oren Etzioni, exprofesor de ciencias computacionales en la Universidad de Washington que había tomado el mando del Instituto Allen para Inteligencia Artificial, en Seattle; y Demis Hassabis, que dirige DeepMind, un influyente laboratorio de investigación de IA propiedad de Google en Londres
Y también estaba Musk, que en el 2015 había ayudado a crear un laboratorio independiente de inteligencia artificial, OpenAI, con un objetivo explícito: crear super inteligencia con candados para asegurar que no se saldrá de control. Fue un mensaje que claramente lo alineaba con Bostrom.
“Nos encaminamos ya sea a la superinteligencia o al fin de la civilización”, declaró Musk en el retiro.
Se le preguntó a Musk cómo puede la sociedad vivir mejor junto con la superinteligencia. Lo que necesitábamos, dijo, era una conexión directa entre nuestros cerebros y nuestras máquinas. Unos meses después, dio a conocer una empresa de arranque llamada Neuralink para crear la llamada interfaz neuronal al fusionar computadoras con cerebros humanos.
Superando a los jugadores
Hay un dicho en el Valle del Silicio: sobreestimamos lo que se puede hacer en tres años y subestimamos lo que se puede hacer en 10.
El 27 de enero del 2016, el laboratorio DeepMind de Google develó una máquina que podía vencer a un jugador profesional en el antiguo juego de mesa Go. En una partida jugada poco tiempo después, la máquina, llamada AlphaGo, había derrotado al campeón europeo Fan Hui, cinco juegos a cero.
Incluso los principales investigadores de IA habían asumido que pasaría otra década antes de que una máquina pudiera resolver el juego. Go es complejo —hay más posiciones posibles en el tablero que átomos en el universo— y los mejores jugadores ganan no con simple cálculo, sino mediante la intuición. Dos semanas antes de que AlphaGo se diera a conocer, LeCun dijo que la existencia de una máquina así era improbable.
Unos cuantos meses después, AlphaGo venció a Lee Sedol, el mejor jugador de Go de la última década. El aparato hizo movimientos que desconcertaron a expertos humanos, pero que, a la larga, llevaron a la victoria.
Muchos investigadores creen que el tipo de tecnología de autoaprendizaje que apuntala a AlphaGo proporcionó un camino a la “superinteligencia”. Y creen que los avances en este campo se acelerarán en los próximos años.
OpenAI recientemente “entrenó” a un sistema para que ganara tantos puntos como fuera posible en un videojuego de carreras de botes. Procedió a ganar esos puntos, pero lo hizo mientras giraba en círculos, chocando contra muros de piedra y golpeando a otros navíos. Es el tipo de impredecibilidad que plantea graves preocupaciones sobre la IA.
Relación se vuelve tensa
Desde su cena de hace tres años, el debate entre Zuckerberg y Musk se ha tornado amargo. El verano pasado, en un video en vivo de Facebook, Zuckerberg calificó a las opiniones de Musk sobre la IA de “muy irresponsables”.
Musk respondió con un tuit: “He hablado con Mark al respecto. Su comprensión del tema es limitada”.
En su testimonio ante el Congreso, Zuckerberg explicó cómo Facebook iba a resolver los problemas que ayudó a crear: apoyándose en la inteligencia artificial. Pero reconoció que los científicos no han comprendido exactamente cómo adquieren aprendizaje algunos tipos de inteligencia artificial.
“Esta va a ser una cuestión muy central para nuestra opinión de los sistemas de IA”, expresó Zuckerberg. “En este momento, muchos de nuestros sistemas de IA toman decisiones en formas que la gente realmente no entiende”.
Los investigadores están advirtiendo que los sistemas de IA que generan automáticamente video e imágenes realistas pronto harán que sea incluso más difícil confiar en lo que vemos en línea. Tanto DeepMind como OpenAI operan ahora grupos dedicados a la “seguridad de la IA”.
Hassabis, fundador de DeepMind, dijo que la amenaza de la superinteligencia no está aquí. No aún. Pero que los problemas de Facebook son un aviso.
“Necesitamos usar el tiempo de inactividad, cuando las cosas están calmadas, para prepararnos para cuando las cosas se pongan serias en las siguientes décadas”, indicó Hassabis. “El tiempo que tenemos ahora es valioso y tenemos que sacarle provecho”.