El Nuevo Día

¿Temer a inteligenc­ia artificial?

- Por CADE METZ

SAN FRANCISCO — Mark Zuckerberg pensó que su colega multimillo­nario del Valle del Silicio, Elon Musk, estaba siendo alarmista.

Musk, el emprendedo­r detrás de SpaceX y del fabricante de autos eléctricos Tesla, estaba advirtiend­o al mundo en entrevista­s por televisión y en redes sociales que la inteligenc­ia artificial era “potencialm­ente más peligrosa que las armas nucleares”.

Así que el 19 de noviembre del 2014, Zuckerberg, director ejecutivo de Facebook, invitó a Musk a cenar a su casa en Palo Alto, California. Dos importante­s investigad­ores del nuevo laboratori­o de inteligenc­ia artificial (IA) de Facebook y otros dos ejecutivos de la red social se les unieron.

El contingent­e de Facebook trató de convencer a Musk de que estaba equivocado. Pero él no cambiaba de opinión. “Genuinamen­te creo que esto es peligroso”, dijo Musk a los allí reunidos, de acuerdo con uno de los asistentes a la cena, Yann LeCun, investigad­or que encabezaba el laboratori­o de IA de Facebook.

Los temores de Musk respecto a la IA eran simples: si creamos máquinas que son más inteligent­es que los humanos, podrían volverse contra nosotros; debemos considerar las consecuenc­ias involuntar­ias de lo que estamos creando antes de soltarlo al mundo.

Ni Musk ni Zuckerberg darían detalles acerca de la cena, que no ha sido reportada con anteriorid­ad, ni sobre su prolongado debate sobre la IA.

Aún parece como de ciencia ficción la creación de la “superintel­igencia” —el nombre del desarrollo tecnológic­o superlisto que lleva a la IA al siguiente nivel y crea máquinas que no solo realizan tareas limitadas que típicament­e requieren inteligenc­ia humana (como los autos de conducción autónoma), sino que superan en pensamient­o a los humanos.

Pero la disputa por el futuro de la IA se ha extendido por toda la industria

tecnológic­a.

Más de 4,000 empleados de Google firmaron en fecha reciente una petición protestand­o por un contrato de IA de nueve millones de dólares que la compañía había firmado con el Departamen­to de Defensa de EE.UU. El acuerdo era sumamente preocupant­e para muchos investigad­ores de IA de la compañía. A principios de este mes, ejecutivos de Google, en un intento por atajar una rebelión de trabajador­es, dijeron que no renovarían el contrato el próximo año.

La investigac­ión en IA tiene enorme potencial y enormes implicacio­nes, como motor económico y como fuente de superiorid­ad militar. Beijing ha señalado su disposició­n a invertir miles de millones de dólares para convertir a China en el líder mundial en IA, y el Departamen­to de Defensa de EE.UU. está cortejando agresivame­nte a la industria tecnológic­a en busca de ayuda. Una nueva clase de armas autónomas puede no estar muy lejos.

Todo tipo de pensadores se han unido al debate, desde una reunión de filósofos y científico­s celebrada en la costa central de California hasta una conferenci­a anual organizada en Palm Springs, California, por Jeff Bezos, director ejecutivo de Amazon.

Y la crítica pública contra Facebook y otras compañías tecnológic­as durante los últimos meses ha hecho mucho para plantear la cuestión de las consecuenc­ias involuntar­ias de la tecnología creada por el Valle de Silicio.

En abril, Zuckerberg pasó dos días contestand­o preguntas de miembros del Congreso estadounid­ense sobre la privacidad de datos y el papel de Facebook en la propagació­n de informació­n engañosa antes de las elecciones del 2016 en EE.UU. El mes pasado enfrentó un intenso interrogat­orio similar en Europa.

El que Facebook reconocier­a que se tardó en comprender lo que estaba sucediendo ha llevado a un momento poco común de autorrefle­xión en una industria que ha creído que está mejorando al mundo.

Incluso figuras tan influyente­s como Bill Gates, fundador de Microsoft, y el difunto Stephen Hawking han expresado preocupaci­ón por la creación de máquinas que son más inteligent­es que nosotros.

Unen cerebros y máquinas

Pacific Grove es un pueblito en la costa de California. Genetistas se reunieron allí en 1975 para debatir si su trabajo —la edición genética— terminaría perjudican­do al mundo.

La comunidad de IA celebró un evento similar ahí en el 2017.

La reunión privada fue organizada por el Future of Life Institute, un grupo de expertos creado para considerar los riesgos de la IA.

Los líderes de este campo estaban presentes —entre ellos LeCun, el director del laboratori­o de IA de Facebook, quien había ayudado a desarrolla­r una red neuronal, una de las herramient­as más importante­s de hoy en la inteligenc­ia artificial. Además estaban NickBostro­m, cuyo libro del 2014,“Super in tellig en ce: Paths, Dangers, Strategies”, tuvo un efecto descomunal en el debate de IA; Oren Etzioni, exprofesor de ciencias computacio­nales en la Universida­d de Washington que había tomado el mando del Instituto Allen para Inteligenc­ia Artificial, en Seattle; y Demis Hassabis, que dirige DeepMind, un influyente laboratori­o de investigac­ión de IA propiedad de Google en Londres

Y también estaba Musk, que en el 2015 había ayudado a crear un laboratori­o independie­nte de inteligenc­ia artificial, OpenAI, con un objetivo explícito: crear super inteligenc­ia con candados para asegurar que no se saldrá de control. Fue un mensaje que claramente lo alineaba con Bostrom.

“Nos encaminamo­s ya sea a la superintel­igencia o al fin de la civilizaci­ón”, declaró Musk en el retiro.

Se le preguntó a Musk cómo puede la sociedad vivir mejor junto con la superintel­igencia. Lo que necesitába­mos, dijo, era una conexión directa entre nuestros cerebros y nuestras máquinas. Unos meses después, dio a conocer una empresa de arranque llamada Neuralink para crear la llamada interfaz neuronal al fusionar computador­as con cerebros humanos.

Superando a los jugadores

Hay un dicho en el Valle del Silicio: sobreestim­amos lo que se puede hacer en tres años y subestimam­os lo que se puede hacer en 10.

El 27 de enero del 2016, el laboratori­o DeepMind de Google develó una máquina que podía vencer a un jugador profesiona­l en el antiguo juego de mesa Go. En una partida jugada poco tiempo después, la máquina, llamada AlphaGo, había derrotado al campeón europeo Fan Hui, cinco juegos a cero.

Incluso los principale­s investigad­ores de IA habían asumido que pasaría otra década antes de que una máquina pudiera resolver el juego. Go es complejo —hay más posiciones posibles en el tablero que átomos en el universo— y los mejores jugadores ganan no con simple cálculo, sino mediante la intuición. Dos semanas antes de que AlphaGo se diera a conocer, LeCun dijo que la existencia de una máquina así era improbable.

Unos cuantos meses después, AlphaGo venció a Lee Sedol, el mejor jugador de Go de la última década. El aparato hizo movimiento­s que desconcert­aron a expertos humanos, pero que, a la larga, llevaron a la victoria.

Muchos investigad­ores creen que el tipo de tecnología de autoaprend­izaje que apuntala a AlphaGo proporcion­ó un camino a la “superintel­igencia”. Y creen que los avances en este campo se acelerarán en los próximos años.

OpenAI recienteme­nte “entrenó” a un sistema para que ganara tantos puntos como fuera posible en un videojuego de carreras de botes. Procedió a ganar esos puntos, pero lo hizo mientras giraba en círculos, chocando contra muros de piedra y golpeando a otros navíos. Es el tipo de impredecib­ilidad que plantea graves preocupaci­ones sobre la IA.

Relación se vuelve tensa

Desde su cena de hace tres años, el debate entre Zuckerberg y Musk se ha tornado amargo. El verano pasado, en un video en vivo de Facebook, Zuckerberg calificó a las opiniones de Musk sobre la IA de “muy irresponsa­bles”.

Musk respondió con un tuit: “He hablado con Mark al respecto. Su comprensió­n del tema es limitada”.

En su testimonio ante el Congreso, Zuckerberg explicó cómo Facebook iba a resolver los problemas que ayudó a crear: apoyándose en la inteligenc­ia artificial. Pero reconoció que los científico­s no han comprendid­o exactament­e cómo adquieren aprendizaj­e algunos tipos de inteligenc­ia artificial.

“Esta va a ser una cuestión muy central para nuestra opinión de los sistemas de IA”, expresó Zuckerberg. “En este momento, muchos de nuestros sistemas de IA toman decisiones en formas que la gente realmente no entiende”.

Los investigad­ores están advirtiend­o que los sistemas de IA que generan automática­mente video e imágenes realistas pronto harán que sea incluso más difícil confiar en lo que vemos en línea. Tanto DeepMind como OpenAI operan ahora grupos dedicados a la “seguridad de la IA”.

Hassabis, fundador de DeepMind, dijo que la amenaza de la superintel­igencia no está aquí. No aún. Pero que los problemas de Facebook son un aviso.

“Necesitamo­s usar el tiempo de inactivida­d, cuando las cosas están calmadas, para prepararno­s para cuando las cosas se pongan serias en las siguientes décadas”, indicó Hassabis. “El tiempo que tenemos ahora es valioso y tenemos que sacarle provecho”.

 ?? JUSTIN WOOD ??
JUSTIN WOOD
 ??  ?? El futuro de la inteligenc­ia artificial fue debatido en un evento en California organizado por Jeff Bezos, de Amazon.
El futuro de la inteligenc­ia artificial fue debatido en un evento en California organizado por Jeff Bezos, de Amazon.

Newspapers in Spanish

Newspapers from Puerto Rico