Un investigador: “Una IA inteligente no seguirá confinada en ordenadores”
La discusión está sobre la mesa. Científicos y empresarios, expertos, muchos de ellos con décadas de experiencia en inteligencia artificial, alertan sobre las consecuencias de que esta tecnología se extienda sin control. La carta publicada por el Instituto Future of Life con más de mil personalidades ha reabierto un debate sobre los riesgos de la IA que se va a intensificar a medida que se presentan sus nuevos avances.
Uno de los expertos que no firmó la carta, el investigador Eliezer Yudkowsky, que trabaja en la alineación de una inteligencia artificial general desde el 2001, publicó un artículo en la revista Time en el que explicó que no suscribió el texto porque, a su juicio, se queda corto. El título del artículo es: “No basta con detener el desarrollo de la IA. Tenemos que cerrarlo todo”. Este experto considera que la misiva “subestima la gravedad de la situación y pide demasiado poco para resolverla”.
Yudkowsky está convencido de que “una IA suficientemente inteligente no permanecerá confinada en los ordenadores mucho tiempo”. Su teoría es que, como se pueden enviar cadenas de ADN por correo electrónico a laboratorios para que produzcan proteínas, “una IA inicialmente confinada en internet” podría “construir formas de vida artificial o pasar directamente a la fabricación molecular posbiológica”.
En esa visión apocalíptica, el científico señaló que “si alguien construye una IA demasiado poderosa, en las condiciones actuales,
Bill Gates elogia la tecnología, aunque cree que existe el riesgo “de que la máquina se descontrole”
espero que todos los miembros de la especie humana y toda la vida biológica de la Tierra mueran poco después”.
otro artículo considerable esta semana es del fundador de Microsoft, Bill Gates, que ha analizado todas las ventajas que tendrá para la humanidad la revolución que supondrá la inteligencia artificial en todos los órdenes de la sociedad.
Gates admite que “también existe la posibilidad de que las IA se descontrolen”. “¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes de los nuestros o simplemente dejar de preocuparse por nosotros?”, se pregunta. En cualquier caso, estima que este problema no es más urgente que en últimos meses.
El fundador de Microsoft, que ha tomado la delantera con el uso de GPT-4 en su buscador Bing, predice que habrá un momento en que la IA “será capaz de hacer todo lo que puede hacer un cerebro humano, pero sin límites prácticos en cuanto al tamaño de su memoria o la velocidad a la que funciona. Será un cambio profundo”.c