“Da miedo”, la advertencia del “padrino de la IA”
Geoffrey Hinton se sumó a las voces que piden una regulación; “es difícil evitar que se use para cosas malas”
Geoffrey Hinton fue un pionero de la inteligencia artificial. En 2012, Hinton y dos de sus estudiantes de posgrado en la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de inteligencia artificial.
El lunes, sin embargo, se unió oficialmente a un creciente coro que alerta sobre los peligros de crear productos basados en IA generativa, la tecnología que impulsa a los chatbots populares como CHATGPT.
Una parte de él, ahora lamenta el trabajo de su vida. “Me consuelo con la excusa normal: si no lo hubiera hecho yo, alguien más lo habría hecho”, dijo Hinton durante una larga entrevista la semana pasada en el comedor de su casa en Toronto.
Los líderes de la industria creen que los nuevos sistemas de inteligencia artificial podrían ser tan importantes como la introducción del navegador web a principios de la década de 1990 y podrían generar avances en áreas que van desde la investigación médica hasta la educación. Pero a muchos expertos de la industria les preocupa que estén liberando algo peligroso. La IA generativa ya puede ser una herramienta para la desinformación. Pronto, podría ser un riesgo para los puestos de trabajo. En algún momento, alertan, podría ser un riesgo para la humanidad.
“Es difícil evitar que la usen para cosas malas”, dijo Hinton.
Después de que Openai, una startup de San Francisco, lanzara una nueva versión de CHATGPT en marzo, más de 1.000 líderes tecnológicos e investigadores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de las tecnologías de IA.
Días después, 19 líderes actuales y anteriores de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica de 40 años, publicaron su propia carta advirtiendo sobre los riesgos de la IA. Hinton, a menudo llamado “el padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar públicamente a Google ni a otras compañías hasta que dejara su trabajo. Notificó a la compañía el mes pasado que renunciaba.
Hinton, un expatriado británico de 75 años, es un académico de toda la vida cuya carrera estuvo impulsada por sus convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó una idea llamada red neuronal. Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos. En ese momento, pocos investigadores creían en la idea. Pero se convirtió en el trabajo de su vida.
En la década de 1980, Hinton era profesor de ciencias de la computación en la Universidad Carnegie Mellon, pero renunció y se fue a Canadá porque dijo que no estaba dispuesto a recibir fondos del Pentágono. En ese momento, la mayor parte de la investigación de IA en Estados Unidos fue financiada por el Departamento de Defensa. Hinton se opone profundamente al uso de la IA en el campo de batalla, lo que él llama “soldados robot”.
En 2012, Hinton y dos de sus alumnos en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles. Google gastó 44 millones de dólares para adquirir una empresa iniciada por Hinton y sus dos alumnos. Y su sistema condujo a la creación de tecnologías cada vez más poderosas, incluidos nuevos chatbots como CHATGPT y Google Bard.
A medida que las empresas mejoran sus sistemas de IA, cree Hinton, se vuelven más peligrosos. “Mira cómo era hace cinco años y cómo es ahora”, dijo sobre la tecnología de IA, “y proyéctalo hacia adelante. Da miedo.”
Los gigantes tecnológicos están enfrascados en una competencia que podría ser imposible de detener, dijo Hinton.
Su preocupación inmediata es que Internet se inundará con fotos, videos y textos falsos, y la persona promedio “ya no podrá saber qué es verdad”.
También le preocupa que, con el tiempo, las tecnologías de IA trastornen el mercado laboral. Hoy en día, los chatbots como CHATGPT tienden a complementar a los trabajadores humanos, pero podrían reemplazar a los asistentes legales, asistentes personales, traductores y otros que manejan tareas rutinarias. “Te quitan el trabajo pesado. Pero podría quitarte más que eso”, dijo.
Le preocupa que las versiones futuras de la tecnología representen una amenaza para la humanidad porque a menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan. Esto se convierte en un problema, dijo, ya que las personas y las empresas permiten que los sistemas de inteligencia artificial no solo generen su propio código de computadora, sino que en realidad ejecuten ese código por su cuenta. Y teme el día en que las armas verdaderamente autónomas, esos robots asesinos, se hagan realidad.
“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, dijo. “Pero la mayoría pensó que estaba muy lejos. Yo pensaba que estaba muy lejos, que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”.
La mejor esperanza es que los principales científicos del mundo colaboren en formas de controlar la tecnología.
Hinton relató que cuando antes le preguntaban cómo podía trabajar en tecnología potencialmente peligrosa, parafraseaba a Robert Oppenheimer, quien dirigió el proyecto de Estados Unidos para construir la bomba atómica, les decía: “Cuando ves algo que es técnicamente bueno, sigue adelante y hazlo”. Ya no dice eso.
Hinton teme que la persona promedio no pueda distinguir qué es verdad en internet.