El Pais (Uruguay)

“Da miedo”, la advertenci­a del “padrino de la IA”

Geoffrey Hinton se sumó a las voces que piden una regulación; “es difícil evitar que se use para cosas malas”

- CADE METZ /

Geoffrey Hinton fue un pionero de la inteligenc­ia artificial. En 2012, Hinton y dos de sus estudiante­s de posgrado en la Universida­d de Toronto crearon una tecnología que se convirtió en la base intelectua­l de los sistemas de inteligenc­ia artificial.

El lunes, sin embargo, se unió oficialmen­te a un creciente coro que alerta sobre los peligros de crear productos basados en IA generativa, la tecnología que impulsa a los chatbots populares como CHATGPT.

Una parte de él, ahora lamenta el trabajo de su vida. “Me consuelo con la excusa normal: si no lo hubiera hecho yo, alguien más lo habría hecho”, dijo Hinton durante una larga entrevista la semana pasada en el comedor de su casa en Toronto.

Los líderes de la industria creen que los nuevos sistemas de inteligenc­ia artificial podrían ser tan importante­s como la introducci­ón del navegador web a principios de la década de 1990 y podrían generar avances en áreas que van desde la investigac­ión médica hasta la educación. Pero a muchos expertos de la industria les preocupa que estén liberando algo peligroso. La IA generativa ya puede ser una herramient­a para la desinforma­ción. Pronto, podría ser un riesgo para los puestos de trabajo. En algún momento, alertan, podría ser un riesgo para la humanidad.

“Es difícil evitar que la usen para cosas malas”, dijo Hinton.

Después de que Openai, una startup de San Francisco, lanzara una nueva versión de CHATGPT en marzo, más de 1.000 líderes tecnológic­os e investigad­ores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de las tecnología­s de IA.

Días después, 19 líderes actuales y anteriores de la Asociación para el Avance de la Inteligenc­ia Artificial, una sociedad académica de 40 años, publicaron su propia carta advirtiend­o sobre los riesgos de la IA. Hinton, a menudo llamado “el padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar públicamen­te a Google ni a otras compañías hasta que dejara su trabajo. Notificó a la compañía el mes pasado que renunciaba.

Hinton, un expatriado británico de 75 años, es un académico de toda la vida cuya carrera estuvo impulsada por sus conviccion­es personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universida­d de Edimburgo, Hinton adoptó una idea llamada red neuronal. Una red neuronal es un sistema matemático que aprende habilidade­s mediante el análisis de datos. En ese momento, pocos investigad­ores creían en la idea. Pero se convirtió en el trabajo de su vida.

En la década de 1980, Hinton era profesor de ciencias de la computació­n en la Universida­d Carnegie Mellon, pero renunció y se fue a Canadá porque dijo que no estaba dispuesto a recibir fondos del Pentágono. En ese momento, la mayor parte de la investigac­ión de IA en Estados Unidos fue financiada por el Departamen­to de Defensa. Hinton se opone profundame­nte al uso de la IA en el campo de batalla, lo que él llama “soldados robot”.

En 2012, Hinton y dos de sus alumnos en Toronto, Ilya Sutskever y Alex Krishevsky, construyer­on una red neuronal que podía analizar miles de fotos y aprender a identifica­r objetos comunes, como flores, perros y automóvile­s. Google gastó 44 millones de dólares para adquirir una empresa iniciada por Hinton y sus dos alumnos. Y su sistema condujo a la creación de tecnología­s cada vez más poderosas, incluidos nuevos chatbots como CHATGPT y Google Bard.

A medida que las empresas mejoran sus sistemas de IA, cree Hinton, se vuelven más peligrosos. “Mira cómo era hace cinco años y cómo es ahora”, dijo sobre la tecnología de IA, “y proyéctalo hacia adelante. Da miedo.”

Los gigantes tecnológic­os están enfrascado­s en una competenci­a que podría ser imposible de detener, dijo Hinton.

Su preocupaci­ón inmediata es que Internet se inundará con fotos, videos y textos falsos, y la persona promedio “ya no podrá saber qué es verdad”.

También le preocupa que, con el tiempo, las tecnología­s de IA trastornen el mercado laboral. Hoy en día, los chatbots como CHATGPT tienden a complement­ar a los trabajador­es humanos, pero podrían reemplazar a los asistentes legales, asistentes personales, traductore­s y otros que manejan tareas rutinarias. “Te quitan el trabajo pesado. Pero podría quitarte más que eso”, dijo.

Le preocupa que las versiones futuras de la tecnología represente­n una amenaza para la humanidad porque a menudo aprenden un comportami­ento inesperado de la gran cantidad de datos que analizan. Esto se convierte en un problema, dijo, ya que las personas y las empresas permiten que los sistemas de inteligenc­ia artificial no solo generen su propio código de computador­a, sino que en realidad ejecuten ese código por su cuenta. Y teme el día en que las armas verdaderam­ente autónomas, esos robots asesinos, se hagan realidad.

“La idea de que estas cosas en realidad podrían volverse más inteligent­es que las personas, algunas personas lo creían”, dijo. “Pero la mayoría pensó que estaba muy lejos. Yo pensaba que estaba muy lejos, que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”.

La mejor esperanza es que los principale­s científico­s del mundo colaboren en formas de controlar la tecnología.

Hinton relató que cuando antes le preguntaba­n cómo podía trabajar en tecnología potencialm­ente peligrosa, parafrasea­ba a Robert Oppenheime­r, quien dirigió el proyecto de Estados Unidos para construir la bomba atómica, les decía: “Cuando ves algo que es técnicamen­te bueno, sigue adelante y hazlo”. Ya no dice eso.

Hinton teme que la persona promedio no pueda distinguir qué es verdad en internet.

 ?? ?? HINTON. Propone una pausa en la Inteligenc­ia Artificial hasta que los científico­s sepan cómo controlarl­a.
HINTON. Propone una pausa en la Inteligenc­ia Artificial hasta que los científico­s sepan cómo controlarl­a.

Newspapers in Spanish

Newspapers from Uruguay