La Vanguardia

Openai no entiende cómo su IA toma las decisiones, según un estudio propio

Los modelos “se preocupan” por cosas diferentes a las que interesan a los humanos

- Francesc Bracero Bar elota

Funciona. No se sabe muy bien cómo, pero funciona. Con otras palabras, esta es una de las conclusion­es a las que Openai, la compañía de CHATGPT, ha llegado en una investigac­ión interna que ha tratado de descubrir la forma en la que los modelos de lenguaje toman sus decisiones. Su problema es de escala. Necesita encontrar un método que analice de forma fiable las decisiones de una red neuronal compuesta por millones de neuronas artificial­es. De momento, la empresa solo tiene “la esperanza” de haber encontrado un enfoque que le permita hacerlo en el futuro.

“Los modelos lingüístic­os son cada vez más capaces y están más extendidos, pero no entendemos cómo funcionan”, indica el trabajo de investigad­ores de Openai publicado el pasado jueves. La frase refuerza los argumentos de quienes alertan sobre la falta de seguridad de algunas de las IA que se están poniendo al alcance del público.

Openai matiza que “trabajos recientes han avanzado en la comprensió­n de un pequeño número de circuitos y comportami­entos limitados”, pero considera que “para entender completame­nte un modelo de lenguaje” es necesario “analizar millones de neuronas”. Como esto implica un gran trabajo, ha comenzado por usar una técnica que analice todas las neuronas de un modelo de lenguaje de forma automática.

No lo ha conseguido todavía, según los resultados de la investigac­ión publicada. Aunque su método no le ha permitido descubrir el funcionami­ento de las neuronas, espera que lo haga en el futuro. “Nuestra esperanza – señalan los investigad­ores– es que, partiendo de este enfoque de automatiza­ción de la interpreta­bilidad, nos permitirá auditar exhaustiva­mente la seguridad de los modelos antes de su despliegue”. Es decir, ahora no lo hacen pese a que GPT-4 está ya ampliament­e desplegado.

Las neuronas que componen una red neuronal de inteligenc­ia artificial son pequeños nodos de toma de decisiones que reciben informació­n, la procesan y la emiten, en un funcionami­ento que se asemeja al de las neuronas del cerebro humano, que están interconec­tadas con otras y toman decisiones según los estímulos que les llegan.

Para el estudio, Openai tomó su modelo de lenguaje GPT-4 actual y le hizo generar y evaluar explicacio­nes sobre cómo se comportan las neuronas en otro de modelo, GPT-2, que es mucho más pequeño que el primero. Los modelos se expresan mediante el bot CHATGPT.

En una búsqueda de las razones que impiden por el momento entender la forma en que la IA toma sus decisiones, los ingenieros de Openai apuntaron que podría deberse a que las neuronas pueden ser polisemánt­icas, estar ligadas a más de un concepto, lo que podría inducir a confusione­s. Otro factor a tener en cuenta es que los modelos lingüístic­os “pueden representa­r conceptos ajenos para los que los humanos no tienen palabras”. “Se preocupan por cosas diferentes, por ejemplo, construcci­ones estadístic­as útiles para tareas de predicción del siguiente token, o porque el modelo ha descubiert­o abstraccio­nes naturales que los humanos aún no han descubiert­o”, indica el trabajo de Openai.

La investigac­ión de la compañía demuestra que los modelos de los que se alimenta CHATGPT son de lo que se conoce como de “caja negra”. Se sabe que funcionan, pero no exactament­e de qué forma acaban tomando las decisiones a partir de la interacció­n entre sus neuronas. Algunos expertos apuntan a que la tarea de descifrar una “caja negra” de IA es prácticame­nte imposible de resolver.c

“Los modelos de lenguaje son cada vez más capaces, pero no entendemos cómo funcionan”, asegura

 ?? Olibert Teixidó ?? Openai no alcanza a comprender bien cómo funcionan sus modelos de inteligenc­ia artificial
Olibert Teixidó Openai no alcanza a comprender bien cómo funcionan sus modelos de inteligenc­ia artificial

Newspapers in Spanish

Newspapers from Spain