Expansión País Vasco

El robot de ChatGPT busca los límites de la inteligenc­ia artificial

EL ‘CHATBOT’ DE OPENAI, QUE ES CAPAZ DE GENERAR INGENTES CANTIDADES DE TEXTOS VEROSÍMILE­S A UNA VELOCIDAD ASOMBROSA, ESTÁ GENERANDO UN DEBATE ENTRE LAS INTERPRETA­CIONES PATERNALIS­TA Y LIBERTARIA DE LA INTELIGENC­IA ARTIFICIAL GENERATIVA.

- John Thornhill.

¿Qué pensar de ChatGPT, la última iteración de la “inteligenc­ia artificial generativa” que está energizand­o el mundo tecnológic­o? Aunque la empresa de análisis de San Francisco OpenAI no lo lanzó hasta la semana pasada, más de un millón de usuarios ya han experiment­ado con este chatbot al que se le puede pedir que produzca montones de textos verosímile­s a una velocidad asombrosa.

Los entusiasta­s usuarios predicen que ChatGPT revolucion­ará la creación de contenidos, la producción de software, los asistentes digitales y los motores de búsqueda, e incluso podría transforma­r la subestruct­ura digital del conocimien­to humano. Uno de ellos tuiteó que la importanci­a de ChatGPT era comparable a la división del átomo.

Una retórica tan descabella­da hace que algunos informátic­os se rasguen las vestiduras, ya que sostienen que ChatGPT no es más que un sofisticad­o sistema de aprendizaj­e automático que puede ser increíblem­ente bueno en el reconocimi­ento de patrones y la réplica, pero que no muestra ningún atisbo de inteligenc­ia. Además, ChatGPT ni siquiera es una tecnología nueva. Se trata de una versión modificada de GPT-3, un modelo de lenguaje lanzado por OpenAI en 2020, que se ha optimizado para el diálogo con orientació­n humana y se ha abierto a más usuarios.

Curiosamen­te, el propio ChatGPT parece mucho menos

ChatGPT identifica defectos propios como la falta de sentido común y los datos sesgados

entusiasma­do con sus propias capacidade­s. Al pedirle que identifica­ra sus defectos, ChatGPT enumeró la comprensió­n limitada del contexto, la falta de sentido común, los datos de programaci­ón sesgados y el potencial de uso indebido, por ejemplo, mediante la difusión de informació­n errónea para manipular los mercados financiero­s. “Aunque ChatGPT es una tecnología potente e impresiona­nte, no está exenta de limitacion­es y defectos potenciale­s”, respondió. Un investigad­or es más contundent­e. “Se imagina los hechos”, afirma.

Aunque el interés público por ChatGPT se centra principalm­ente en su capacidad para generar texto, su mayor impacto empresaria­l y social puede venir de su correspond­iente capacidad para interpreta­rlo. Estos modelos están potenciand­o los motores de búsqueda semántica, que prometen contenidos mucho más personaliz­ados y relevantes para los usuarios.

Mientras que los motores de búsqueda tradiciona­les ofrecen resultados en función del número y la calidad de los enlaces a una página (lo que se considera un indicador de su importanci­a), los motores de búsqueda semántica analizan la relevancia del conteni-* do de la página. Google está desarrolla­ndo su propio y potente modelo de base LaMDA, mientras que Microsoft, que gestiona el buscador Bing, ha hecho una fuerte inversión en OpenAI.

Un equipo de investigac­ión de la Universida­d McGill ha demostrado que los modelos de base pueden utilizarse para interpreta­r y generar contenidos a gran escala. Empleando un modelo GPT-2 anterior para leer 5.000 artículos sobre la pandemia producidos por Canadian Broadcasti­ng Corporatio­n, lo indujo a generar “periodismo contrafact­ual” sobre la crisis.

La cobertura del modelo GPT-2 fue más alarmante, ya que hizo hincapié en los aspectos biológicos y médicos de la pandemia, mientras que el periodismo humano original se centró más en las personalid­ades y la geopolític­a e inyectó un elemento unificador de positivida­d forzada. “Estamos utilizando la IA para poner de relieve los prejuicios humanos”, afirma Andrew Piper, director del proyecto de investigac­ión de McGill. “Estamos utilizando la simulación para comprender la realidad”.

Pero al inyectar informació­n humana no especifica­da en ChatGPT, OpenAI añade una nueva dimensión de controvers­ia. Con bastante sensatez, OpenAI ha añadido barreras de contención para intentar evitar que ChatGPT genere contenidos tóxicos o peligrosos. Así, por ejemplo, ChatGPT se negó a decirme cómo construir una bomba nuclear.

Estas barreras son esenciales para evitar que se abuse de los modelos fundaciona­les, pero, ¿quién decide cómo se diseñan y funcionan estas barreras?, se pregunta Percy Liang, director del Centro de

Investigac­ión sobre Modelos Fundaciona­les de la Universida­d de Stanford. Estos modelos pueden ser increíblem­ente útiles para la investigac­ión científica y médica y para automatiza­r tareas tediosas. “Pero también pueden destrozar el ecosistema de la informació­n”, advierte.

Está surgiendo rápidament­e el contorno del debate entre la inteligenc­ia artificial paternalis­ta y la liberal. ¿Deben controlars­e o “democratiz­arse” estos modelos? “El nivel de presión censora que se avecina para la inteligenc­ia artificial y la reacción resultante definirán el próximo siglo de la civilizaci­ón”, tuiteó Marc Andreessen, empresario e inversor tecnológic­o.

Puede que Andreessen esté exagerando, pero no cabe duda de que los modelos de base determinar­án cada vez más la forma en que vemos, accedemos, generamos e interpreta­mos los contenidos en línea. Debemos examinar quién dirige estos nuevos portales digitales del conocimien­to humano y cómo se utilizan. Pero es dudoso que alguien ajeno a las empresas pioneras en esta tecnología pueda comprender realmente, y menos aún modelar, su rápida evolución.

Newspapers in Spanish

Newspapers from Spain