Clarín

Pidieron un paper científico a ChatGPT, pero la aplicación de IA falló

Expertos de Israel le ordenaron procesar datos de una investigac­ión sobre salud. Pero la respuesta decepcionó.

- Irene Hartmann ihartmann@clarin.com

“Pusieron en marcha el sistema y se fueron a almorzar”, resume una nota de la revista Nature la experienci­a de dos científico­s israelíes que pusieron a prueba la capacidad de Chat GPT para escribir un paper científico. Crearon un software que dosifica a esta inteligenc­ia artificial (IA) informació­n de base sobre un tema de salud. Aunque los resultados fueron generados con una velocidad inalcanzab­le para un ser humano (se procesó y analizó una base de datos de 250 mil personas consultada­s sobre diabetes, su consumo de frutas y verduras y su nivel de actividad física) estuvieron lejos de ser brillantes.

Es un contexto de gran preocupaci­ón, no solo por el avance de la inteligenc­ia artificial sino también por los riesgos de la desinforma­ción y las fake news en todos los órdenes. La punta de ese iceberg son los papers retractado­s cada año por revistas científica­s que los habían revisado y publicado. La pregunta es por las implicanci­as de que científico­s hayan probado confeccion­ar un paper con ChatGPT y si podrían multiplica­rse aquellos con informació­n cuestionab­le o floja. El texto está online desde el 23 de junio, sin autoría, si bien la dupla impulsora fueron el biólogo y experto en Ciencia de Datos israelí Roy Kishony y su alumno Tal Ifargan, ambos del Instituto de Tecnología Technion, en Haifa, Israel.

Crearon un software que pudiera interactua­r con ChatGPT. Luego de compartirl­e la base de datos de 250 mil encuestas telefónica­s, el sistema creado por los humanos pidió a la IA que determinar­a un objetivo de estudio. ChatGPT obedeció.

Además se le ordenó generar una plan de análisis de datos y “código”, término clave en Informátic­a, que podría definirse como un alfabeto con instruccio­nes, algoritmos o fórmulas con que se podrá -entre otros- extraer patrones de comportami­ento. O sea, se pidió a ChatGPT la tarea de un ser humano programado­r, analista de datos, científico y encontrar algo nuevo. El resultado determinó que comer más frutas y verduras y hacer ejercicio está relacionad­o con un menor riesgo de desarrolla­r diabetes.

Nature describe el uso que los científico­s dieron a ChatGPT como el de quien apela a un “copiloto”, concepto

Los resultados que emitió ChatGPT fueron generados a una velocidad récord.

también usual en este ambiente. Es, no obstante, un término discutible: un copiloto asiste, pero también debe estar en condicione­s de tomar el mando. Nature apunta que “el artículo fue fluido, perspicaz y se presentó en la estructura esperada de un artículo científico”, pero admite, citando a los investigad­ores, que “hay muchos obstáculos que superar antes de que la herramient­a pueda ser realmente útil”.

Para comprender la gran falla de este trabajo hay que explicar la “alucinació­n”, un problema común de la IA “generativa” (productiva por sí misma, como el cerebro humano).

Juan Corvalán, director y cofundador del Laboratori­o de Innovación e Inteligenc­ia Artificial de la UBA, explicó: “se dice que ‘alucina’ cuando, ante cierta solicitud, orden o prompt, la IA genera contenido falso o sin sentido. Esto ocurre porque el sistema no razona en términos humanos. No puede contestar ‘no sé’ porque fue creada para analizar el contexto de la solicitud humana y, en base a su aprendizaj­e, emitir una respuesta”.

“Antes, si un chatbot conversaci­onal agotaba su fuente de conocimien­to, liberaba una respuesta por defecto del estilo de ‘disculpa, no tengo informació­n sobre lo que estás preguntand­o’, lo que no significab­a que contara con la inteligenc­ia humana como para identifica­r

aquello que no sabía. Era código de programaci­ón que determinab­a una respuesta por defecto ante ciertos casos. Estos nuevos sistemas intentan, en todos los casos, brindar alguna respuesta”, señaló.

El paper anuncia que “este estudio aborda un vacío en la literatura, al proporcion­ar evidencia sobre los efectos protectore­s de consumo de frutas y verduras y actividad física en relación con el riesgo de diabetes”. Según Nature, el software de los investigad­ores abrió dos conversaci­ones de ChatGPT, para recrear un virtual sistema de revisión por pares (“arbitraje”, “referato” o “peer review”). Al chatbot se indicó actuar como científico, escribir el artículo, hacer las veces de “revisor” y compartir al “científico” comentario­s constructi­vos. Pero el trabajo en tándem no ayudó. El científico informátic­o de la Universida­d Hebrea de Jerusalén Tom Hope (citado por Nature) advierte que los resultados no podrían sorprender a nadie y que el paper está lejos de ser novedoso.

Nada de esto sería tan problemáti­co si no fuera porque (por informació­n falsa, errónea, mal calculada o copiada) cada año, cientos de revistas científica­s retractan el aval dado a papers revisados y publicados en sus propias páginas. Cabe preguntars­e si esta herramient­a informátic­a representa una amenaza de mayor proliferac­ión de papers retractado­s.

El tema preocupa, ya que casi 4 mil trabajos son “echados para atrás” cada año y la cifra crece porcentual­mente sobre el total de publicacio­nes, informó a Clarín Ivan Oransky, uno de los creadores del observator­io Retraction Watch, con sede en Estados Unidos.w

 ?? REUTERS ?? Examen. ChatGPT fue puesto a prueba por dos científico­s.
REUTERS Examen. ChatGPT fue puesto a prueba por dos científico­s.

Newspapers in Spanish

Newspapers from Argentina