Es difícil saber si un texto fue escrito por IA
Hace unas semanas atrás, Openai hizo público que había podido desarrollar una herramienta capaz de detectar textos producidos por su herramienta de inteligencia artificial CHATGPT.
Esto podría haber sido recibido como la mejor noticia por muchos docentes preocupados de todas partes del mundo.
Sin embargo, no es para estar festejando tanto.
Openai ha sido duramente criticada por educadores, periodistas y varios otros especialistas por haber lanzado al mercado una herramienta tan potente como CHATGPT sin tener la más mínima capacidad de detectar su presencia en el texto generado.
La herramienta lanzada ahora intenta bajar esa presión pero sinceramente no es claro que vaya a lograrlo.
Según las estimaciones más optimistas, la herramienta puede detectar correctamente en el 26% de los casos textos que “probablemente hayan sido escritos por IA”.
Expertos en el tema aseguran que existen límites en la capacidad de una herramienta diseñada para detectar la invención de inteligencia artificial.
Es extremadamente improbable que sea posible el desarrollo de algo así con un 100% de efectividad, ya que es bastante difícil hacerlo cuando el objetivo primero de una herramienta de inteligencia artificial para generar textos es que parezcan escritos por una persona, asegura el profesor de Machine Learning Language en la Universidad de British Columbia, Muhammad Abdul-mageed, en un artículo publicado por la revista del MIT.
Algunos expertos aseguran que parte de que exista una IA ética y segura es que los humanos tengamos alguna forma de saber si un texto (o una imagen o lo que sea) fue creado por una herramienta de este tipo.
Un camino para llevar adelante esto es obligar a los desarrolladores de estas herramientas a incorporar una marca de agua, invisible para el ojo humano, que permita a través de código detectar que un texto fue desarrollado por una IA.
El problema con este método es que requiere que las compañías que desarrollan estas herramientas inserten la marca de agua en sus chatbots desde el inicio.
Openai está desarrollando este tipo de sistemas pero aún no lo ha incorporado en ninguno de sus productos.
¿Por qué?, se preguntan muchos. Y la respuesta es que tal vez, si Openai quiere monetizar su CHATGPT tal vez no sea tan atractivo vender una herramienta que es posible detectar.
Otra herramienta lanzada en estos días, llamada GPTZERO, es capaz de medir cuán aleatorios son los pasajes en un texto.
Los textos generados por IA en general usan las mismas palabras, mientras que los creados por personas suelen presentar mayores grados de variación.
“Será cada vez más fácil escribir correctamente, pero no será más fácil escribir de forma original”, lo dice el investigador en IA, Sebastian Raschka al MIT.
Lo cierto es que CHATGPT ha venido a cambiar radicalmente la forma en la que evaluamos los textos escritos.
En el futuro, es muy probable que ningún estudiante del mundo escriba un texto desde cero, y su objetivo pase por incorporar a un texto ya existente su voz y sus opiniones.
Esto lo asegura Raschka y agrega que probablemente los ensayos y textos generados por el CHATGPT eventualmente empiecen a parecerse cada vez más entre sí mientras las herramientas de IA van quedándose sin ideas, porque no dejan de estar constreñidas por la forma en la que fueron desarrolladas y los sets de datos con los que fueron entrenados.
Openai hizo público que desarrolló una herramienta capaz de detectar textos de CHATGPT.