La amenaza de la nueva IA que le hará dudar de todo lo que ve
▶La empresa de ChatGPT crea Sora, una inteligencia artificial que genera películas hiperrealistas en segundos ▶La nueva herramienta eleva el riesgo de desinformación y fraude a gran escala: «La verdad tiene poco futuro»
Imagínese que, simplemente, tecleando una breve descripción de una o dos frases en una caja rectangular alojada en la pantalla de su ordenador es capaz de crear, en cuestión de segundos, un vídeo de un minuto en el que aparecen un par de mamuts lanudos corriendo a toda velocidad hacia usted por un prado nevado. O que tira de ingenio y surrealismo y le pide a la máquina que, en su lugar, cree una grabación de un astronauta, con un curioso gorro de lana rojo, que anda explorando un planeta deshabitado. Y, así, hasta el infinito. La imaginación es el límite. Y dentro de muy poco, si lo quiere, lo va a poder comprobar en el salón de casa. Usted y cualquiera con un dispositivo con conexión a internet; porque OpenAI, la empresa detrás de ese robot capaz de responder cualquier pregunta que tenga el usuario llamada ChatGPT, ya cuenta con una herramienta de inteligencia artificial (IA) generativa que lo permite. Su nombre es Sora (‘cielo’, en japonés), y en la Red no hay una sola herramienta que haga lo mismo tan bien.
OpenAI anunció la plataforma el pasado jueves. Según compartió en una publicación en su blog corporativo, el ingenio es capaz de crear vídeos hiperrealistas de hasta un minuto a partir, únicamente, de texto. Sam Altman, su director ejecutivo, incluso dedicó unas horas a compartir en redes sociales algunas imágenes de prueba realizadas a petición de los internautas que, por el momento, es lo único que van a poder ver de la plataforma, porque no hay fecha fijada para su lanzamiento al gran público. Aunque, atendiendo a la velocidad de crucero que ha tomado el desarrollo de la inteligencia artificial, y a la enorme competencia que hay actualmente entre las distintas tecnológicas, no debería demorarse más que unos meses.
Expertos consultados por ABC ya han expresado cierta preocupación por la llegada de ese momento. Destacan que Sora representa «un gran avance» o, incluso, «un cambio de paradigma», ya que se trata de una herramienta que, atendiendo a lo mostrado por la empresa detrás de ChatGPT, hoy por hoy no cuenta con rival en la Red. No hay una sola solución capaz de ofrecer resultados similares, con el mismo realismo. Y tampoco con un potencial mínimamente cercano para ser empleada con malos fines; especialmente para la creación de desinformación a gran escala.
«Es preocupante»
«Lanzar esto es como poner cuchillos poderosísimos en manos de todos los desinformadores para que puedan hacer con ello lo que quieran. Es preocupante», explica Ulises Cortés, investigador y catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña.
De acuerdo con el experto, con la llegada de Sora, que actualmente solo está al alcance de un reducido grupo de expertos que están analizando los posibles malos usos que se le puedan dar, «la verdad tiene cada vez menos futuro»; porque, con el paso del tiempo, y el avance de la tecnología, diferenciar lo que es real de lo que no va a ser cada vez más, y más, complicado. Especialmente para los que tengan unos «conocimientos más limitados sobre inteligencia artificial», como es el caso «de los niños y los ancianos». OpenAI lo sabe bien, y por eso ha prometido que, desde el momento del lanzamiento, todos los vídeos creados con Sora van a estar marcados para que el usuario pueda reconocerlos y no caer en error. Pero no está nada claro que estas marcas vayan a establecer grandes diferencias en la lucha contra la desinformación.
Sergio Álvarez-Teleña, cofundador de la empresa de IA SciTheWorld y miembro de la Asociación Global de Inteligencia Artificial, organismo dependiente de la OCDE y el G-7, ve problemas en el plan de la empresa: «Una marca de agua que diferencie una creación realizada con IA de otra hecha por un humano al final se puede borrar. Según las generas, te puedo hacer yo otro programa que, de forma automática, te la quita y ya está».
De acuerdo con Álvarez-Teleña, harán falta otros «mecanismos y protocolos» para que sea posible diferenciar lo que es real de lo que no. Para ello, pone como ejemplo lo que ocurre actualmente con las imágenes falsas que andan campando por internet. «Al final con los vídeos lo que hay que buscar es la trazabilidad. Yo, por ejemplo, si veo una noticia en ABC me la creo, pero si me encuentro con una imagen en Twitter que no sé de dónde sale, pues no. La gente va a tener que ir acos
«Lanzar esto es como poner cuchillos poderosísimos en manos de todos los desinformadores para que hagan lo que quieran»
tumbrándose a esto», remarca el experto. Y, además, la sociedad va a tener que hacerlo rápido, porque, a buen seguro, Sora no va a ser la única herramienta de estas características de aquí a unos meses.
Adelantarse
Facebook ya mostró a finales de 2022 una herramienta capaz de generar vídeo, aunque los resultados eran bastante más pobres de lo que ahora ha enseñado OpenAI. Y la siguiente podría ser Google, que durante los últimos meses no ha dejado de mejorar su tecnología de inteligencia artificial generativa.
«Si OpenAI ha decidido sacar esto de la cocina, no me cabe duda de que lo han hecho porque saben que otras empresas están trabajando en lo mismo y han querido adelantarse», señala Cortés. Aunque reconoce que, sobre el papel, Sora representa «un avance importante», el catedrático matiza que es complicado hacerse una idea clara sobre las capacidades reales hasta que OpenAI realice el lanzamiento en masa. «Realmente lo que han mostrado recuerda más a un proceso de animación convencional (como el que se puede utilizar en el cine)», dice Cortés. Pero no duda de que la tecnología seguirá evolucionando, porque, en este campo, el límite parece ser el cielo. Y el cielo es Sora.