Los expertos reclaman regular la inteligencia artificial en las noticias
Una pléyade de expertos globales en la comunicación reunidos en Perugia, capital de la región italiana de Umbría que alberga estos días la 18ª edición de su Festival Internacional de Periodismo, dedicaron la jornada de ayer a reflexionar sobre el empleo de la inteligencia artificial (IA) en las redacciones. Las respuestas a la gran pregunta sobre cómo controlar su uso en el desarrollo de información encuentran un eje común: “Regulación”. Así es como Emily Bell, directora del Tow Center for Digital Journalism en la Escuela de Periodismo de Columbia (Universidad de Nueva York), defendió iniciativas como la pionera legislación aprobada en la Eurocámara y aún pendiente de entrar en vigor. “Simplemente es mejor tener regulación que carecer de ella”.
Bell, de 58 años, que *atesora una prestigiosa carrera desarrollada durante décadas en el diario británico The Guardian, ilustró así su defensa de las leyes para controlar tecnologías cuyos efectos aún son difíciles de predecir. “En una ocasión traje a mis clases a un colega ruso que mostró a los alumnos un bot de Telegram creado en su país que proporcionaba información de los ciudadanos. Introdujo el nombre de una persona al azar y de inmediato aparecieron todos sus datos médicos, financieros, de consumo… Regular el uso de estas herramientas no es lo peor que puede pasarnos”.
Bell coincidió en el Palazzo Graziani, enclavado en el centro histórico de Perugia, con Ritu Kapur, cofundadora y vicedirectora del grupo que edita el medio digital indio The Quint; y con Natali Helberger, experta en legislación europea proveniente de la Universidad de Ámsterdam y una de las fundadoras del AI Media and Democracy Lab. El debate entre ellas sobre la regulación de la IA en —y para— las noticias estuvo moderado por Felix Simon, del Oxford Internet Institute. Kapur incidió en que la regulación debe operar en dos instituciones esenciales en las democracias: los gobiernos y los medios de comunicación. “Los gobiernos deben regular el uso que hacen de la IA para fomentar su propia agenda. La utilizan en sus campañas, que en muchas ocasiones incluyen el empleo de deep fake [o falso profundo desarrollado con generación de contenidos falsos y apariencia real]. Y lo mismo han de hacer los medios para informar con estas herramientas. Las redacciones tienen que autorregularse, con una guía editorial propia para el empleo de la tecnología”.
Los profesionales de The Quint, el medio que lidera Kapur, están desarrollando pruebas que ayuden a los redactores a resumir grandes documentos. “Pero no para uso editorial”, aclara antes de afirmar que el propósito de informar mediante una tecnología artificial “no puede comprometer derechos humanos ni libertades civiles”. Bell recuerda que “tiene que haber pactos, relacionados con su uso para propósitos honestos, cómo desarrollar las reglas y que se pague un precio justo”.
Entre los medios que tienen acuerdos con estas compañías está Prisa Media (editora del diario EL PAÍS), que ha firmado junto con Le Monde un acuerdo con OpenAI que permite a los usuarios de ChatGPT interactuar en torno a la actualidad con contenidos de publicaciones como EL PAÍS, Cinco Días, AS y El Huffpost.