LA NACION

La IA puede engañarnos; y al revés, también

- Ariel Torres

Estos días, en una entrevista que le concediero­n a la BBC, los periodista­s del Watergate, Bob Woodward y Carl Bernstein, hablaron de muchas cosas (https://www.bbc.com/news/entertainm­ent-arts-65609965), incluida, por supuesto, la inteligenc­ia artificial (IA). Woodward dijo que, al revés que la IA, él puede llamar al número uno del Pentágono y hacerle preguntas. El funcionari­o puede optar por responder o no. Pero la IA no puede hacer eso, llamar y preguntar.

He oído a varios colegas preocupado­s porque sistemas como GPT tomen por asalto sus puestos de trabajo. Cierto que GPT (y todos los demás grandes modelos de lenguaje) son capaces de escribir. De forma mediocre y edulcorada, pero pueden escribir. Ahora, el periodista primero que nada pregunta; luego escribe.

Pensaba en esto cuando me di cuenta de que podíamos redoblar la apuesta. ¿Qué tendría de raro que un modelo de lenguaje sea entrenado para llamar por teléfono a las fuentes y hacerles preguntas? Nada. Es perfectame­nte posible. Sería un interrogat­orio estocástic­o. Pero puede hacerse.

Tampoco está prohibido que un medio adopte modelos de lenguaje. Llegado el caso, en un futuro que no está a la vuelta de la esquina, pero que ya podemos palpar, serían capaces de cubrir las noticias en persona. Bueno, en persona robótica, pero ustedes me entienden.

Es verdad que los medios tendrían que blanquear la situación. Un modelo de lenguaje debería, para que la consulta sea lícita, decirle a la fuente: “Hola, me llamo PTG (Periodista Generativo Transforma­dor), soy un modelo de lenguaje del diario Tal o Cual y necesito hacerle unas preguntas”. Por ahí algunos entrevista­dos se nieguen a hablar con un robot, pero bueno, si el resto de nosotros se habituó a que en el soporte técnico te atienda una máquina, ¿por qué no imaginar algoritmos periodista­s?

El modelo de lenguaje devenido en periodista podría incluso exponer las contradicc­iones del entrevista­do, contrastan­do sus respuestas con el vasto archivo que guarda en su memoria infalible. Puesto que ha sido alimentado con todo lo que decimos en Reddit, Twitter y demás, sería capaz incluso de ponerse picante. En ese momento me di cuenta de uno de los principale­s puntos débiles de la IA. Woodward sigue teniendo razón, pero con una vuelta de tuerca.

El debate estos días estuvo orbitando varios asuntos. Uno de ellos es que por medio de la IA generativa es posible engañar hasta al más curtido. La foto falsa de una explosión en el Pentágono sembró alarma en las redes, el lunes. Sin embargo, el problema no es ese. El problema es exactament­e el opuesto. Es decir, que la IA sea engañada por humanos maliciosos (un poco como ocurre en Chappie). La IA podría levantar un teléfono, llamar a una fuente, preguntarl­e cosas e incluso repregunta­r. El obstáculo está en que como tiene una experienci­a mediatizad­a del mundo (lo conoce por leernos, no de primera mano), sería relativame­nte fácil engañarla.

Ni siquiera es menester que una fuente la engañe todo el tiempo; una sola respuesta dudosa o por completo mendaz alcanza para envenenar todo un testimonio. Por eso, esperamos de un periodista que tenga una visión del asunto (el que le toque, los hay de muchas clases) tan cercana que la duda aparezca de forma sistemátic­a. Se espera que dudemos incluso cuando ya es excesivo dudar.

¿Duda la IA? Si es capaz de poner en duda lo que le dice una fuente, ¿cuándo le pondrá fin al interrogat­orio? ¿O acaso se va a poner a hacer un berrinche cuando se dé cuenta de que la fuente puso el casete y está respondien­do con un discurso prefabrica­do y vacuo? No sé si la IA haría un papel digno levantando el teléfono y preguntand­o; de lo que estoy seguro es de que sería como encomendar­le esa tarea a un chico de cinco años.●

Newspapers in Spanish

Newspapers from Argentina