El ‘New York Times’ contra la IA
Ha demandado a OpenAI y Microsoft, lo que los periodistas debimos hacer con Altavista y Yahoo! en los 90
El ‘New York Times’ ha hecho con OpenAI y Microsoft lo que los diarios debieron hacer con Altavista, Yahoo y Google a finales de la década de 1990: presentar una demanda sobre derechos de autor para aclarar lo que era de dominio público y lo que no. No estoy seguro de que eso hubiese detenido la decadencia del papel impreso, pero posiblemente hubiese adelantado la llegada de los irritantes muros de pago, que saltan en todos los dispositivos pese a que hemos introducido miles de veces las contraseñas, y hubiese permitido que el derecho sobre propiedad intelectual y el de la competencia se hallaran en otro estadio evolutivo.
La demanda es por infracción a los derechos de autor y por el uso no autorizado de su contenido para entrenar los Grandes Modelos de Lenguaje (LLM en inglés) que son los programas de aprendizaje automático –supuestamente inteligencia artificial (IA)– que están detrás de ChatGPT, Bard y otras aplicaciones. La acción legal sostiene que millones de sus artículos se han utilizado para entrenar a estos chatbots y que todo ese material ahora es usado sin que reporte ningún beneficio al diario.
Al margen de los daños y perjuicios, el ‘New York Times’ exige que todos los LLM que hayan sido entrenados con sus textos sean destruidos por orden judicial. Si los tribunales le dan la razón al diario, ChatGPT y otros chatbots tendrán que volver a una fase previa a noviembre de 2022.
La demanda recoge ejemplos de cómo GPT-4, el chatbot de pago de OpenAI, reproduce casi calcados algunos textos publicados por el diario en 2012. También ChatGPT cae en el fenómeno de la ‘alucinación’ que es cuando empieza a atribuir hechos inventados a estudios científicos inexistentes o a fuentes autorizadas como es en este caso el mismo ‘New York Times’.
Si este caso sigue adelante puede tener consecuencias trascendentales para la actividad cultural e informativa. Primero, habrá que determinar quién le facilitó los contenidos a ChatGPT. No es lo mismo que los artículos hayan sido cargados por sus ‘padres’, los programadores de OpenAI, a que lo haya hecho un usuario cualquiera interactuando con el chatbot. En el segundo caso, OpenAI o Microsoft podrían alegar que alguien le leyó un artículo al chatbot y este aprendió de allí, de la misma manera que lo haría un humano al que le leyeron el diario.
La demanda va a poner a prueba los límites legales que surgen con las nuevas tecnologías de IA generativa (llamadas así por los textos, imágenes y otros contenidos que pueden crear tras procesar grandes conjuntos de datos) y la supervivencia misma del periodismo como lo hemos conocido. La información periodística, como recuerda el diario en la demanda, no está flotando en el aire. Producirla es costoso, lleva tiempo y a menudo comporta riesgos no evidentes. Decidle a ChatGPT que se vaya a Gaza a contar lo que sucede.