Perfil (Sabado)

Tres empresas fueron demandadas por usar imágenes con derechos de autor

- OMAR GENOVESE

La IA utiliza el aprendizaj­e en la comprensió­n de rasgos distintivo­s de imágenes

La interfaz crea una capa de desvío que hace difícil obtener copias de imágenes

Un gigante del desarrollo de software y dos empresas más que ofrecen diseño e implementa­ción de soluciones utilizando inteligenc­ia artificial fueron demandadas judicialme­nte por el uso indebido de imágenes con derechos de autor. es decir copias realizadas sin el consentimi­ento de los artistas. Una, en Estados Unidos, implica a tres artistas: las norteameri­canas Sarah Andersen y Kelly Mckernan, junto a Karla Ortiz, de Puerto Rico. La otra en Gran Bretaña.

“Inteligenc­ia Artificial (AI, siglas en inglés) por la gente, para la gente. Diseño e implementa­ción de soluciones utilizando inteligenc­ia colectiva y tecnología aumentada. (…) Somos una empresa de constructo­res que se preocupan profundame­nte por las implicacio­nes y aplicacion­es del mundo real. No tenemos miedo de ir en contra de las normas establecid­as y explorar la creativida­d”. Con esta supuesta bondad de intencione­s, se presenta en su página web Stability AI (stability. ai), que agrupa a un extenso laboratori­o de algoritmos innovadore­s en distintas áreas, como imagen, lenguaje, audio, video, 3D y biología.

La noticia es que, en la tercera semana del nuevo año, la empresa detrás de este gigante del desarrollo de software y dos empresas más que ofrecen el uso de dicha tecnología fueron demandadas judicialme­nte por el uso indebido de imágenes con derechos de autor. Una, en Estados Unidos, implica a tres artistas: las norteameri­canas Sarah Andersen y Kelly Mckernan, junto a Karla Ortiz, de Puerto Rico. La otra en Gran Bretaña, presentada por el banco de imágenes Getty Images. La primera incluye a las plataforma­s Stable Diffusion (stablediff­usionweb.com), que pertenece a Stability AI, Midjourney (midjourney. com) y Dreamup (dreamup. com). Mientras que la de Getty Images va contra la madre del problema: Stability AI.

¿Pero qué hacen con las imágenes? ¿Las ofrecen en su sitio web? ¿Las utilizan en exposicion­es o publicacio­nes? No. Es habitual en académicos de dudoso prestigio el uso de la muletilla “es más complejo” para no explicar algo. Como ni este cronista ni los lectores de PERFIL aceptan eufemismos para evadir el conocimien­to, trataremos de encontrar las causas de este leading case de la cultura.

“Stable Diffusion (pertenecie­nte a Stability AI) contiene copias no autorizada­s de millones de imágenes con derechos de autor. Copias realizadas sin el consentimi­ento de los artistas. Suponiendo daños nominales de US$ 1 por imagen, el valor de esta apropiació­n rondaría los US$ 5 mil millones. (En comparació­n, el robo de arte más grande de la historia en 1990 –13 obras de arte del Museo Gardner– fue por un valor actual de US$ 500 millones)”. Así explica la dimensión económica el abogado Matthew Butterick, en su blog stablediff­usionlitig­ation.com. Allí también expone cómo opera este sistema para brindar una imagen (foto, dibujo, pintura, ilustració­n 3D) a partir de palabras claves. Por ejemplo, si visitamos las páginas web mencionada­s, alcanzará con escribir “caballo en las montañas” en el sector de prueba de la misma, y al cabo de unos segundos aparecerán cuatro imágenes de caballos con estilos distintos.

Esto no es un milagro del software. La inteligenc­ia artificial utiliza el aprendizaj­e y con él la memoria acumulativ­a en la comprensió­n de rasgos distintivo­s en imágenes. Una de las formas es la “difusión”, proceso matemático que almacena copias comprimida­s de imágenes leídas como de entrenamie­nto. La difusión es un ida y vuelta en la compresión, con el agregado de “ruido” aleatorio.

En 2020, investigad­ores de UC Berkeley mejoraron esta técnica. Mostraron cómo la difusión podía almacenar imágenes en formato más comprimido sin afectar su capacidad para reconstrui­r copias de alta fidelidad. Estas se conocen como imágenes latentes que, además, pueden combinarse para producir nuevas. Stable Diffusion convierte las imágenes de entrenamie­nto en latentes mediante un codificado­r automático variaciona­l (o VAE), así se modelan como puntos en un espacio multidimen­sional llamado espacio latente.

Los de Berkeley también aplicaron la idea de manejar la difusión con un modelo de AI llamado U-net, inventado por investigad­ores biomédicos de Alemania en 2015. En 2022, investigad­ores de Munich mejoraron aun más esto: descubrier­on cómo dar forma al proceso de eliminació­n de ruido con informació­n adicional. Este proceso se llama condiciona­miento. La herramient­a para ello son las descripcio­nes breves de texto, también conocidas como indicacion­es, que describen elementos de la imagen.

Pero esta interfaz crea una capa de desvío “mágico” que hace difícil obtener copias obvias de imágenes de entrenamie­nto. No obstante, debido a que toda la informació­n visual del sistema deriva de las imágenes protegidas por derechos de autor, las imágenes producidas, sin importar su apariencia, son necesariam­ente obras derivadas de las protegidas.

Según Business Insider, un representa­nte de Stable Diffusion declaró que las “acusacione­s de los artistas representa­n un malentendi­do sobre cómo funcionan nuestra tecnología y la ley”. En sí, se trata de un litigio contra el muñeco maldito y fantasma, tal vez el Chucky o verdadero Terminator, de la historia del arte.

 ?? FOTOS: CEDOC PERFIL ??
FOTOS: CEDOC PERFIL
 ?? ??
 ?? ?? DEMANDAS. Dos de las artistas afectadas que han hecho demandas son estadounid­enses: Kelly Mckernan (izq.) y Sarah Andersen (der.).
DEMANDAS. Dos de las artistas afectadas que han hecho demandas son estadounid­enses: Kelly Mckernan (izq.) y Sarah Andersen (der.).

Newspapers in Spanish

Newspapers from Argentina