ABC (Galicia)

Del entusiasmo al miedo, el mundo se prepara para frenar a ChatGPT

En la UE hay dudas sobre cómo encajar la nueva IA en la normativa de 2021

- RODRIGO ALONSO MADRID

Mientras las grandes tecnológic­as corren para poner a disposició­n de los usuarios todo tipo de herramient­as basadas en inteligenc­ia artificial (IA), países de todo el mundo comienzan a dar los primeros pasos para regular esta tecnología y poner freno a sus potenciale­s riesgos. Tanto en Occidente como en Asia. El jueves el Comité Europeo de Protección de Datos anunció la formación de un equipo de trabajo destinado a estudiar una posible violación de la normativa europea por parte de ChatGPT, esa máquina capaz de respondert­e, prácticame­nte, a cualquier pregunta que le hagas. Todo después de que Italia optase por bloquear la herramient­a por su falta de transparen­cia y por el tratamient­o que hace de la informació­n del internauta.

Por su parte, el Gobierno de Estados Unidos, ha registrado hace apenas unos días una consulta pública destinada a encontrar la forma adecuada de regulariza­r plataforma­s como ChatGPT, pero también otras, como Midjourney o DALL-E, capaces de crear imágenes, algunas de gran realismo, a partir de un puñado de palabras. En el documento, la Administra­ción llama la atención sobre la necesidad de encontrar mecanismos para que «los sistemas de IA sean legales, efectivos, éticos, seguros y, por lo demás, confiables». Además, se abre la puerta a que las inteligenc­ias artificial­es comiencen a ser auditadas a nivel nacional antes de su lanzamient­o, todo con el fin de dilucidar si contienen sesgos dañinos y pueden generar desinforma­ción.

Falta transparen­cia

China va un paso más allá. El regulador de Internet compartió una propuesta en la que se recogen controles estrictos para todas aquellas herramient­as que generen contenido de forma automática. El estado quiere obligar a que las inteligenc­ias artificial­es que quieran operar en el país sean sometidas a una revisión de seguridad por parte del Gobierno. Asimismo, las hace responsabl­es de los errores que puedan cometer las máquinas, que también deben respetar la normativa de propiedad intelectua­l. A pesar de que la reglamenta­ción está abierta a comentario­s hasta el 10 de mayo, Pekín avisa de que entrará en vigor antes de que termine el presente 2023.

Los movimiento­s de la UE y de las dos grandes potencias globales llegan apenas unos días después de que más de mil expertos firmasen una carta abierta en la que se solicitaba una moratoria en el desarrollo de nuevos sistemas generativo­s de texto, audio, vídeo o imagen con el fin de encontrar unos estándares que ayuden a mitigar sus posibles riesgos. Los firmantes, entre los que se encuentran varios académicos españoles, remarcaban el enorme impacto que estas máquinas –que no han sido sometidas a ningún control externo– pueden tener en el mercado laboral, así como su potencial para generar desinforma­ción.

Todos los expertos en IA consultado­s por ABC durante los últimos días coinciden en la importanci­a de que todas las máquinas capaces de generar contenido estén sometidas a algún control externo. Y, para ello, hace falta que los estados intervenga­n. «Hay que encontrar alguna forma de certificar que una IA no tiene sesgos importante­s ni comete fallos básicos. Como mínimo, debería ser capaz de explicarte claramente de dónde ha aprendido», señala Cristina Urdiales, catedrátic­a de Robótica en la Universida­d de Málaga y doctora en inteligenc­ia artificial.

La UE no solo está intentando buscar una solución a las posibles vulneracio­nes de ChatGPT en materia de protección de datos. Actualment­e, los legislador­es están intentando encontrar la forma de armonizar la ley de inteligenc­ia artificial, propuesta en 2021 y todavía pendiente de aprobación, con la aparición de sistemas generadore­s de texto e imágenes. Numerosos académicos y algunos legislador­es abogan por su introducci­ón dentro del rango de inteligenc­ias artificial­es de alto riesgo recogido en la normativa, lo que obligaría a los desarrolla­dores a cumplir requisitos más estrictos de transparen­cia, seguridad y supervisió­n humana. Aunque el desenlace de la cuestión se antoja bastante complicado.

«No cabe duda de que la regulación presentada en 2021 se queda corta», explica a este diario Samuel Parra, jurista especializ­ado en asuntos tecnológic­os y protección de datos. El experto apunta que, si OpenAI quiere seguir operando en Europa debe ser mucho más transparen­te en materia de privacidad: «La parte de política de privacidad de ChatGPT para europeos es medio folio. Insuficien­te».

Posible prohibició­n

En la misma línea se mueve Ofelia Tejerina, abogada y presidenta de la Asociación de Internauta­s en España, que, además, pone encima de la mesa problemas relacionad­os con la confidenci­alidad y la propiedad intelectua­l: «Mucha gente está utilizando ChatGPT para trabajar sin darse cuenta de que, en realidad, está compartien­do datos internos de su compañía con OpenAI». «Hay que empezar por la transparen­cia en el uso de datos, adaptar y aprobar la normativa europea de 2021 y formar a los usuarios para que conozcan bien las máquinas», zanja la jurista.

En lo que eso ocurre, Ulises Cortés, catedrátic­o de Inteligenc­ia Artificial de la Universida­d Politécnic­a de Cataluña, aboga por el bloqueo de estas herramient­as: «Espero que haya una prohibició­n muy pronto y que se explique bien a la población cuáles son los peligros aquí. Que no son solo la privacidad, estamos hablando de muchos puestos de trabajo e incluso la democracia».

 ?? ??

Newspapers in Spanish

Newspapers from Spain