ABC (Andalucía)

«Las empresas de IA debemos ser controlada­s y multadas»

► El ejecutivo dice que las compañías no quieren repetir los errores cometidos con las redes sociales

- RODRIGO ALONSO MADRID

La inteligenc­ia artificial (IA) aspira a transforma­r la vida misma. En apenas unos pocos años, quien lo quiera, podrá usar la tecnología para crear películas o para escribir libros tan bien como el mejor. Pero la máquina sola, sin piloto al volante, será inútil. El humano seguirá siendo la gran clave; o, al menos, eso el lo que espera Pier Luigi Dal Pino, director de asuntos gubernamen­tales de Microsoft en Europa.

El ejecutivo, que recienteme­nte estuvo de visita en España para participar en una conferenci­a de la Universida­d Pontificia de Comillas, en Madrid, reconoce que la IA esconde muchos riesgos; que puede ser explotada para engañar a la sociedad y que queda mucho trabajo, y en muchos frentes, para evitar sus más que probables efectos nocivos.

—¿Cómo debe ser una inteligenc­ia artificial para ser ética?

—Esto pasa por revisar mucho toda la tecnología antes de ponerla en el mercado. Eso es lo mejor que se puede hacer para reducir los riesgos, y no todas las compañías están haciendo lo mismo. En Microsoft llevamos haciendo esto desde hace ya muchos años.

—Sí, pero sus soluciones de IA, como las del resto, tienen problemas de sesgos y ofrecen informació­n que no es correcta. Además, está el problema del entrenamie­nto de las máquinas con contenido sujeto a derechos de autor. ¿Aun así las considera éticas?

—Es ética la forma en la que produces o gestionas el algoritmo y lo pones en el mercado. Es cierto que tenemos muchos problemas, y hay todavía más de los que ha mencionado. Sobre todo con el tema del copyright, pero intentamos preparar nuestros productos para que no lo infrinjan. Si en algunos casos hay alguna infracción, protegerem­os a quienes se vean afectados. Hay tecnología que marca el contenido creado o modificado por inteligenc­ia artificial mediante una marca, para que el usuario no se confunda.

—Pero una marca se puede quitar. Y mi abuela no tiene ni idea de lo que es una marca. Si ve una foto que parece real, por mucho que esté marcada como creada por IA, es muy probable que piense que es auténtica

—Es algo que debemos plantearno­s e intentar combatir entre todos el uso de IA para poner en la red ‘fake news’. Las empresas también necesitamo­s control y ser multadas en caso de que se cometa algún error. El sistema judicial todavía no está listo para la IA. Nunca lo ha estado en materia de propiedad intelectua­l, por ejemplo. Ahora la situación es peor.

—¿Tenemos que acostumbra­rnos todos a las marcas?

—Eso es lo más importante. Ahora hay que definir los estándares entre todos para crear un modelo de etiquetas que sea lo más seguro posible. Todo el mundo que cree herramient­as con IA debe estar obligado a utilizarlo. Lo que más problemas puede dar, en términos de desinforma­ción, son los vídeos falsos, que se pueden utilizar para propaganda política. Lo importante es que el usuario sepa siempre el origen del contenido y si este ha sido modificado, si es el caso. Y los jueces tienen que bo

❝ El usuario, en el centro «El humano siempre controlará a la IA. La máquina podrá hacer películas, pero habrá que explicarle cómo»

rrar el contenido de internet.

—Decía durante la conferenci­a anterior que hace veinte años las redes sociales llegaron a la red sin que las empresas se preocupase­n demasiado por los peligros. ¿Con ChatGPT no pasó exactament­e lo mismo?

—No. ChatGPT es una tecnología, no un espacio social, abierta a los usuarios. Es una herramient­a de apoyo. En el caso de Microsoft hemos metido la tecnología en servicios que ya existen, como Office. Hace años con las redes sociales solo se veían las ventajas y ahora nos estamos centrando, desde el primer momento, en los problemas que puede causar la IA. Nos estamos planteando muchas cuestiones de este tipo y lo estamos haciendo mucho antes de tiempo. Y lo repito, ChatGPT es una herramient­a, no un foro.

—Queda claro, pero nadie sabe bien cómo ha sido entrenado.

—Sí, bueno, es un algoritmo que depende del uso que se le dé. Nosotros lo aplicamos a nuestros productos en un ambiente muy controlado.

—¿Nos va a dejar obsoletos o sin trabajo?

—Algunos trabajos se verán afectados por la inteligenc­ia artificial. Estamos ante una gran revolución, y como pasa en estos casos, surgirán nuevos empleos y desaparece­rán otros. Está claro que, desde luego, va a cambiar la forma en la que creamos y va a haber nuevas oportunida­des. Algunos trabajos muy rudimentar­ios serán eliminados y los que los llevan a cabo tendrán que hacer otras cosas.

—¿Por ejemplo?

—Por ejemplo, en una empresa de marketing los manuales de uso de productos los podrá traducir directamen­te la inteligenc­ia artificial, y los que antes se dedicaban a eso podrán hacer otras cosas más complejas. Por ejemplo, pensar en cómo vender lo que ofrece la compañía.

—¿Veremos una IA que escriba mejor que un escritor o que haga películas de mayor calidad que las de un director de cine?

—No. El humano siempre será el que controlará esas herramient­as. La inteligenc­ia artificial puede crear por sí misma una película, pero es el usuario el que le tendrá que explicar cuál es el argumento y cómo quiere la escenograf­ía. La tecnología debe ser entendida como un apoyo, pero no veo a la máquina haciendo todo el trabajo.

—Pero, entonces, todos podremos ser escritores o directores.

—Probableme­nte, pero los directores y escritores seguirán existiendo. Vale lo mismo para la música.

—¿Y la tecnología podría acabar con la humanidad, como alertan algunos expertos?

—El riesgo siempre existe, porque no sabemos cómo pueden emplear la IA determinad­os actores. Por eso son necesarias las barreras de seguridad.

—¿Cómo se imagina el mundo de dentro de diez años?

—Me imagino dos o tres revolucion­es digitales. El potencial de la computació­n y de las máquinas será enorme, y los chips habrán mejorado mucho.

Newspapers in Spanish

Newspapers from Spain