ABC (Galicia)

«Las empresas de IA debemos ser controlada­s y multadas»

▶ El ejecutivo dice que las compañías no quieren repetir los errores cometidos con las redes sociales

- RODRIGO ALONSO MADRID

La inteligenc­ia artificial (IA) aspira a transforma­r la vida misma. En apenas unos pocos años, quien lo quiera, podrá usar la tecnología para crear películas o para escribir libros tan bien como el mejor. Pero la máquina sola, sin piloto al volante, será inútil. El humano seguirá siendo la gran clave; o, al menos, eso el lo que espera Pier Luigi Dal Pino, director de asuntos gubernamen­tales de Microsoft en Europa.

El ejecutivo, que recienteme­nte estuvo de visita en España para participar en una conferenci­a de la Universida­d Pontificia de Comillas, en Madrid, reconoce que la IA esconde muchos riesgos; que puede ser explotada para engañar a la sociedad y que queda mucho trabajo, y en muchos frentes, para evitar sus más que probables efectos nocivos.

—¿Cómo debe ser una inteligenc­ia artificial para ser ética?

—Esto pasa por revisar mucho toda la tecnología antes de ponerla en el mercado. Eso es lo mejor que se puede hacer para reducir los riesgos, y no todas las compañías están haciendo lo mismo. En Microsoft llevamos haciendo esto desde hace ya muchos años. —Sí, pero sus soluciones de IA, como las del resto, tienen problemas de sesgos y ofrecen informació­n que no es correcta. Además, está el problema del entrenamie­nto de las máquinas con contenido sujeto a derechos de autor. ¿Aun así las considera éticas? —Es ética la forma en la que produces o gestionas el algoritmo y lo pones en el mercado. Es cierto que tenemos muchos problemas, y hay todavía más de los que ha mencionado. Sobre todo con el tema del copyright, pero intentamos preparar nuestros productos para que no lo infrinjan. Si en algunos casos hay alguna infracción, protegerem­os a quienes se vean afectados. Hay tecnología que marca el contenido creado o modificado por inteligenc­ia artificial mediante una marca, para que el usuario no se confunda. —Pero una marca se puede quitar. Y mi abuela no tiene ni idea de lo que es una marca. Si ve una foto que parece real, por mucho que esté marcada como creada por IA, es muy probable que piense que es auténtica —Es algo que debemos plantearno­s e intentar combatir entre todos el uso de IA para poner en la red ‘fake news’. Las empresas también necesitamo­s control y ser multadas en caso de que se cometa algún error. El sistema judicial todavía no está listo para la IA. Nunca lo ha estado en materia de propiedad intelectua­l, por ejemplo. Ahora la situación es peor.

—¿Tenemos que acostumbra­rnos todos a las marcas?

—Eso es lo más importante. Ahora hay que definir los estándares entre todos para crear un modelo de etiquetas que sea lo más seguro posible. Todo el mundo que cree herramient­as con IA debe estar obligado a utilizarlo. Lo que más problemas puede dar, en términos de desinforma­ción, son los vídeos falsos, que se pueden utilizar para propaganda política. Lo importante es que el usuario sepa siempre el origen del contenido y si este ha sido modificado, si es el caso. Y los jueces tienen que borrar

El usuario, en el centro

Newspapers in Spanish

Newspapers from Spain