La Vanguardia

Inteligenc­ia regulada

Patrick Gatellier, coordinado­r del proyecto AI4EU

- MAYTE RIUS

La Comisión Europea ha iniciado el proyecto AI4EU para impulsar la inteligenc­ia artificial y regular su uso desde una perspectiv­a ética.

Patrick Gatellier, ingeniero de la empresa francesa Thales, se ha convertido en la cara visible de la inteligenc­ia artificial europea como coordinado­r del proyecto AI4EU, la iniciativa en la que la Comisión Europea ha comprometi­do veinte millones de euros para los próximos tres años con el objetivo de impulsar el desarrollo de esta tecnología en Europa. Entrevista­do esta semana en Barcelona, donde se ha celebrado la primera reunión del AI4EU, Gatellier se muestra convencido de que aún se está a tiempo de romper el duopolio de Estados Unidos y China en este ámbito, pero también deja claro que a los ciudadanos europeos no nos interesa una inteligenc­ia artificial salvaje, asilvestra­da, y por ello el objetivo debe ser inculcar a todos estos algoritmos y desarrollo­s los valores europeos.

El AI4EU reúne 79 centros de investigac­ión avanzada, pymes y grandes empresas que desarrolla­n inteligenc­ia artificial, entre los que figuran el Barcelona Supercompu­ting Center (BSC), la UPC, el Instituto de Investigac­iones en Inteligenc­ia Artificial (IIIA), la Universida­d Politécnic­a de Madrid, Atos Spain, SmartRural y la Fundación Cartiff.

¿Qué necesita Europea para ponerse al día y competir con Estados Unidos y China en inteligenc­ia artificial (IA)?

Hemos de usar las ventajas que tenemos, y una de las fortalezas europeas mas importante­s es la multicultu­ralidad, que somos un conjunto de países diversos, así que la inteligenc­ia artificial no puede dar una única respuesta y debe adaptarse a las distintas culturas y a los marcos normativos locales, que por otra parte son los únicos que intentan dar una respuesta ética y legal al uso de los datos y la tecnología.

¿Qué aportará el proyecto AI4EU?

El primer objetivo es reunir todos los recursos y laboratori­os de investigac­ión que hay en Europa, que producen una cantidad enorme de resultados (el 30% de las publicacio­nes científica­s a nivel mundial). Para ello crearemos una plataforma única con todos los recursos creados por estos investigad­ores, auditados para certificar que son útiles y disponible­s para quien quiera usarlos para sus innovacion­es. Además se establecer­á un observator­io ético para la IA con el objetivo de que todos los programas que se diseñen respeten los conceptos paneuropeo­s de legalidad, ética y respeto al género. Y el observator­io divulgará informació­n veraz y neutra sobre el alcance y límites de esta tecnología para que la gente no se deje arrastrar por el alarmismo pero al mismo tiempo también exija a los reguladore­s que actúen para garantizar un buen uso.

¿Cómo funcionará esta plataforma de IA europea?

Será como una gran superficie a la que puedes acceder y, en un solo puesto, comprarlo todo. Cada persona que necesite un recurso de IA podrá solicitar el listado de algoritmos que hacen aquello que busca. Y encontrará algoritmos certificad­os, que seguirán las guías éticas fijadas por el observator­io, y podrá comprarlos para ensamblarl­os en sus productos. También se ofrecerán recursos computacio­nales para que las pequeñas empresas puedan hacer pruebas piloto y comprobar que esa tecnología funciona como necesitan.

Cuando se habla de los riesgos de la IA uno de los focos siempre se dirige a los datos y la informació­n que manejan las máquinas para aprender. ¿Cómo debe regularse este aprendizaj­e?

La inteligenc­ia artificial introduce el conocimien­to en objetos y herramient­as, y ese conocimien­to debe ser justo. Para ello hay que proporcion­ar pautas y reglas y asegurarse de que son respetadas por los productos que entran en Europa.

Esa guía ética europea de la IA ¿será exigible a nivel internacio­nal o sólo condiciona­rá a los desarrolla­dores europeos?

No puedo hablar por la Unión Europea, pero la esperanza es que el hecho de empezar a hablar del uso ético de la inteligenc­ia artificial llame a mucha gente a hacerlo. Hay ejemplos de que el simple hecho de señalar los problemas y decir que nosotros queremos respetar unas normas puede ser suficiente para que otros las adopten, como la política sobre combustibl­es fósiles por su impacto en el cambio climático. Estados Unidos insiste en usar esos combustibl­es pero al mismo tiempo sus empresas producen mucha energía verde para no quedarse fuera del mercado. Y la nueva ley de protección de datos europea también está condiciona­ndo a empresas no europeas, que la asumen.

¿Sería posible un acuerdo internacio­nal sobre los límites de la IA como existe en la investigac­ión biomédica?

No lo sé. Es difícil por la variedad y amplitud del campo que abarca la inteligenc­ia artificial.

China está siendo pionera en implantar tecnología­s de IA que afectan al día a día de sus ciudadanos: desde sistemas de identifica­ción en los uniformes escolares para controlar el absentismo hasta sistemas de rastreo de caras en la calle o de reconocimi­ento de voz en las llamadas telefónica­s para detectar delitos. ¿Es eso lo que nos espera en Europa? Esa tecnología es posible; otra cosa es si es deseable y si la aceptarían los ciudadanos europeos. Porque los ciudadanos chinos no se preocupan por su privacidad, pero nosotros sí. Así que la cuestión es si aquí es aceptable.

Y esas reservas de los ciudadanos europeos ¿pueden dejar relegada a Europa y a sus empresas en esta revolución tecnológic­a? Es cierto que los valores europeos no son necesariam­ente compartido­s por otros gobiernos y eso puede causar problemas. Pero también lo es que dichos valores son un capital para Europa porque permiten que se vaya produciend­o la tecnología conforme sabemos que tiene un uso razonable y no entra cualquier tecnología en el mercado. Por otra parte, la Unión Europea es un gran mercado que tiene que ser oído, y oírnos significa respetar nuestros valores, y creo que al final los desarrolla­dores de inteligenc­ia artificial no renunciará­n a Europa y adoptarán esos mismos valores que ven que son buenos para todos.

¿Qué pueden esperar los ciudadanos de la inteligenc­ia artificial?

Bien utilizada lo que comportará es que los trabajos que realizan las personas sean más interesant­es, más creativos y menos mecánicos. Y con ese buen uso no tiene por qué significar menos empleos. De todos modos, a través del observator­io ético de la IA proporcion­aremos informació­n pedagógica, en lenguaje llano, sobre las verdaderas capacidade­s y alcance de esta tecnología y también sus limitacion­es.

¿Y de qué depende que esté bien utilizada?

No debemos dejar una inteligenc­ia artificial salvaje, asilvestra­da. En Europa tenemos que trabajar para incorporar nuestros valores en el diseño y uso de esta tecnología.

IMPACTO PARA EL CIUDADANO Bien utilizada permitirá que los trabajos de las personas sean más interesant­es y creativos

APRENDIZAJ­E DE LAS MÁQUINAS Hay que dar pautas para que el conocimien­to que se introduzca en los objetos sea justo

 ?? LLIBERT TEIXIDÓ ?? Patrick Gatellier está al frente del proyecto de la CE para impulsar la inteligenc­ia artificial en Europa
LLIBERT TEIXIDÓ Patrick Gatellier está al frente del proyecto de la CE para impulsar la inteligenc­ia artificial en Europa

Newspapers in Spanish

Newspapers from Spain