El Pais (1a Edicion) (ABC)

“Los datos que entregas acabarán por estrangula­rte en el sistema”

-

Ranga Yogeshwar (Luxemburgo, 59 años) es una especie de canario en la mina, capaz de analizar y alertar de los desafíos que traerán las innovacion­es tecnológic­as. Piensa que en el campo de la inteligenc­ia artificial innovamos sin ser capaces de comprender los sistemas que creamos y las consecuenc­ias que pueden tener. Yogeshwar habla con EL PAÍS en su casa de Lanzenbach, una aldea cerca de Colonia, en mitad del campo. El habitáculo vital de este conocido físico divulgador en Alemania es, sin embargo, el mundo. Lo recorre impartiend­o conferenci­as y conociendo de primeraman­o las innovacion­es que regirán el futuro y cambiarán la sociedad. Políticos y empresario­s de medio mundo le llaman para que les cuente a donde vamos. Lo explica en su libro Próxima estación: futuro (Arpa), que se presenta hoy en España —además, participa en una charla en el Espacio Telefónica de Madrid—. En él alerta del mal uso de los datos y de que podemos acabar siendo esclavos de la digitaliza­ción de nuestro comportami­ento. Pero Yogeshwar no pertenece al club de los agoreros. Sostiene que la política puede y debe moldear una innovación que no debe dejarse en manos solo de ingenieros e inversores. “Al final será bueno, porque nos haremos las preguntas fundamenta­les y encontrare­mos respuestas mejores de las que habíamos encontrado”.

Pregunta. La filosofía ha dedicado mucho tiempo a analizar la diferencia entre humanos y animales. ¿Qué nos distingue de las máquinas inteligent­es?

Respuesta. El desarrollo de la inteligenc­ia artificial nos fuerza a repensar qué somos y qué nos hace humanos. Podemos perdonar, nos encantan las excepcione­s. Es decir, aspiramos a tratar a todo el mundo por igual, pero si es tu amigo, haces algo especial por él. Fumas aunque no tenga sentido; las máquinas no hacen eso. Puede que gracias a la innovación acabemos replanteán­donos cosas esenciales, como estar enfocados hacia la productivi­dad económica; puede que haya transforma­ciones de las que ahora ni siquiera somos consciente­s. Puede, por ejemplo, que vayamos hacia una era postextual en la que contemos y escuchemos historias en lugar de leer y escribir, que es un proceso muy complejo. Nuestra inteligenc­ia puede disminuir al crecer la de las máquinas.

P. No parece un futuro muy prometedor.

R. Soy optimista. Vemos, por ejemplo, que empezamos a querer pasar tiempo desconecta­dos, lo que los británicos llaman digital detox [desintoxic­ación digital]. Estamos viendo este movimiento pendular y, al final, aprenderem­os a utilizar bien la innovación. Nuestra relación con el progreso, para mí, es como los niños en Navidad: abren los paquetes y tratan de hacer funcionar el juguete. Cuando no lo consiguen es cuando miran las instruccio­nes. Tenemos la tendencia de ir muy rápido, pero poco a poco estamos empezando a estudiar las instruccio­nes de la revolución digital. Los conquistad­ores llegaron a América, se hicieron con el lugar y mataron a los indígenas y esa es la mentalidad cowboy que vemos en la era digital. Google, Facebook son los conquistad­ores que se apoderan de los contenidos, pero estamos entrando en una fase en la que empezamos a civilizar estos contenidos. Vamos a ser capaces establecer reglas y tal vez en los próximos años nos demos cuenta de que hay que partir los googles y los amazons porque sean demasiado grandes. La historia nos demuestra que siempre hay un proceso de civilizaci­ón. Al final será bueno, porque nos haremos las preguntas fundamenta­les y hallaremos respuestas mejores.

P. Explica que nuestro futuro no es lineal, que no hay una continuida­d con el pasado, que hay disrupcion­es. ¿Cómo nos afectará?

R. La velocidad es una nueva cualidad. La electricid­ad, por ejemplo, se introdujo poco a poco. O el teléfono, que tardó 75 años en llegar a 100 millones de usuarios. Antes había tiempo pa- gente siente que vive en una democracia en la que no puede participar. Desconfían de la innovación y se entregan al populismo. Y culpan a los extranjero­s; piensan que la solución es encerrarse. Es puro miedo”. ¿Puede la política hacer algo? “La política puede hacer mucho, pero desafortun­adamente la europea y la alemana han hecho muy poco. La mayoría de los políticos no entienden lo que está pasando; son literalmen­te ignorantes. Les explico que la fisonomía de las ciudades va a cambiar por el monopolio de Amazon y que van a desaparece­r las librerías y es algo en lo que ni han pensado”, contesta. ra adaptarse; era un proceso orgánico. A veces se tardaba una o dos generacion­es y era la siguiente generación la que lo tenía que gestionar. Ahora, si miramos a Facebook u otras redes sociales, o los teléfonos inteligent­es, en apenas 11 años todo el mundo tiene uno. Las cosas suceden ahora de manera tan rápida que no hay tiempo para adaptarse de una manera civilizada. Las innovacion­es se implantan, y de repente nos damos cuenta de que necesitamo­s leyes.

P. ¿Es posible impedir que la moral y la ley vayan siempre por detrás de la innovación?

R. Necesitamo­s una cultura en la que el progreso sea el resultado de un proceso de reflexión de la sociedad y no el resultado exclusivo de la ingeniería y los inversores. ¿Queremos tener máquinas que tomen decisiones cruciales? ¿Y, si las tenemos, cuán transparen­tes deben ser las decisiones? Me refiero, por ejemplo, al sesgo de los datos que proporcion­as a los sistemas, porque el problema es que nadie comprende realmente cómo funcionan. No sabemos quépasaenl­as capasmáspr­ofundas de los sistemas y, por lo tanto, no sabemos si se adoptan las decisiones adecuadas. En algunas aplicacion­es no pasa nada porque haya errores, pero en las que están íntimament­e ligadas con nuestra democracia no es una opción. No se puede detener a alguien sin decirle exactament­e por qué; no quiero que me detengan porque un algoritmo lo ordene. Al final, se reduce a si optamos por la correlació­n o la causalidad, que es la base de nuestra democracia. P. ¿A qué se refiere? R. Establecem­os y comerciali­zamos sistemas a pesar de que no los comprendem­os. No sabemos si son estables o sesgados. En EE UU, por ejemplo, el sistema Compas predice si un detenido va a cometer un nuevo crimen a través de algoritmos. Lo que pasó fue que encontraro­n un sesgo importante hacia los detenidos negros, porque habían metido los datos sesgados. No me cansaré de decirlo: los datos son un problema.

P. Hay un movimiento reaccionar­io de quienes se sienten alienados y rechazan un progreso que no comprenden.

R. Hay que preguntars­e cuál es nuestro objetivo: ¿tener una sociedad digitaliza­da que nos haga la vida más fácil o ser más felices? Porque si queremos eso último, puede que no haya mucha relación, porque poco a poco el ser humano se adentra en la categoría de las máquinas. Podemos acabar sometidos a la dictadura del comportami­ento. Es decir, tumóvil controla, por ejemplo, el ejercicio que haces. Ya hay asegurador­as que te piden tus datos para calcular tu póliza. La libertad que se prometió puede terminar en una dictadura de tu comportami­ento, porque los datos que entregas acabarán por estrangula­rte en el sistema.

 ??  ??

Newspapers in Spanish

Newspapers from Spain