La Vanguardia

Una sociedad de cajas negras

- Daniel Innerarity D. INNERARITY, catedrátic­o de Filosofía Política e investigad­or Ikerbasque en la UPV. Acaba de publicar el libro ‘Una teoría de la democracia compleja’ (Galaxia Gutenberg). @daniinnera­rity

Vivimos en una sociedad que está llena de cajas negras para nosotros, mecanismos, sistemas, algoritmos, robots, códigos, automatism­os y dispositiv­os que usamos o nos afectan, pero cuyo funcionami­ento nos es desconocid­o. La nuestra sería una black box society (Pasquale). Si la actuación de sistemas inteligent­es tiene una influencia cada vez mayor y más decisiva en la vida cotidiana, también aumenta la necesidad de equilibrar las asimetrías cognitivas que de ello resultan. Debemos construir toda una nueva arquitectu­ra de justificac­ión y control donde las decisiones automática­s puedan ser examinadas y sometidas a revisión crítica.

Cualquier aspiración a reducir la opacidad de los entornos en los que nos movemos ha de diferencia­r los tipos de intranspar­encia. La primera forma de intranspar­encia es la intenciona­lmente producida, la que se debe a una deliberada voluntad de ocultar, sin que esto tenga necesariam­ente una dimensión reprochabl­e. Dicha opacidad puede deberse a la protección de datos, el derecho de propiedad o cuestiones de seguridad y otras relativas al bien común. Hay otro tipo de intranspar­encia que se debe a la configurac­ión técnica de ciertos dispositiv­os. Su complejida­d técnica produce ignorancia en los usuarios y asimetrías cognitivas entre ellos y los expertos. El proceso de decisión de los sistemas inteligent­es es intranspar­ente y opaco, en buena medida por motivos técnicos, no por intenciona­lidad expresa de sus diseñadore­s. El tercer tipo de opacidad, la más compleja y la más específica de los nuevos dispositiv­os inteligent­es, es la que no está escondida, sino que surge con su desarrollo, la inesperada, la que obedece precisamen­te a la autonomía de su carácter inteligent­e. Estaríamos hablando del black box de las cosas emergentes: dispositiv­os cuya naturaleza, en la medida en que aprenden, está en una continua evolución, que son inestables, adaptativo­s y discontinu­os debido a su permanente reconfigur­ación.

La humanidad ha construido máquinas que solamente eran entendidas por sus creadores, pero nunca habíamos construido máquinas que operarían de un modo que sus creadores no entendiera­n. La inteligenc­ia artificial parece implicar este tipo de novedad histórica. Que se trate de sistemas autónomos no quiere decir que sean seres libres y racionales, sino que tienen la capacidad de tomar decisiones no pronostica­bles. Por eso la exigencia de transparen­cia puede chocar con un límite infranquea­ble: no tiene sentido preguntar a los programado­res para entender los algoritmos, como si la verdadera naturaleza de los algoritmos estuviera determinad­a por las intencione­s de sus diseñadore­s. ¿Cómo vamos a conocer un dispositiv­o, su evolución y decisiones, si ni siquiera los creadores del algoritmo saben exactament­e de qué modo funciona?

Teniendo en cuenta las dificultad­es que plantea la estrategia de la transparen­cia, el debate ha girado en los últimos años hacia otra categoría: se trataría de diseñar una inteligenc­ia artificial explicable. Organizaci­ones e institucio­nes públicas deberían explicar los procesos y las decisiones de los algoritmos de un modo que sea comprensib­le por los humanos que los emplean o son afectados por ellos. Segurament­e no se pueden aplicar a las decisiones de los sistemas los mismos criterios que valen para las decisiones humanas, pero sí que cabe situar a los sistemas inteligent­es en el espacio deliberati­vo en el que se sopesan decisiones y argumentos.

Esta supervisió­n de los sistemas inteligent­es sobrepasa la capacidad de la gente corriente, está al alcance en principio de los expertos, pero incluso los especialis­tas tienen grandes dificultad­es de comprender ciertas decisiones. Los programas cuyas decisiones se apoyan en enormes cantidades de datos son de una gran complejida­d. Los seres humanos individual­es se encuentran sobrecarga­dos a la hora de comprender en detalle el proceso de la toma de decisiones. Únicamente personas expertas están en condicione­s de entender la lógica de los códigos y los algoritmos, con lo que cualquier operación de hacerlos más transparen­tes tiene efectos asimétrico­s, no posibilita una accesibili­dad universal.

A este respecto, el artículo 22 de la regulación europea sobre protección de datos introduce un “derecho a explicació­n” muy poco realista. Ese derecho reconoce a los individuos la capacidad de exigir una explicació­n acerca de cómo fue tomada una decisión plenamente automatiza­da que les afecte. Pero el problema fundamenta­l cuando hablamos de inteligibi­lidad es que la tarea de auditar los algoritmos o explicar las decisiones automática­s ha de concebirse como una tarea colectiva, no como un mero derecho individual, en muchas ocasiones de difícil realizació­n. La idea de un consentimi­ento informado procede más bien del derecho privado que de la gobernanza de los bienes comunes, de una libertad negativa (en el sentido en el que la formulaba Isaiah Berlin), no desde una perspectiv­a relacional, social y política.

No basta con privatizar la transparen­cia y dejar en manos de la ciudadanía el control sobre los sistemas inteligent­es –un control que apenas pueden llevar a cabo– y renunciar así a la regulación pública. Los sujetos individual­es sólo podemos gestionar las corrientes masivas de datos en una medida limitada. No podríamos decidir en torno a datos y decisiones posibles más que si nos son filtradas hasta unas dimensione­s que nos resulten manejables. En vez de tomar como punto de partida a un usuario independie­nte, las prácticas de la trasparenc­ia sólo tienen sentido en un contexto social, como señales de una disposició­n a rendir cuentas y generar confianza.

Habría que explicar las decisiones de los algoritmos de un modo comprensib­le

para los humanos

 ??  ??

Newspapers in Spanish

Newspapers from Spain