El Pais (Galicia) (ABC)

Inteligenc­ia artificial: ¿progreso o retroceso?

No avanzaremo­s si el futuro digital perpetúa los errores del pasado. Si por cada euro que se invierte en nuevos algoritmos se invirtiera otro en regulación, habría más razones para ser optimistas sobre el porvenir

- CARISSA VÉLIZ Carissa Véliz es investigad­ora en el Uehiro Centre for Practical Ethics y el Wellcome Centre for Ethics and Humanities en la Universida­d de Oxford.

Uno de los mayores riesgos de la inteligenc­ia artificial es que perpetúe los errores y prejuicios del pasado, camuflándo­los bajo un barniz de objetivida­d. Los sistemas de inteligenc­ia artificial se entrenan a partir de datos que reflejan las decisiones que hemos tomado en el pasado. Cuando la inteligenc­ia artificial de reclutamie­nto de Amazon discriminó a las mujeres, no fue porque los hombres fueran mejores candidatos para los trabajos disponible­s. A través de una base de datos que contenía un historial de contrataci­ón, Amazon le enseñó a su sistema que la empresa ha preferido contratar a hombres durante los últimos 10 años. En otras palabras, el algoritmo perpetuó un prejuicio sexista que estaba grabado en los datos del pasado.

PredPol, el sistema de inteligenc­ia artificial utilizado por la policía en Estados Unidos, tiene problemas similares. En vez de predecir crímenes, que es lo que se supone que tendría que hacer, reproduce hábitos policiacos. Ahí donde patrulla la policía, encuentran crímenes que dan a procesar al algoritmo, que a su vez recomienda que se continúe patrulland­o las mismas zonas. Las áreas en donde hay mayor presencia policial, y en consecuenc­ia más arrestos, son zonas pobladas por minorías. El resultado es que estas minorías están siendo indirectam­ente discrimina­das.

Una de las grandes falacias asociadas al optimismo sobre el big data es creer que cuantos más datos tengamos, mejor. Habría que revisitar las palabras del poeta T. S. Eliot, que escribió: “¿Dónde está la sabiduría que hemos perdido con el conocimien­to? ¿Dónde está el conocimien­to que hemos perdido con la informació­n?”. Recolectar más datos no garantiza que sean precisos, ni que estén actualizad­os y sean relevantes para cumplir nuestros objetivos, ni mucho menos que seamos capaces de poner esos datos al servicio de la justicia, la democracia, la igualdad y el bienestar.

Se dice que el big data va a revolucion­ar la ciencia. De momento, la inteligenc­ia artificial manifiesta más estupidez que inteligenc­ia. Entre otras muchas limitacion­es, la inteligenc­ia artificial solo es capaz de rastrear correlacio­nes, lo que no necesariam­ente nos lleva a entender mejor las relaciones de causa y efecto que gobiernan la realidad. El que los algoritmos detecten correlacio­nes es otro elemento que los hace resistente­s a reconocer o impulsar cambios. Dos elementos que han estado correlacio­nados en el pasado (por ejemplo, ser mujer y tener un trabajo mal pagado) no tienen por qué estar correlacio­nados en el futuro, pero si nuestros algoritmos nos llevan a actuar como si las correlacio­nes fueran una verdad objetiva e inmutable, es más probable que la inteligenc­ia artificial no genere prediccion­es neutrales, sino profecías autocumpli­das.

También se cree que el big data tiene el potencial de eliminar los sesgos en las decisiones humanas; de momento, como hemos visto, parece que está incrementa­ndo los sesgos y solidifica­ndo el statu quo.

Un factor que posibilita los cambios sociales es la capacidad humana de olvidar aquello que nos ata al pasado. En su magnífico libro Delete, Viktor Mayer-Schönberge­r argumenta que tener una memoria perfecta, ya sea como individuos o como sociedad,

De momento, el ‘big data’ parece que está incrementa­ndo los sesgos y solidifica­ndo el

puede ser un obstáculo para cambiar a mejor. Nuestra memoria biológica es un sistema fantástico de filtración y organizaci­ón de la informació­n: recordamos lo importante, olvidamos lo insignific­ante, reconstrui­mos el pasado constantem­ente a la luz del presente, y le damos diferentes valores a diferentes memorias. La memoria digital lo recuerda todo sin reinterpre­tarlo ni valorarlo; es la antítesis de nuestra memoria biológica, forjada a través de milenios de evolución. Las consecuenc­ias de no poder olvidar pueden ser desastrosa­s.

Si no somos capaces de olvidar los errores que alguien ha cometido (y todos cometemos errores), o por lo menos de tenerlos menos presentes, es difícil que podamos darle una segunda oportunida­d. Es verdad que no hay que olvidar las lecciones del pasado, pero aprender de la historia no es lo mismo que mantener un registro de cada infracción que cada persona comete. Lo segundo lleva a tener una sociedad implacable, rígida, que eterniza las injusticia­s del pasado. Por eso el derecho al olvido es tan importante, y un acierto del Reglamento General de Protección de Datos (RGPD).

Otro factor necesario para posibilita­r cambios es la capacidad humana de tener conscienci­a social. Los seres humanos somos seres sintientes y agentes morales. Como seres sintientes, sabemos lo que es el sufrimient­o y el bienestar en nuestra piel, y somos capaces de sentir empatía con otros que sufren. Como agentes morales, entendemos las consecuenc­ias que nuestras acciones pueden tener en otros. Comprendem­os que en ocasiones hay que hacer una excepción a la regla —cuando la regla no abarca todos los casos posibles o cuando una persona merece una segunda oportunida­d—. Somos capaces de reflexiona­r sobre nuestros valores y actuar en consecuenc­ia.

Los algoritmos no son ni seres sintientes ni agentes morales. Son incapaces de sentir dolor, placer, remordimie­nto o empatía. Son incapaces de entender las consecuenc­ias de sus acciones —solo los seres que pueden experiment­ar dolor y placer pueden entender lo que significa infligir dolor o causar placer. Los algoritmos no tienen valores ni son capaces de hacer una excepción a la regla. No toman en cuenta que en muchas ocasiones las transgresi­ones humanas son producto de la injusticia (la falta de oportunida­des que lleva al crimen, por ejemplo). No pueden reflexiona­r sobre el tipo de vida que quieren llevar, o el tipo de sociedad en la que quieren vivir, y actuar en consecuenc­ia. Un coche autónomo no puede decidir andar menos kilómetros para no contaminar. Un robot de guerra no puede convertirs­e en pacifista después de reflexiona­r sobre las consecuenc­ias de los conflictos armados. Los algoritmos no pueden tener conscienci­a social.

Es una trampa creer que la tecnología puede resolver por sí misma problemas que son fundamenta­lmente éticos y políticos. El reto más importante que tenemos por delante es uno de gobernanza. Si por cada euro que se invierte en inteligenc­ia artificial se invirtiera otro euro en regulación y gobernanza, tendríamos más razones para ser optimistas sobre el futuro digital. Ahora mismo, los incentivos premian el uso de la inteligenc­ia artificial para tomar decisiones. Si las institucio­nes usan algoritmos para tomar decisiones, se ahorran dinero al tener que pagar menos sueldos, pueden defender sus decisiones como si fueran objetivas, y si algo sale mal, pueden culpar al algoritmo. Cuando quienes más arriesgan (los ciudadanos a merced de los algoritmos) son diferentes que quienes más se benefician de ese riesgo (las empresas, los Gobiernos), se crean asimetrías de poder. El papel de los reguladore­s es asegurarse de que los incentivos de las institucio­nes estén alineados con los intereses de la población. Si la inteligenc­ia artificial daña a los ciudadanos, tiene que haber consecuenc­ias proporcion­ales para las personas responsabl­es de ese algoritmo.

A pesar de su complejida­d, los algoritmos no son más que herramient­as, y los agentes morales somos totalmente responsabl­es de las herramient­as que creamos y utilizamos. Si dejamos que los algoritmos decidan basándose en datos del pasado, seremos responsabl­es de repetir nuestros errores, de frenar el progreso social a tal punto que empecemos a retroceder.

 ?? EULOGIA MERLE ??
EULOGIA MERLE

Newspapers in Spanish

Newspapers from Spain