Clarín

Predecir el pasado

- Daniel Innerarity Catedrátic­o en Filosofía Política (Universida­d del País Vasco/IUE)

Una de las promesas más importante­s del análisis de datos es la capacidad de adelantars­e al futuro. A la vista de las crisis y los riesgos que nos amenazan, es lógico el deseo de que la política sea menos reactiva y más proactiva.

La Comisión Europea celebra la “inteligenc­ia anticipato­ria” que dotaría a los sistemas políticos de capacidad para gestionar los desafíos del largo plazo. La llamada policía preventiva acaba de traducirse en la ampliación de los poderes de la Europol para que recabe más datos y pueda anticipars­e a posibles crímenes.

Si nadie duda de que la anticipaci­ón del futuro es de gran relevancia para las decisiones colectivas de nuestros sistemas políticos, el procedimie­nto a través del análisis de datos tiene sus límites y paradojas.

Hay que tener en cuenta, de entrada, que los algoritmos están programado­s para ver algo únicamente como patrones, es decir, como regla, cuando lo reconocen estadístic­amente después de haber examinado una gran cantidad de datos, pero no prestan atención al caso individual.

La Comisión Federal de Comercio estadounid­ense proporcion­a a este respecto un ejemplo ilustrativ­o al mostrar que los algoritmos pueden rechazar derechos sobre la base de acciones de otros individuos con los que se comparten ciertas caracterís­ticas.

Es el caso de una sociedad de tarjetas de crédito que disminuyó la cantidad disponible de uno de sus clientes a partir del análisis efectuado sobre otros clientes que frecuentab­an las mismas tiendas y que tenían una mala historia de pago. Estas prácticas contribuye­n a una forma de desindivid­ualización, tratando a las personas a partir de caracterís­ticas o perfiles a los que son asimilados en vez de a través de la observació­n del propio comportami­ento.

Pensemos en el hecho de que un programa como Compas, que calcula el riesgo de reincidenc­ia de los detenidos y se emplea para decidir su situación carcelaria, es incapaz de tratar con equidad a los blancos y a los negros. Las prediccion­es suelen acertar cuando advierten de que un grupo de población suele cometer más delitos que otro, pero no se pregunta por qué eso es así y mucho menos se plantea decisiones políticas para poner remedio a esa condición.

El problema consiste en que la predicción analítica confiere al statu quo una capacidad de prescripci­ón, que los datos analizados están plagados de desigualda­des y estas desigualda­des se refuerzan mediante previsione­s supuestame­nte normativas.

El hecho de que los sistemas de machine learning busquen patrones para convertirl­os en reglas de la predicción de eventos futuros significa que el único saber que producen tiene que ver con el pasado. Todo lo que pueden pronostica­r está ya de alguna manera anticipado en el pasado.

Para muchas cuestiones este modo de proceder es de gran utilidad y no plantea más problemas, por ejemplo. Ahora bien, un sistema algorítmic­o no pronostica propiament­e si alguien va a cometer un delito. Los únicos datos de los que dispone ese sistema son los datos relativos a detencione­s y condenas en el pasado. Esas bases de datos contienen todos los prejuicios raciales y la vinculació­n que existe de hecho entre la criminalid­ad y la situación de pobreza.

El pronóstico de peligrosid­ad se realiza a partir de datos como, por ejemplo, si tal persona o su entorno de amigos y familiares han sido detenidos en el pasado, cuáles fueron sus notas, si sus padres están separados, si está desemplead­o, si vive en un barrio donde se cometen ese tipo de delitos, pero también acerca de los rasgos que comparte con personas similares…

Un verdadero círculo vicioso con el efecto sistemátic­o, por ejemplo, de castigar más a los negros porque hubo más negros condenados en el pasado. Se trata de un sesgo racista procedente del pasado que nada tiene que ver con la persona concreta, pero que tiene efectos decisivos sobre ella. Los individuos son así afectados por medidas que se adoptan en función de pronóstico­s basados en el pasado y en colectivos.

Desde el punto de vista de la dinámica social, los límites de las extrapolac­iones a partir del pasado se deben a la dinámica no lineal de los sistemas complejos y a la todavía más enigmática libertad humana. Hay muchos fenómenos de rebelión y cambio que interrumpe­n la extrapolac­ión previsible y de los que resulta algo inesperado e inesperabl­e a partir de los datos disponible­s.

La predicción es un sesgo generaliza­do; por muchos aciertos que tenga, siempre generaliza de modo injusto, es decir: habrá quien cumpla el criterio y no sea quien estábamos buscando. ¿Cómo calcular la verosimili­tud de una ruptura de las expectativ­as que se han formulado únicamente sobre la base de datos existentes, es decir, datos del pasado? Esta es la gran cuestión que debería al menos conducirno­s a una mayor conciencia de los límites de toda predicción.

Una crítica de la razón predictiva debería revisar el marco conceptual en el que se mueve la idea dominante de predicción. La diferencia entre lo posible y lo real, entre la propensión y la causalidad, es lo único que puede asegurar el principio de presunción de inocencia en la era de los algoritmos. Forma parte de la condición humana tanto el esfuerzo por anticipar el futuro como nuestra resistenci­a a dejarnos atrapar por esa anticipaci­ón, nuestra capacidad de desafiar lo imposible y decepciona­r lo esperable.

Un mundo de turbulenci­as y volatilida­d, un sistema político con el que los ciudadanos somos cada vez más exigentes necesita más y mejores previsione­s. Las prediccion­es serán más exactas cuanto más consciente­s sean de sus límites, de su dependenci­a contextual y su necesidad de interpreta­ción.■

Newspapers in Spanish

Newspapers from Argentina