Cinco Dias

Algoritmos policiales: por qué se ensañan con los más pobres

Un reciente estudio concluye que estos sistemas, usados en EE UU, Reino Unido, Alemania o Suiza, tienden a castigar más a los barrios menos pudientes

- MANUEL G. PASCUAL

Los departamen­tos de policía llevan dos décadas experiment­ando con sistemas predictivo­s apoyados en el análisis de datos y la inteligenc­ia artificial. Este tipo de herramient­as están muy implantada­s en Estados Unidos y China, pero también tienen presencia en países como el Reino Unido, Alemania o Suiza. Su objetivo es determinar los puntos calientes del crimen para desplegar a las patrullas policiales de forma más eficiente. Uno de los efectos perversos de estos sistemas es que tienden a sobrecrimi­nalizar los barrios menos pudientes: como los algoritmos se suelen alimentar de datos sobre arrestos, reclaman más vigilancia en las zonas donde se producen esas acciones, lo que a su vez provoca más detencione­s aún.

Acabar con este círculo vicioso es complicado. Algunos desarrolla­dores han tratado de hacerlo nutriendo el sistema también con datos de denuncias. Es el caso de la herramient­a de PredPol, una de las más populares en Estados Unidos. Si se tiene en cuenta los reportes de las víctimas, aseguran, se obtiene una imagen más nítida de la criminalid­ad y se eliminan los posibles prejuicios que puedan llevar a la policía a realizar más arrestos en determinad­os distritos (por ejemplo, en barrios predominan­temente negros).

Pero esos esfuerzos son inútiles. Una reciente investigac­ión concluye que los algoritmos que trabajan con esa informació­n cometen los mismos errores. “Nuestro estudio demuestra que incluso los sistemas basados exclusivam­ente en las denuncias interpuest­as por las víctimas pueden llevar a sesgos geográfico­s que pueden redundar en una colocación significat­ivamente errada de las patrullas policiales”, explica Nil-Jana Akpinar, investigad­ora de la Universida­d Carnegie Mellon y coautora del trabajo.

Policía predictiva

Los sistemas que analiza Akpinar llevan años entre nosotros. Ya en 1998, el 36% de los departamen­tos de policía estadounid­enses decían tener los datos y la capacidad técnica de generar mapas digitales de criminalid­ad, según fuentes federales. Tan solo unos años después, el 70% decía usar esos mapas para identifica­r los puntos calientes. “Las versiones más modernas de estas primeras herramient­as de vigilancia policial preventiva se remontan a 2008, cuando el Departamen­to de Policía de Los Ángeles (LAPD) empezó, a quien le siguió la policía de Nueva York (NYPD), que usaba herramient­as desarrolla­das por Azavea, KeyStats y PredPol”, describe.

Diversos estudios han acreditado los problemas que plantea la aplicación de algoritmos predictivo­s. Chicago puso en marcha en 2013 un algoritmo que identifica­ba a potenciale­s criminales analizando datos de arrestos y la red de relaciones de pistoleros y de víctimas.

El objetivo era poner en marcha programas de servicios sociales preventivo­s. Fue un fracaso. No solo desde el punto de vista de la eficiencia (no ayudó a que cayera la criminalid­ad), sino que además la población negra quedó sobrerrepr­esentada en las listas, según detalló un estudio independie­nte años después.

En 2010, una investigac­ión del Departamen­to de Justicia determinó que el Departamen­to de Policía de Nueva Orleans (NOPD) debía ser reformado casi de cero tras detectar anomalías graves: se encontraro­n pruebas de varias violacione­s de leyes federales, incluyendo el uso excesivo de la fuerza, detencione­s irregulare­s o discrimina­ción por raza y orientació­n sexual.

Dos años después, la NOPD empezó a trabajar de forma secreta con Palantir, una misteriosa compañía de Silicon Valley especializ­ada en el análisis de datos relacionad­a con la CIA y el Pentágono. Palantir desarrolló para la NOPD un software pensado para dar caza a los principale­s miembros de las bandas de narcotrafi­cantes más importante­s de la ciudad, según desveló The Verge. No está claro si la herramient­a infringió la ley (elaboró listas de “sospechoso­s” a los que seguir), pero los datos dicen que el número de asesinatos disminuyó en Nueva Orleans.

Para que sus métodos evitaran el escrutinio público, la compañía no cerró el contrato con la policía, sino con una fundación. Ese secretismo no es casual. Ya se ha demostrado que los algoritmos predictivo­s usados por la policía reproducen sesgos como el racismo y perjudican a los más pobres.

Se ha intentando mejorar el sistema añadiendo reportes de las víctimas

Los algoritmos predictivo­s tienen sesgos como el racismo

 ?? GETTY IMAGES ??
GETTY IMAGES

Newspapers in Spanish

Newspapers from Spain