Algoritmos policiales: por qué se ensañan con los más pobres
Un reciente estudio concluye que estos sistemas, usados en EE UU, Reino Unido, Alemania o Suiza, tienden a castigar más a los barrios menos pudientes
Los departamentos de policía llevan dos décadas experimentando con sistemas predictivos apoyados en el análisis de datos y la inteligencia artificial. Este tipo de herramientas están muy implantadas en Estados Unidos y China, pero también tienen presencia en países como el Reino Unido, Alemania o Suiza. Su objetivo es determinar los puntos calientes del crimen para desplegar a las patrullas policiales de forma más eficiente. Uno de los efectos perversos de estos sistemas es que tienden a sobrecriminalizar los barrios menos pudientes: como los algoritmos se suelen alimentar de datos sobre arrestos, reclaman más vigilancia en las zonas donde se producen esas acciones, lo que a su vez provoca más detenciones aún.
Acabar con este círculo vicioso es complicado. Algunos desarrolladores han tratado de hacerlo nutriendo el sistema también con datos de denuncias. Es el caso de la herramienta de PredPol, una de las más populares en Estados Unidos. Si se tiene en cuenta los reportes de las víctimas, aseguran, se obtiene una imagen más nítida de la criminalidad y se eliminan los posibles prejuicios que puedan llevar a la policía a realizar más arrestos en determinados distritos (por ejemplo, en barrios predominantemente negros).
Pero esos esfuerzos son inútiles. Una reciente investigación concluye que los algoritmos que trabajan con esa información cometen los mismos errores. “Nuestro estudio demuestra que incluso los sistemas basados exclusivamente en las denuncias interpuestas por las víctimas pueden llevar a sesgos geográficos que pueden redundar en una colocación significativamente errada de las patrullas policiales”, explica Nil-Jana Akpinar, investigadora de la Universidad Carnegie Mellon y coautora del trabajo.
Policía predictiva
Los sistemas que analiza Akpinar llevan años entre nosotros. Ya en 1998, el 36% de los departamentos de policía estadounidenses decían tener los datos y la capacidad técnica de generar mapas digitales de criminalidad, según fuentes federales. Tan solo unos años después, el 70% decía usar esos mapas para identificar los puntos calientes. “Las versiones más modernas de estas primeras herramientas de vigilancia policial preventiva se remontan a 2008, cuando el Departamento de Policía de Los Ángeles (LAPD) empezó, a quien le siguió la policía de Nueva York (NYPD), que usaba herramientas desarrolladas por Azavea, KeyStats y PredPol”, describe.
Diversos estudios han acreditado los problemas que plantea la aplicación de algoritmos predictivos. Chicago puso en marcha en 2013 un algoritmo que identificaba a potenciales criminales analizando datos de arrestos y la red de relaciones de pistoleros y de víctimas.
El objetivo era poner en marcha programas de servicios sociales preventivos. Fue un fracaso. No solo desde el punto de vista de la eficiencia (no ayudó a que cayera la criminalidad), sino que además la población negra quedó sobrerrepresentada en las listas, según detalló un estudio independiente años después.
En 2010, una investigación del Departamento de Justicia determinó que el Departamento de Policía de Nueva Orleans (NOPD) debía ser reformado casi de cero tras detectar anomalías graves: se encontraron pruebas de varias violaciones de leyes federales, incluyendo el uso excesivo de la fuerza, detenciones irregulares o discriminación por raza y orientación sexual.
Dos años después, la NOPD empezó a trabajar de forma secreta con Palantir, una misteriosa compañía de Silicon Valley especializada en el análisis de datos relacionada con la CIA y el Pentágono. Palantir desarrolló para la NOPD un software pensado para dar caza a los principales miembros de las bandas de narcotraficantes más importantes de la ciudad, según desveló The Verge. No está claro si la herramienta infringió la ley (elaboró listas de “sospechosos” a los que seguir), pero los datos dicen que el número de asesinatos disminuyó en Nueva Orleans.
Para que sus métodos evitaran el escrutinio público, la compañía no cerró el contrato con la policía, sino con una fundación. Ese secretismo no es casual. Ya se ha demostrado que los algoritmos predictivos usados por la policía reproducen sesgos como el racismo y perjudican a los más pobres.
Se ha intentando mejorar el sistema añadiendo reportes de las víctimas
Los algoritmos predictivos tienen sesgos como el racismo