
La Policía Local de Valencia comienza a usar IA predictiva
Una década después de que comenzara a popularizarse este tipo de software, la mayoría de cuerpos policiales niegan su uso y señalan que lo que sí emplean son programas de análisis estadísticos.
Una serie de puntos de colores se reparte por el mapa de una ciudad. Cada uno de ellos señala las ubicaciones donde se han producido hechos en los que ha intervenido la policía local en los últimos siete años: desde la celebración de mercados o celebraciones religiosas hasta detenciones relacionadas con la venta de estupefacientes, robos o agresiones sexuales. El programa, llamado Mapa planificador de Intervenciones, identifica patrones espaciotemporales de los hechos pasados a través de algoritmos e inteligencia artificial para aconsejar la distribución de las patrullas policiales. Es una de las herramientas basadas en inteligencia artificial que usa la Policía Local de Valencia desde principios de este año.
“Los departamentos de planificación e informática estamos viendo sus posibles usos”, señala Pablo Quiñonero, inspector en la Policía Local valenciana. “Le vemos mucha potencialidad en cuanto a gestión de recursos, porque nos anticipa mucha información, pero ahora mismo no está distribuido, no tiene acceso todo el mundo”, añade.
El Mapa planificador de intervenciones de la Policía Local de Valencia no es el primer programa de predicción del delito que se desarrolla en España, pero sí es, según lo que ha podido averiguar Civio, el único que hasta la fecha está siendo utilizado por parte de un cuerpo policial.
Ha pasado casi una década desde que las policías de Rivas Vaciamadrid y Castellón probaron PredCrime. La herramienta fue desarrollada por la empresa Eurocop y el matemático Jorge Mateu en el marco de una cátedra de la Universidad de Castellón entre los años 2014 y 2021. “Fue un primer intento de hacer software de este tipo, pero se quedó anclado”, afirma Mateu, que en la actualidad está inmerso en otro proyecto de IA enfocado en la búsqueda de minas antipersona en Colombia. En esos años, policías de otros países, sobre todo en Estados Unidos, empezaron a usar programas parecidos, y varias organizaciones civiles, como Big Brother Watch, denunciaron cómo estos provocaban sesgos discriminatorios.
El modelo de PredCrime se nutrió inicialmente del histórico de datos de la Policía Local de Castellón y, después, del 112 de Valencia. También se probó en Colombia con los datos de homicidios recogidos por su policía nacional. Es, según explica Mateu, un modelo de predicción estocástico —es decir, de cálculo de probabilidades— basado en algoritmos: “Descubre la columna vertebral del pasado y básicamente la lleva al futuro con una incertidumbre; nunca vas a decir ‘que la policía vaya a la calle tal porque de 1 a 2 de la madrugada se va a producir un delito’, sino que hay una probabilidad del 80, del 95, del 98% de que se produzca un delito, nunca va a ser un 100%”.
Poco después de que Eurocop empezara a desarrollar PredCrime, la Policía Nacional comenzó también a tantear este tipo de modelos predictivos para la organización de las patrullas. La investigación Predictive Police Patroling (P3-DSS) fue desarrollada por el inspector y matemático Miguel Camacho Collados, actualmente coordinador del Servicio de Innovación Tecnológica y Ciberseguridad del Consejo de Estado, y autor de Veripol, otro programa basado en algoritmos usado por la Policía Nacional hasta el pasado octubre para identificar denuncias falsas de robo. El P3-DSS se nutrió de los datos de crímenes recogidos por la Policía Nacional en el Distrito Centro de Madrid entre 2008 y 2012. Pero, según ha confirmado Camacho, ni este ni ningún otro modelo predictivo en el que haya trabajado ha sido utilizado por ningún cuerpo policial. Desde el Ministerio de Interior también han negado que la Policía Nacional o la Guardia Civil utilicen este tipo de software, al igual que el Cuerpo General de la Policía Canaria y los Mossos d’Esquadra, que señalan que sí usan otro tipo de programas para la investigación criminal.
PredCrime tampoco ha llegado a estar en uso, más allá de las pruebas en Rivas Vaciamadrid y Castellón. Solo desde 2016, Eurocop ha ganado licitaciones para proveer, actualizar, hacer mantenimiento o dar formación sobre su software de gestión policial a más de 320 cuerpos de policía local. En la documentación de varias de estas licitaciones —las de Alicante, Calonge i Sant Antoni (Gerona), Salamanca y Marratxí (Mallorca) en concreto— la predicción de delitos aparece como una de las funcionalidades requeridas. Pero, según confirman desde la empresa, PredCrime nunca ha llegado a implantarse en ningún cuerpo policial. “Se quedó en un prototipo, nunca se llegó a comercializar”, afirma Ramón García Esteve, director general de Eurocop. Esteve aclara que lo que sí incluye la plataforma Eurocop es análisis de datos a nivel estadístico, sin algoritmo ni inteligencia artificial. “Para esto tenemos una herramienta basada en Power BI, que es business intelligence, que analiza situaciones, incidencias, actuaciones, etcétera”, explica García Esteve.
A preguntas de Civio, desde el Ayuntamiento de Salamanca han confirmado que la predicción del delito no ha estado nunca entre los módulos usados por su policía local, “al no estar disponible o facilitada por la empresa”. Desde Marratxí y Calonge i Sant Antoni señalan que ni siquiera llegaron a usar o ya no usan la plataforma de gestión de Eurocop. Por su parte, la Policía Local de Alicante se reafirma en que usan tecnología predictiva, para después detallar que lo que realmente utilizan es el programa de gestión de Eurocop y Power BI, un producto de Microsoft, para realizar el análisis de datos. “Este sistema permite identificar patrones delictivos, zonas de riesgo y franjas horarias con mayor probabilidad de comisión de delitos, lo que responde de forma efectiva al requerimiento técnico del pliego original”, señalan desde el servicio de informática de la policía alicantina.
Son herramientas parecidas a las que tienen los cuerpos de policía local de las ciudades españolas con más población y las policías autonómicas. Desde el Departamento de Seguridad del Gobierno vasco afirman que la Oficina Central de Inteligencia de la Ertzaintza utiliza, desde 2015, un sistema de análisis de datos denominado Baietz, que usa MicroStrategy, un software de análisis de datos parecido al de Microsoft y al que acceden “unas 474 veces al mes”, pero del que no están midiendo sus resultados. Es el mismo que utiliza, al menos desde 2010, la Policía Municipal de Madrid, que también ha asegurado que en la actualidad no usa ningún programa geostadístico predictivo. La Guardia Urbana de Barcelona y las policías de Zaragoza o Málaga también niegan que estén usando herramientas basadas en algoritmos o inteligencia artificial.
El análisis estadístico de datos también es la base del programa que utiliza la Policía Local de Valencia, pero este sí añade algoritmos y aprendizaje automático (machine learning). Según explica Pedro Salguero, su desarrollador, el primer paso fue poner en marcha la aplicación Análisis Temporal de Intervenciones, que es un programa de análisis puramente estadístico en el que se analizan los datos de las intervenciones registradas, previamente anonimizadas y sin ningún tipo de dato personal, desde 2018 —especialmente desde 2023, cuando se formalizó la documentación de las intervenciones— hasta la actualidad, por dirección, fecha y hora, y tipo, añadiendo información sobre efectivos que han participado. El programa incluye un algoritmo que compara el patrón temporal de las incidencias de los barrios y distritos de Valencia, y los agrupa según su parecido.
La segunda aplicación desarrollada para la Policía Local valenciana, señala Salguero, es el Estudio comparativo de intervenciones, en el que se visualizan las diferencias en las intervenciones registradas según la temporalidad elegida y el área, y se predicen las que habrá hasta el final del mismo mes o año, aplicando varios modelos de regresión lineal.
Por último, el Mapa planificador de intervenciones, la tercera de las aplicaciones desarrolladas por Salguero, es la que usa algoritmos más complejos. Analiza los datos de incidencias registradas en el pasado para calcular las áreas críticas y aconsejar la distribución de las patrullas calculando las distancias para que los agentes puedan abarcar el territorio en el que se concentra el máximo de estas incidencias. “El algoritmo detecta áreas críticas en base a todas las intervenciones, aquí sí se aplica machine learning”, explica Salguero.
Una década de programas predictivos de la criminalidad, y de dudas sobre su efectividad e impactos
El uso de IA predictiva por parte de cuerpos policiales para organizar sus recursos tuvo como primeros escenarios algunas de las grandes ciudades de Estados Unidos, como Los Ángeles o New Jersey. PredPol, ahora llamada Geolitica, básicamente tenía el mismo funcionamiento que la herramienta usada ahora por la Policía Local de Valencia y la creada por Eurocop: a partir del histórico de datos de intervenciones policiales, calcular las zonas críticas donde se concentran más delitos para enviar más patrullas.
Pronto comenzaron a aparecen críticas al uso de PredPol. Primero, por el refuerzo que podrían hacer en cuanto a los sesgos ya presentes en las actuaciones policiales, aumentando la presencia policial en determinados barrios, mayoritariamente de población negra o con bajos recursos, en los que se concentran más denuncias y detenciones, en muchas ocasiones debido, precisamente, a una mayor presencia policial. Y, en segundo lugar, por su falta de efectividad: una investigación publicada en 2023 por Wired y The Mark Up cifraba en tan solo el 0,5% las veces que PredPol había acertado en sus predicciones.
Según señala un informe de Algorithm Watch, en Alemania en la última década seis estados han estado probando también este tipo de programas de predicción de delitos, pero, en la actualidad, la mitad de ellos han abandonado su uso, y solo lo mantienen las policías de Renania del Norte-Westfalia (Skala), Berlín (KrimPro) y Hesse (KLB-operativ). En Francia, detalla otro informe de La Quadrature du Net, la policía de París también usa otro programa parecido, el Risk Terrain Modelling, pero que también identifica factores de riesgo ambientales en la criminalidad, como el alumbrado, la presencia de baños públicos o de sitios de comida rápida o farmacias. Otras policías municipales usan sistemas parecidos al valenciano, como MapRevelation. Smart Police, un sistema de gestión policial usado también por cuerpos municipales franceses, desde 2018 también incluye un módulo predictivo, aunque no hay confirmación oficial de que finalmente este módulo haya sido adquirido por algún cuerpo policial.
En octubre de 2021, el Parlamento Europeo emitió una resolución en la que alertaba del “impacto discriminatorio y el fracaso práctico” de este tipo de programas. Pero, finalmente, el Reglamento europeo sobre inteligencia artificial solo incluye como IA de alto riesgo las herramientas que realicen perfiles sociales y hagan uso de datos personales, a falta de la interpretación que se haga en los juzgados una vez que entre en vigor. “En relación a la predicción geográfica, lo que hemos venido defendiendo es que esto abre una laguna legal que ignora cómo la predicción espacial también produce discriminación sistémica, alimentando prácticas policiales selectivas y racistas”, señala Judith Membrives, investigadora y responsable del área de derechos humanos en Lafede, una federación de 131 organizaciones catalanes que es miembro de la plataforma IA Ciudadana.
En el caso del software utilizado por la Policía Local de Valencia, según detalla Salguero, no se incluyen datos personales, al estar anonimizada la base de datos. Solo recoge datos geográficos, temporales y de los recursos asignados en las intervenciones pasadas y los tiempos de respuesta. “No buscamos un sesgo por tipo de persona”, asegura Salguero.
Con solo cinco meses de implantación, y sin que la policía valenciana haya concretado cómo va a utilizar su nueva herramienta, aún es temprano para saber si el programa ayudará realmente a prevenir la criminalidad o si terminará discriminando a determinados grupos sociales. Por ahora, según confirma el inspector Pablo Quiñonero, aún no disponen de indicadores que les permitan valorar su efectividad y están a la espera de que el ayuntamiento ponga en marcha un comité de inteligencia artificial que se encargue de elaborar protocolos de seguridad para esta herramienta. Pero se muestran optimistas. “Sí puedo decir, a nivel perceptivo, de lo que nosotros vemos, que nos está ayudando”, sostiene.
Metodología
David Cabo ha colaborado en este artículo revisando los datos publicados. Para realizar este reportaje hemos hecho solicitudes de información, en base a la Ley de Transparencia y Buen Gobierno y a las normativas análogas autonómicas, sobre las herramientas basadas en IA o algoritmos usadas por la Policía Nacional y Guardia Civil (dirigida al Ministerio de Interior), los Mossos d’Esquadra, la Ertzaintza, la Policía Autonómica Canaria y las policías locales de los ayuntamientos con más de 500.000 habitantes: Madrid, Barcelona, Valencia, Sevilla, Zaragoza y Málaga. En el caso de Sevilla, no hemos tenido respuesta, por lo que hemos presentado una reclamación ante el Consejo de Transparencia y Protección de Datos de Andalucía en diciembre de 2024, que a la fecha sigue en tramitación.
En el caso de Valencia, la respuesta a la solicitud de información ha señalado el uso de los tres programas desarrollados por Pedro Salguero como basados en IA y algoritmos, pero sin proporcionar datos de uso. Tras ello, nos hemos puesto en contacto con Pedro Salguero y le hemos realizado una entrevista al mismo y al inspector Pablo Quiñonero sobre estos programas en la Jefatura Central de la Policía Local de Valencia, en la que nos han enseñado su funcionamiento.
Desde el Ministerio de Interior han negado que tanto Policía Nacional como Guardia Civil utilicen herramientas con IA o algoritmos. Hemos reclamado esta resolución, señalando el uso de herramientas como Viogen, que usan algoritmos, y solicitando que incluyan otras herramientas que, como esta, funcionen en base a algoritmos, pero desde el Consejo de Transparencia y Buen Gobierno han desestimado nuestra reclamación. Hemos hecho una segunda solicitud en relación a la herramienta P3-SSD, realizada por Miguel Camacho y que habría estado probándose por parte de la Policía Nacional, a la que han respondido que “ni Guardia Civil ni Policía Nacional han hecho uso de la herramienta citada en la solicitud, tratándose únicamente de una experiencia piloto”.
También hemos presentado una segunda solicitud al Departamento de Seguridad vasco sobre detalles del sistema Baietz, en concreto hemos solicitado acceso a la publicación “Proceso Baietz. Gestión estratégica y táctica de la seguridad pública. Análisis del delito en la Ertzaintza”, presentada en 2019. Han denegado el acceso a esta publicación argumentando perjuicio a la propiedad intelectual. Desde Civio presentamos el 20 de marzo una reclamación ante la Comisión Vasca de Acceso a la Información Pública, sin que hasta la fecha haya emitido su resolución.
También hemos enviado un cuestionario sobre el uso de inteligencia artificial y algoritmos a la Unión Nacional de Jefes y Directivos de Policía Local (UNIJEPOL) para que esta organización lo distribuyera entre sus asociados, respondiendo al cuestionario las policías de León, Palencia y Ponferrada, que han negado usar herramientas de este tipo.
Hemos buscado en la Plataforma de Contratación las licitaciones ganadas por la empresa Eurocop para proveer de software de gestión a los cuerpos de policía y hemos revisado todos los pliegos de prescripciones técnicas y demás documentación de la licitación. Hemos realizado solicitudes de información sobre el uso de este software a los ayuntamientos de Alicante, Cologne, Marratxi y Salamanca, en cuyos pliegos o en el contrato se señala la funcionalidad de predicción de delitos.
Déjanos decirte algo…
En esta información, y en todo lo que puedes leer en Civio.es, ponemos todo el conocimiento acumulado de años investigando lo público, lo que nos afecta a todos y todas. Desde la sociedad civil, 100% independientes y sin ánimo de lucro. Sin escatimar en tiempo ni esfuerzo. Solo porque alguien tiene que hacerlo.
Si podemos informar así, y que cualquiera pueda acceder sin coste, sin barreras y sin anunciantes es porque detrás de Civio hay personas comprometidas con el periodismo útil, vigilante y al servicio de la sociedad en que creemos, y que nos gustaría seguir haciendo. Pero, para eso, necesitamos más personas comprometidas que nos lean. Necesitamos socios y socias. Únete hoy a un proyecto del que sentir orgullo.
Podrás deducirte hasta un 80% de tu aportación y cancelar cuando quieras.
¿Aún no es el momento? Apúntate a nuestro boletín gratuito.