
BOSCO: la chispa que encendió la lucha de Civio por la transparencia algorítmica
¿Por qué este caso se ha convertido en una batalla clave para la transparencia de las decisiones automatizadas aplicadas a la gestión de lo público?
Ya lo sabes, el 8 de julio el caso BOSCO llegará al Tribunal Supremo para una vista oral decisiva. Pero, ¿conoces el origen de este litigio y por qué se ha convertido en una batalla clave para la transparencia de las decisiones automatizadas aplicadas a la gestión de lo público?
Así empezó todo: con un bono social denegado y silencio.
Ponte que pides una ayuda esencial para poder pagar tu factura de la luz, como el bono social, y te la deniegan sin saber por qué. Esto les pasó a muchas personas en 2018. Y también les sucedía a hogares aparentemente vulnerables, que parecían cumplir todos los requisitos. Pero la ayuda les era negada, y nadie les aclaraba los motivos.
En Civio, nuestra labor es hacer lo complejo comprensible y acercar la información pública a la ciudadanía. Por eso, decidimos pedir el código del programa informático BOSCO, la herramienta que la Administración creó y puso a disposición de las empresas eléctricas para gestionar el bono social. Queríamos entender cómo funcionaba. La respuesta del Ministerio fue una denegación implícita, que nos obligó a reclamar ante el Consejo de Transparencia.
Insistiendo, logramos acceder a parte de la información: las funcionalidades y los casos de uso de BOSCO. Y fue ahí, en esos documentos parciales, donde encontramos las primeras grietas: el diseño de BOSCO dejaba fuera a personas que cumplían todos los requisitos para recibir el bono social. Un programa público, diseñado para ayudar, estaba cometiendo errores que afectaban directamente a los más vulnerables. Y lo más grave: nadie se había dado cuenta. Sin el código completo, sin poder ver las “tripas” del sistema, no podíamos auditarlo a fondo ni garantizar que esos fallos se hubieran corregido del todo o si existían otros ocultos.
Así empezó un pulso de seis años hasta llegar al Tribunal Supremo.
Desde aquel primer “no” en 2018, nuestra lucha ha sido un pulso constante contra la opacidad. Hemos ido a juicio dos veces. Perdimos el primer asalto en 2022 y, en mayo de 2024, la Audiencia Nacional nos dio un nuevo revés. En ambas ocasiones, nos condenaron a pagar costas -3.500 euros en total hasta ahora,- alegando que liberar el código contravenía la propiedad intelectual, o que afectaría a la seguridad pública e incluso a la defensa nacional. Llegaron a dar por válido, con argumentos francamente difíciles de creer, que con el código de BOSCO podríamos “minar criptomonedas” desde los ordenadores del ministerio o “acceder a datos de Hacienda”.
¿Tirar la toalla? Ni hablar.
Entretanto, en un giro positivo, el Consejo de Transparencia cambió de idea y empezó a apoyar nuestro acceso al código. Es más, incluso la entonces Secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, declaró sentirse “muy insatisfecha del caso BOSCO” y aseguró que “no era verdad” que abrir el código atentara contra la protección de datos y la propiedad intelectual. ¿Recuerdas Radar COVID? Esa aplicación se desarrolló durante la pandemia, el Gobierno liberó su código fuente y no pasó absolutamente nada. Si fue bueno para Radar COVID, ¿por qué no para BOSCO? ¿Qué había que ocultar?
Esta no es solo una historia de hace seis años. Es la esencia de lo que hacemos en Civio: cuestionar, investigar y exigir respuestas para que lo público sea realmente transparente y rinda cuentas. Es nuestra determinación por desentrañar esas “cajas negras” lo que nos ha llevado, paso a paso y recurso tras recurso, hasta el Tribunal Supremo. El caso BOSCO es un ejemplo claro de ese compromiso: no nos conformamos con la opacidad, ni con las medias verdades.
¿Por qué BOSCO es clave para la transparencia de las decisiones automatizadas?
Puede que BOSCO te suene a un programa específico para el bono social. Y lo es. Pero la batalla que estamos librando por su transparencia va mucho más allá: es un espejo de cómo queremos que sean la Inteligencia Artificial y los algoritmos aplicados a lo público, que ya nos rodean y que están por venir.
La administración pública está incorporando cada vez más sistemas automatizados para gestionar servicios, asignar recursos o tomar decisiones. La búsqueda de más eficiencia es tentadora, pero la opacidad en este ámbito supone un riesgo gigante. Si no sabemos cómo funcionan estas “cajas negras” algorítmicas, ¿cómo podemos detectar errores o sesgos? ¿Cómo sabemos si los criterios que nos aplican son justos o si nos discriminan? Cuando no hay transparencia, hay indefensión.
El caso BOSCO es el primer gran pulso que se libra en el Tribunal Supremo sobre la transparencia algorítmica en España. Lo que se decida allí no solo afectará al bono social, sino que sentará un precedente clave para todos los sistemas de IA y algoritmos que ya están decidiendo o influyendo sobre nuestros derechos y recursos públicos.
En Civio, no solo observamos el futuro de la administración digital, lo construimos. Llevamos tiempo investigando sobre los riesgos de la opacidad algorítmica y proponiendo soluciones para una IA pública transparente y responsable. Nuestra lucha en el caso BOSCO es un paso fundamental en ese camino, pero no es la única “caja negra” que hemos puesto bajo el foco público.
-
Hemos revelado que las prisiones españolas usan un algoritmo obsoleto, sin actualizar desde 1993, que ha influido en más de 200 resoluciones judiciales sobre permisos de salida en solo un año, clasificando a presos extranjeros sin arraigo como de “riesgo elevado” sin más factores.
-
Hemos destapado cómo la Policía Nacional dejó de usar Veripol, su IA estrella que sospechaba de una denuncia si incluía palabras como “espalda” o “autobús”, por “carecer de validez en procedimientos judiciales”.
-
Hemos adelantado que la Policía Local de Valencia comienza a usar IA predictiva, y cómo otros cuerpos empiezan a implantar sistemas automatizados.
-
Acabamos de contarte cómo el Servicio Vasco de Salud está a punto de implantar una IA para detectar melanomas que se equivoca en 1 de cada 3 melanomas y cuya precisión es más que dudosa en pieles oscuras porque se ha entrenado prácticamente solo con personas de piel blanca.
Y lo que queda…
La batalla por BOSCO es una por un principio básico: si la administración toma decisiones que te afectan con un algoritmo, una IA o un sistema automatizado, tenemos derecho a saberlo y conocerlo. Es tu vida, son tus derechos. Y queremos que el Tribunal Supremo lo confirme. Aunque no está siendo nada fácil.
Esta es la lucha de fondo que libramos en Civio: garantizar una IA transparente y al servicio de las personas. Si compartes esta visión de futuro, únete a nuestra comunidad: incluso por menos de lo que cuesta un café al mes, gracias a la deducción fiscal ☕
Tu apoyo es la fuerza que nos hace falta para seguir sacando esas “cajas negras” a la luz. Gracias por considerarlo.
✍️ El equipo de Civio