Cada día que pasa, las administraciones públicas van dejando importantísimas decisiones, políticas sociales y nuevas garantías y derechos del estado de bienestar en manos más y más automatizadas.

Hablamos de tecnologías usadas para predecir, vigilar, decidir, automatizar, identificar, excluir o sancionar. De procesos automatizados que, pobremente diseñados, pueden provocar exclusión y ensanchar la brecha digital. De servidores públicos que eluden responsabilidades y se las atribuyen “al algoritmo”. De los riesgos de una administración más arbitraria y opaca cuando se entrega a decisiones automatizadas que no podemos conocer ni cuestionar. De trámites que únicamente se pueden hacer online, con la ventanilla de la administración bajada. Pero, sobre todo, hablamos de costes reales en la vida de personas y comunidades porque, en muchos casos, no tienen conocimientos ni medios para saber si están recibiendo un trato justo de las administraciones.

Sabemos bien de lo que hablamos porque hemos demostrado y sacado a la luz casos de exclusión basada en sistemas decisión automatizados mal diseñados. Y porque estamos en los tribunales para evitar que se repitan. Y en 2023 vamos a llevar estos esfuerzos más lejos.

Gracias a una beca del European Artificial Intelligence Fund vamos a poder sistematizar y mejorar lo que ya venimos haciendo desde 2019, pero de forma estratégica. El European Artificial Intelligence Fund es un esfuerzo filantrópico y de capacitación de un grupo de fundaciones europeas para alinear el impacto de estas tecnologías con los principios de justicia, equidad, inclusión, transparencia y derechos humanos. Civio es una de las 14 organizaciones becadas en 2022 tras una convocatoria abierta a la que se presentaron 143 candidaturas.

Vamos a usar este apoyo para:

  • Seguir investigando las automatizaciones de la administración, en particular las relacionadas con ayudas públicas y acceso al estado de bienestar. Prestaremos atención tanto a problemas sistémicos de la administración que ya hemos detectado -como barreras técnicas y accesibilidad restrictiva, algoritmos opacos, errores administrativos y exclusión por fallos de diseño- como a lo más importante: el impacto humano y real que estas automatizaciones y herramientas digitales tienen en personas y comunidades.

  • Litigar estratégicamente, llevar el caso BOSCO ante el Tribunal Supremo y tratar de sentar un precedente jurídico, desmontando los argumentos del Gobierno contra la transparencia de estos sistemas bajo premisas como supuestos peligros para la seguridad pública, para la seguridad nacional o la propiedad intelectual. Haremos sensibilización pública y compartiremos lo aprendido con otros colectivos.

  • Presionaremos y forjaremos alianzas para que la adaptación a la normativa europea en materia de digitalización e inteligencia artificial, nuestra estrategia nacional y la futura agencia de supervisión de estos sistemas prioricen el respeto a los derechos, la transparencia y la inclusividad. Queremos que se regule esta materia con la participación de expertos y afectados, con información pública sobre su diseño y funcionamiento, con auditorías y estudios de su impacto y con supervisión independiente.

El momento no puede ser más oportuno. Estamos pendientes del nacimiento de la futura Agencia Estatal para la Supervisión de la Inteligencia Artificial (AESIA). El Gobierno ha propuesto que España sea el “campo de pruebas” para la aplicación del futuro reglamento europeo sobre IA. Y esperamos avances concretos relacionados con la Estrategia Nacional de Inteligencia Artificial y la creación del futuro Observatorio del Impacto Social de los Algoritmos.

En Civio decimos “sí” al uso de tecnologías y a la innovación en nuestras instituciones, pero no de cualquier forma. Sin atajos. Abordando los sesgos estructurales y otros problemas de algunas de estas tecnologías. Poniendo a la ciudadanía en el centro, en particular a comunidades vulnerables. Y siempre bajo la condición de que exista transparencia y rendición de cuentas sobre su uso. Pero, como eso no se corresponde con la realidad de hoy, vamos a poner todo de nuestra parte para que así sea.

¿Qué puedes hacer tú?

NO a la opacidad en los procesos de decisión informatizados

En Civio hacemos un enorme esfuerzo para que exista transparencia sobre el funcionamiento de programas y sistemas informáticos que rigen sobre nuestras vidas y derechos.

Sí tú también piensas que nos jugamos la transparencia del mañana en procesos como este, ayúdanos a decir NO al uso de algoritmos ocultos al escrutinio público por parte de las administraciones.

ÚNETE AHORA

Gracias por tu compromiso.