En una carta al Gobierno de España, más de 40 organizaciones de la sociedad civil, entre ellas Civio, reclamamos al Gobierno que dé prioridad al respeto por los derechos, la transparencia y la inclusividad en el uso de algoritmos, inteligencias artificiales (IAs) y sistemas de decisión automatizados por parte de las administraciones públicas.

Y, para ello, pedimos que incluya a la sociedad civil tanto en el proceso de creación de la futura Agencia Estatal para la Supervisión de la Inteligencia Artificial (AESIA) como en su posterior funcionamiento con mecanismos formales de interlocución y debate público.

Estas son las claves:

✔️ ¿Quiénes firman esta carta? Junto con Civio, la promueven Lafede.cat, la Fundación Eticas, Algorights, el Observatorio del Trabajo, Algoritmos y Sociedad, AlgoRace o Komons. Además de ellas, se han adherido más de 40 organizaciones.

✔️ ¿A quién va dirigida? A la Secretaría de Estado de Digitalización e Inteligencia Artificial.

✔️ ¿Qué pedimos? Que la futura Agencia Estatal para la Supervisión de la Inteligencia Artificial (AESIA):

  • Facilite que quienes ya velamos por el buen funcionamiento y la garantía de derechos asociados al uso de algoritmos, inteligencias artificiales (IAs) y sistemas de decisión informatizados podamos participar en su diseño y estrategia.
  • Garantice la transparencia, equidad y responsabilidad de este tipo de tecnologías.
  • Sea un organismo realmente independiente, transparente y que tenga como una de sus prioridades facilitar la comprensión de toda la ciudadanía sobre estos sistemas.

✔️ ¿En qué contexto? La creación de la AESIA está prevista para este mismo año. Se espera además que sirva de “campo de pruebas” para la aplicación del futuro reglamento europeo sobre las IAs y para la puesta en marcha de un organismo supervisor para toda la UE.

✔️ ¿Qué hace Civio en esto? Desde 2018 tenemos un litigio abierto para conocer el código fuente de BOSCO, la aplicación informática desarrollada por el Gobierno y que usan las eléctricas para conceder o no descuentos en su factura de la luz. ¿Por qué? Porque demostramos que denegó la ayuda a personas que tenían derecho a ella por un fallo de diseño. Los tribunales nos han denegado en primera instancia el acceso a dicho código, y condenado a pagar las costas. Por supuesto, hemos recurrido. Y ojo, que puede haber remontada.

✔️ ¿Por qué es importante? Nuestra relación con lo público está cada día más automatizada. La opacidad sobre cómo funcionan los sistemas informáticos que, cada día más, determinan derechos y deberes, nos afecta individualmente y también como sociedad. ¿Debemos confiar en ellos a ojos ciegos? ¿O -como pensamos en Civio- deberíamos poder conocerlos y auditarlos, como al resto de códigos y normas que rigen sobre nuestras vidas?

👉 Aquí puedes leer la carta en castellano, catalán, gallego (¡gracias a nuestro socio Anxo por la traducción!) e inglés, y adherirte a ella, si quieres, desde la plataforma o colectivo que representes.

👉 Aquí puedes descargar la nota de prensa colectiva que hemos emitido.

NO a la opacidad en los procesos de decisión informatizados

En Civio hacemos un enorme esfuerzo para que exista transparencia sobre el funcionamiento de programas y sistemas informáticos que rigen sobre nuestras vidas y derechos

Sí tú también piensas que nos jugamos la transparencia del mañana en procesos como este, ayúdanos a decir NO al uso de algoritmos ocultos al escrutinio público por parte de las administraciones.

ÚNETE AHORA

Gracias por tu compromiso.