IA con propósito: cuando la innovación social se enfrenta a las estructuras
- Alicia Romero
- 14 nov 2025
- 6 Min. de lectura
Por Alicia Romero, Cenit
Equipo Hackathon 2025: DiloClaro
Estamos a las puertas de una era en la que las máquinas nos escuchan, nos responden y hasta nos traducen con una precisión que parecía imposible hace una década. Y, sin embargo, seguimos enfrentándonos a un documento administrativo como si fuera un texto cifrado. Asimov soñó con leyes que protegieran a las personas de las máquinas; hoy las necesitamos para que nos protejan de nuestra propia complejidad.
Pero también estamos en el momento más prometedor de todos: nunca habíamos tenido tanta tecnología al servicio de la empatía. Por primera vez, podemos usar la inteligencia artificial no solo para automatizar, sino para acercar.
Quienes hemos pasado buena parte de nuestra carrera acompañando a administraciones públicas en procesos de transformación digital, hemos visto cómo algunas de las mejores ideas, las más humanas, las más justas se quedaban atascadas entre la fase piloto y la realidad. Proyectos que nacen para hacer la vida más comprensible, accesible o equitativa, como DiloClaro, terminan chocando con un muro de inercias, normativas desfasadas y estructuras de financiación que no están pensadas para sostener la innovación y menos aún la innovación social.
No es que la tecnología no funcionara, sino que el sistema no estaba preparado para sostenerla. Por tanto, la pregunta no es si podemos hacerlo. La pregunta es qué debe cambiar para que la tecnología con propósito no se agote en un laboratorio de innovación, sino que se consolide.
De la innovación a la política pública estructural
En el sector público, la innovación suele llegar en forma de proyectos piloto, impulsados por el entusiasmo de unos pocos equipos y la financiación puntual de una convocatoria. Pero cuando el proyecto acaba, lo hace también la oportunidad de consolidarlo.
Necesitamos marcos de adopción estructural que permitan que las innovaciones con propósito pasen de la prueba de concepto a la política pública. Eso implica financiación plurianual e integración normativa. Por lo que estas iniciativas y sus proyectos no deberían depender de fondos ocasionales: su lugar está en el núcleo de la estrategia digital de las administraciones.
La transformación real no vendrá de la tecnología, sino de nuestra capacidad para usarla con propósito. Solo así cuestiones como la accesibilidad cognitiva dejará de ser un “plus” para convertirse en una obligación institucional.
Cultura social y responsabilidad compartida
A menudo hablamos de accesibilidad como si fuera una concesión. Pero no lo es: es una deuda.
La tecnología actual nos permite simplificar, traducir y anticipar, pero seguimos mirando a los colectivos vulnerables como si el problema fuera suyo, cuando en realidad es de una sociedad que comunica sin empatía. Una sociedad verdaderamente digital no es la que automatiza trámites, sino la que los hace comprensibles para todos y todas.
La IA responsable amplifica nuestra capacidad de cuidar, pero solo si la acompañamos de una pedagogía social que promueva empatía digital y equidad comunicativa.Facilitar la vida a los demás es más sencillo que nunca. Lo difícil sigue siendo querer hacerlo como prioridad.
Financiación y retorno de la inversión con propósito
Uno de los principales bloqueos estructurales está en cómo entendemos el retorno.En la administración, el ROI se traduce en ahorro, eficiencia o reducción de tiempos. Pero el valor social también tiene métricas: una notificación entendida, un trámite completado sin ayuda, una persona mayor que no renuncia a un derecho porque el lenguaje era incomprensible. Necesitamos modelos híbridos de evaluación, donde los beneficios sociales, éticos y de confianza se integren en los indicadores de éxito.Invertir en accesibilidad cognitiva, por ejemplo, es invertir en eficiencia ciudadana: menos errores, menos repetición de trámites, más autonomía. El retorno no solo es económico, es social y democrático.
Ecosistemas de innovación inclusivos y realistas
Los ecosistemas de innovación pública suelen estar poblados de tecnólogos, universidades y administraciones, pero raramente de las personas a las que esas innovaciones quieren servir.
La IA con propósito necesita ecosistemas cívicos, donde las asociaciones, fundaciones y colectivos vulnerables participen desde el diseño y no solo en la fase de validación. Esa participación no puede ser simbólica. Debe traducirse en procesos de co-creación que integren la voz de quienes experimentan las brechas de comprensión o acceso.
En el caso de DiloClaro, esa validación participativa garantiza que el lenguaje claro y la lectura fácil respondan a necesidades reales, no a suposiciones técnicas. El verdadero salto de calidad ocurre cuando el impacto social se diseña desde el principio, no cuando se mide al final.
De la accesibilidad técnica a la accesibilidad cognitiva
Desde hace años, las normas europeas y españolas obligan a que los portales públicos cumplan los estándares de accesibilidad web (WCAG). Eso permite que cualquier persona pueda entrar en la página, pero no asegura que pueda entender lo que allí se dice.
Ha llegado el momento de ampliar el concepto: la accesibilidad cognitiva debe reconocerse como un derecho ciudadano, vinculado al derecho a la información y a la igualdad. No basta con que las interfaces sean navegables; deben ser comprensibles. Así como hoy se exige que los sitios sean técnicamente accesibles, deberíamos exigir que la información pública esté redactada en lenguaje claro y lectura fácil.
La ONU y la UNESCO llevan tiempo recordando que el acceso a la información solo es real cuando las personas pueden comprenderla y utilizarla. La Convención sobre los Derechos de las Personas con Discapacidad (artículos 9 y 21) insta a los Estados a garantizar no solo la accesibilidad física y digital, sino también la accesibilidad en la comunicación y la información, en formatos que sean claros, legibles y adaptados a la diversidad cognitiva.
España ha dado un paso importante en esta dirección al incorporar la accesibilidad cognitiva en su legislación (Ley 6/2022), reconociéndola como condición necesaria para la inclusión social. Aun así, queda mucho por hacer: las normas técnicas aseguran que un sitio web funcione correctamente, pero no garantizan que un ciudadano entienda lo que la administración le está comunicando.
Así como hoy exigimos que los sitios sean técnicamente accesibles, deberíamos exigir también que la información pública esté redactada en lenguaje claro y lectura fácil. Comprender lo que leemos no es un lujo: es parte esencial del derecho a participar plenamente en la vida democrática.
Además, una normativa de claridad y comprensión no solo mejoraría la experiencia ciudadana, sino que también abriría un nuevo espacio de innovación y colaboración entre administraciones y empresas tecnológicas responsables. La administración no solo asegura el acceso: también marca el rumbo del sector TIC. Y en ese rumbo debería estar, por ejemplo, la obligación de comunicar de forma que todas las personas puedan entender lo que se les dice.
De hecho, ya existen pasos normativos importantes que apuntan en esa dirección. En Andalucía, por ejemplo, el Decreto-ley 3/2024, de 6 de febrero, por el que se adoptan medidas de simplificación y racionalización administrativa para la mejora de las relacionesde los ciudadanos con la Administración de la Junta de Andalucía y el impulsode la actividad económica en Andalucía. Sin embargo, la aplicación práctica de estas normas sigue siendo desigual y carece de una estrategia digital que las traslade al ámbito de la inteligencia artificial y la automatización de servicios públicos.
Gobernanza ética de la IA con propósito
Como conclusión, queda claro que los proyectos de inteligencia artificial, con propósito, no fracasan por falta de talento o de tecnología, sino por exceso de fricción. Fricción normativa, institucional, cultural. Si realmente queremos que la IA responsable se consolide en el sector público, necesitamos alinear tres dimensiones:
la política pública, que impulse y financie;
la capacidad técnica, que acompañe y supervise;
y la cultura social, que comprenda y sostenga.
Solo cuando esas tres capas se alineen, la tecnología con propósito dejará de ser una promesa para convertirse en una política pública transformadora.
Pero, además, es fundamental recordar que la IA Responsable no es un atributo del modelo, sino del sistema que la gobierna. Su madurez no depende solo del cumplimiento normativo, sino de la capacidad institucional de garantizar principios como la transparencia, la equidad, la explicabilidad y la supervisión humana en todo el ciclo de vida de la tecnología.
El AI Act europeo abre precisamente esa puerta, estableciendo obligaciones diferenciadas según el riesgo y reconociendo el papel clave de la gobernanza ética en la administración pública. La cuestión es si sabremos traducir esos marcos a políticas nacionales y regionales que no se limiten a regular, sino que impulsen la innovación con propósito.
Porque la inteligencia artificial más responsable no será la más avanzada, sino la que consiga alinear ética, impacto y estructura.





Comentarios