top of page
DiseƱo sin tƭtulo (1).png

Blog Odiseia

Sigue nuestro blog y mantente al día de todos los avances y noticias en el mundo de la inteligencia artificial y su impacto social y ético.

IA con propósito: cuando la innovación social se enfrenta a las estructuras

Por Alicia Romero, Cenit

Equipo Hackathon 2025: DiloClaro


Estamos a las puertas de una era en la que las mÔquinas nos escuchan, nos responden y hasta nos traducen con una precisión que parecía imposible hace una década. Y, sin embargo, seguimos enfrentÔndonos a un documento administrativo como si fuera un texto cifrado. Asimov soñó con leyes que protegieran a las personas de las mÔquinas; hoy las necesitamos para que nos protejan de nuestra propia complejidad.


Pero también estamos en el momento mÔs prometedor de todos: nunca habíamos tenido tanta tecnología al servicio de la empatía. Por primera vez, podemos usar la inteligencia artificial no solo para automatizar, sino para acercar. 


Quienes hemos pasado buena parte de nuestra carrera acompañando a administraciones públicas en procesos de transformación digital, hemos visto cómo algunas de las mejores ideas, las mÔs humanas, las mÔs justas se quedaban atascadas entre la fase piloto y la realidad. Proyectos que nacen para hacer la vida mÔs comprensible, accesible o equitativa, como DiloClaro, terminan chocando con un muro de inercias, normativas desfasadas y estructuras de financiación que no estÔn pensadas para sostener la innovación y menos aún la innovación social.


No es que la tecnología no funcionara, sino que el sistema no estaba preparado para sostenerla. Por tanto, la pregunta no es si podemos hacerlo. La pregunta es qué debe cambiar para que la tecnología con propósito no se agote en un laboratorio de innovación, sino que se consolide.


De la innovación a la política pública estructural


En el sector público, la innovación suele llegar en forma de proyectos piloto, impulsados por el entusiasmo de unos pocos equipos y la financiación puntual de una convocatoria. Pero cuando el proyecto acaba, lo hace también la oportunidad de consolidarlo.


Necesitamos marcos de adopción estructural que permitan que las innovaciones con propósito pasen de la prueba de concepto a la política pública. Eso implica financiación plurianual e integración normativa. Por lo que estas iniciativas y sus proyectos no deberían depender de fondos ocasionales: su lugar estÔ en el núcleo de la estrategia digital de las administraciones. 


La transformación real no vendrĆ” de la tecnologĆ­a, sino de nuestra capacidad para usarla con propósito. Solo asĆ­ cuestiones como la accesibilidad cognitiva dejarĆ” de ser un ā€œplusā€ para convertirse en una obligación institucional.


Cultura social y responsabilidad compartida


A menudo hablamos de accesibilidad como si fuera una concesión. Pero no lo es: es una deuda.

La tecnología actual nos permite simplificar, traducir y anticipar, pero seguimos mirando a los colectivos vulnerables como si el problema fuera suyo, cuando en realidad es de una sociedad que comunica sin empatía. Una sociedad verdaderamente digital no es la que automatiza trÔmites, sino la que los hace comprensibles para todos y todas. 


La IA responsable amplifica nuestra capacidad de cuidar, pero solo si la acompaƱamos de una pedagogƭa social que promueva empatƭa digital y equidad comunicativa.Facilitar la vida a los demƔs es mƔs sencillo que nunca. Lo difƭcil sigue siendo querer hacerlo como prioridad.


Financiación y retorno de la inversión con propósito


Uno de los principales bloqueos estructurales estÔ en cómo entendemos el retorno.En la administración, el ROI se traduce en ahorro, eficiencia o reducción de tiempos. Pero el valor social también tiene métricas: una notificación entendida, un trÔmite completado sin ayuda, una persona mayor que no renuncia a un derecho porque el lenguaje era incomprensible. Necesitamos modelos híbridos de evaluación, donde los beneficios sociales, éticos y de confianza se integren en los indicadores de éxito.Invertir en accesibilidad cognitiva, por ejemplo, es invertir en eficiencia ciudadana: menos errores, menos repetición de trÔmites, mÔs autonomía. El retorno no solo es económico, es social y democrÔtico.


Ecosistemas de innovación inclusivos y realistas


Los ecosistemas de innovación pública suelen estar poblados de tecnólogos, universidades y administraciones, pero raramente de las personas a las que esas innovaciones quieren servir.


La IA con propósito necesita ecosistemas cívicos, donde las asociaciones, fundaciones y colectivos vulnerables participen desde el diseño y no solo en la fase de validación. Esa participación no puede ser simbólica. Debe traducirse en procesos de co-creación que integren la voz de quienes experimentan las brechas de comprensión o acceso. 


En el caso de DiloClaro, esa validación participativa garantiza que el lenguaje claro y la lectura fÔcil respondan a necesidades reales, no a suposiciones técnicas. El verdadero salto de calidad ocurre cuando el impacto social se diseña desde el principio, no cuando se mide al final.


De la accesibilidad tƩcnica a la accesibilidad cognitiva


Desde hace años, las normas europeas y españolas obligan a que los portales públicos cumplan los estÔndares de accesibilidad web (WCAG). Eso permite que cualquier persona pueda entrar en la pÔgina, pero no asegura que pueda entender lo que allí se dice.


Ha llegado el momento de ampliar el concepto: la accesibilidad cognitiva debe reconocerse como un derecho ciudadano, vinculado al derecho a la información y a la igualdad. No basta con que las interfaces sean navegables; deben ser comprensibles. Así como hoy se exige que los sitios sean técnicamente accesibles, deberíamos exigir que la información pública esté redactada en lenguaje claro y lectura fÔcil. 


La ONU y la UNESCO llevan tiempo recordando que el acceso a la información solo es real cuando las personas pueden comprenderla y utilizarla. La Convención sobre los Derechos de las Personas con Discapacidad (artículos 9 y 21) insta a los Estados a garantizar no solo la accesibilidad física y digital, sino también la accesibilidad en la comunicación y la información, en formatos que sean claros, legibles y adaptados a la diversidad cognitiva.


España ha dado un paso importante en esta dirección al incorporar la accesibilidad cognitiva en su legislación (Ley 6/2022), reconociéndola como condición necesaria para la inclusión social. Aun así, queda mucho por hacer: las normas técnicas aseguran que un sitio web funcione correctamente, pero no garantizan que un ciudadano entienda lo que la administración le estÔ comunicando.


Así como hoy exigimos que los sitios sean técnicamente accesibles, deberíamos exigir también que la información pública esté redactada en lenguaje claro y lectura fÔcil. Comprender lo que leemos no es un lujo: es parte esencial del derecho a participar plenamente en la vida democrÔtica.


AdemÔs, una normativa de claridad y comprensión no solo mejoraría la experiencia ciudadana, sino que también abriría un nuevo espacio de innovación y colaboración entre administraciones y empresas tecnológicas responsables. La administración no solo asegura el acceso: también marca el rumbo del sector TIC. Y en ese rumbo debería estar, por ejemplo, la obligación de comunicar de forma que todas las personas puedan entender lo que se les dice.


De hecho, ya existen pasos normativos importantes que apuntan en esa dirección. En Andalucía, por ejemplo, el Decreto-ley 3/2024, de 6 de febrero, por el que se adoptan medidas de simplificación y racionalización administrativa para la mejora de las relacionesde los ciudadanos con la Administración de la Junta de Andalucía y el impulsode la actividad económica en Andalucía. Sin embargo, la aplicación prÔctica de estas normas sigue siendo desigual y carece de una estrategia digital que las traslade al Ômbito de la inteligencia artificial y la automatización de servicios públicos.


Gobernanza ética de la IA con propósito


Como conclusión, queda claro que los proyectos de inteligencia artificial, con propósito, no fracasan por falta de talento o de tecnología, sino por exceso de fricción. Fricción normativa, institucional, cultural. Si realmente queremos que la IA responsable se consolide en el sector público, necesitamos alinear tres dimensiones:


  • la polĆ­tica pĆŗblica, que impulse y financie;

  • la capacidad tĆ©cnica, que acompaƱe y supervise;

  • y la cultura social, que comprenda y sostenga.


Solo cuando esas tres capas se alineen, la tecnología con propósito dejarÔ de ser una promesa para convertirse en una política pública transformadora. 


Pero, ademÔs, es fundamental recordar que la IA Responsable no es un atributo del modelo, sino del sistema que la gobierna. Su madurez no depende solo del cumplimiento normativo, sino de la capacidad institucional de garantizar principios como la transparencia, la equidad, la explicabilidad y la supervisión humana en todo el ciclo de vida de la tecnología.


El AI Act europeo abre precisamente esa puerta, estableciendo obligaciones diferenciadas según el riesgo y reconociendo el papel clave de la gobernanza ética en la administración pública. La cuestión es si sabremos traducir esos marcos a políticas nacionales y regionales que no se limiten a regular, sino que impulsen la innovación con propósito.


Porque la inteligencia artificial mƔs responsable no serƔ la mƔs avanzada, sino la que consiga alinear Ʃtica, impacto y estructura.

Ā 
Ā 
Ā 
bottom of page