top of page
Diseño sin título (1).png

Blog Odiseia

Sigue nuestro blog y mantente al día de todos los avances y noticias en el mundo de la inteligencia artificial y su impacto social y ético.

La serie “IA que deja huella”: innovación situada, vulnerabilidad y gobernanza responsable

Coordinadora del grupo 1.4 AI4Good, Proyecto cAIre - OdiseIA


La serie de IA que deja huella nace del subgrupo 1.4 de cAIre–OdiseIA, con un propósito concreto: entender cómo evoluciona la innovación social basada en IA cuando sale del laboratorio y entra en la realidad, y, al mismo tiempo, difundir, inspirar, conectar y sensibilizar, más allá de evaluar. Queremos observar qué ocurre cuando una solución creada con propósito, para acompañar a personas mayores, hacer comprensible el lenguaje administrativo o mejorar la empleabilidad, intentan madurar en un ecosistema que no siempre está preparado para sostenerlas.


Nuestro enfoque parte de una hipótesis sencilla aunque controvertida: la vulnerabilidad no es una condición individual o de un grupo de personas, es una condición estructural y relacional. La tecnología puede aliviarla o intensificarla según cómo se diseña, se acompaña y, sobre todo, según las estructuras que permiten que un proyecto se convierta en una solución comercializable y sostenible.


En esta contribución me gustaría compartir reflexiones sobre las tres experiencias de GaIA, DiloClaro y Woowii porque, más que historias individuales, son espejos de lo que funciona, lo que falta y lo que deberíamos cambiar a nivel de políticas tanto de innovación como de gobernanza. Y estas reflexiones se vuelven aún más pertinentes a la luz de una novedad regulatoria muy reciente: el 19 de noviembre, se hizo pública la reciente propuesta de la Comisión Europea llamada “Paquete Ómnibus Digital sobre la IA”. Esta propuesta, como se indica en la propia web de la Comisión, contiene medidas de simplificación específicas para garantizar una aplicación más ágil, fluida y sin fricciones de algunas de las disposiciones del Reglamento de IA (AI Act), con el objetivo declarado de aliviar cargas y estimular la innovación.


Entre esos ajustes aparece la supresión de la obligación de alfabetización en IA del artículo 4, un cambio que plantea nuevas preguntas sobre cómo queremos que se despliegue la IA en entornos reales.

Las tres experiencias que analizo a continuación permiten leer este contexto de otro modo: no como un debate exclusivamente normativo, sino como un punto de encuentro entre marcos legales, capacidades humanas y trayectorias de proyectos que avanzan en condiciones diversas. Qué significa esta supresión, qué efectos puede tener y cómo se relaciona con las dinámicas que observamos en GaIA, DiloClaro y Woowii no es algo que pueda resolverse desde la abstracción; es precisamente en las historias concretas donde este debate adquiere matices que a menudo se pierden en los documentos oficiales.


Tres historias que iluminan la misma fractura


GaIA: cuando la maduración tecnológica exige cuidados estructurales


El equipo de GaIA —Miguel Esteban, Alex Montecino y Pablo Martínez— nació en el contexto del Hackathon OdiseIA4Good 2025 como una idea para crear un asistente digital dirigido a personas mayores que viven solas o en situación de vulnerabilidad, con la intención de combatir la soledad. 

Tras el hackathon, el equipo de GaIA ha participado en un taller en el Instituto para la Competitividad Empresarial de Castilla y León, Wolaria, donde han recibido mentorías especializadas. Allí han comprendido algo esencial: no basta con prototipar; hay que definir desde el inicio un modelo de negocio sostenible y una propuesta de valor clara. 


A pesar de ello, el equipo tiene muy claro que su apuesta va más allá del código: buscan dignidad, bienestar y autonomía para las personas mayores. No les basta con que la IA funcione: debe percibirse como segura, respetuosa con la privacidad, fácil de usar y verdaderamente útil. Y esta ecuación suele ser complicada de resolver porque el desarrollo técnico es la parte más “sencilla”. Lo difícil es todo lo demás. No basta con construir un asistente eficaz; hace falta que quienes lo van a usar confíen en él, que las instituciones sepan integrarlo sin miedo y que existan espacios donde un proyecto así pueda madurar sin depender del voluntarismo o de convocatorias puntuales. 


Ahí es donde GaIA descubre la frontera real de la innovación social: la distancia entre lo que una IA puede hacer hoy y lo que nuestra sociedad está preparada para acompañar, adoptar y convertir en impacto duradero. La lección es clara: sin acompañamiento sostenido, la tecnología socialmente valiosa no madura.


DiloClaro: cuando la tecnología está lista y la institución no


En su reflexión, Alicia Romero, de Cenit sintetiza una verdad incómoda:


“No es que la tecnología no funcionara, es que el sistema no estaba preparado para sostenerla.”

DiloClaro nació con un propósito nítido: hacer comprensible la comunicación administrativa para personas con barreras cognitivas o lingüísticas; y con una solución técnicamente madura, validada y lista para desplegarse. Pero ahí es donde empezó la parte difícil.


Alicia nos cuenta cómo proyectos diseñados para facilitar la vida cotidiana suelen naufragar no por fallos de diseño, sino por la resistencia de las estructuras que deberían impulsarlos. En el caso de DiloClaro, esa resistencia adoptó muchas formas: trámites rígidos, inercias culturales que aún consideran el lenguaje claro como un “plus” y no como un derecho, convocatorias de financiación que empiezan y terminan demasiado rápido, y una falta persistente de capacidades internas para integrar innovaciones que no se ajustan a los protocolos existentes.


Su blog lo expresa con nitidez: entre el piloto y la adopción suele abrirse un abismo. Y ese abismo no se llena con más tecnología, sino con instituciones capaces de comprenderla y sostenerla.


La historia de DiloClaro, así, desplaza la mirada de la vulnerabilidad individual a la vulnerabilidad del propio sistema: no son las personas las que fallan, sino las estructuras que no logran adecuarse a sus necesidades. Por eso recuerda que la accesibilidad cognitiva no es una mejora opcional, sino una condición para la igualdad, tan esencial como la accesibilidad técnica. Sin ella, ningún avance algorítmico puede convertirse en impacto real.


Woowii: ética como resistencia en un ecosistema que no financia la justicia social


En la entrada más reciente, Alexandra Díaz M., fundadora de Woowii, ofrece un testimonio que sintetiza uno de los problemas estructurales del ecosistema español: la precariedad de quienes innovan para la inclusión, especialmente en sectores donde la rentabilidad rápida no es viable.


Woowii nació para ofrecer un matching laboral justo a mayores de 40 años y parados de larga duración. El MVP funciona, el enfoque es ético y el propósito está claro. El problema no está en la solución, sino en el entorno.


Alexandra explica cómo avanzar en ese contexto implica lidiar con la falta de financiación operativa, la ausencia de redes técnicas estables y la dificultad para atraer inversión cuando el retorno buscado es social y no inmediato. El reconocimiento llega, pero sin el acompañamiento que permitiría consolidar la propuesta.


Su testimonio revela una verdad más amplia: las soluciones éticas necesitan infraestructuras éticas, y hoy esas infraestructuras no existen. Por eso Woowii es tanto un proyecto tecnológico como un acto de resistencia, un recordatorio de que la innovación con propósito no fracasa por falta de talento, sino por falta de sistema.


¿Qué revelan estas tres historias de la innovación con propósito?


Si se miran juntas, las trayectorias de GaIA, Woowii y DiloClaro nos dibujan un mapa detallado de lo que ocurre cuando una tecnología nace con vocación social y se enfrenta al mundo real. La primera lección es quizá la más evidente: que algo funcione no significa que vaya a adoptarse. Los tres proyectos tienen prototipos sólidos, pero la validación técnica no siempre ha garantizado su continuidad. La brecha no está en el modelo de IA, sino en un ecosistema que carece de mecanismos estables para absorber proyectos más allá del piloto.


La segunda lección apunta a algo todavía más profundo: la sostenibilidad económica no es un detalle operativo, sino una dimensión ética. Es imposible exigir responsabilidad, transparencia o impacto social si quienes sostienen las soluciones trabajan desde la precariedad. Innovar sin recursos termina siendo otra forma de desigualdad, una que recae sobre quienes intentan corregir asimetrías estructurales sin las herramientas necesarias.


La tercera enseñanza emerge de manera transversal: la vulnerabilidad no está en las personas, sino en las relaciones que las rodean. La innovación con propósito no consiste solo en crear tecnología para alguien, sino en transformar las dependencias, los canales de acceso, los marcos cognitivos y las asimetrías que impiden que determinados colectivos ejerzan su autonomía. El valor de estos proyectos está precisamente en la forma en que intentan redistribuir agencia: hacer comprensible lo incomprensible, accesible lo inaccesible, acompañar donde antes había silencio.


Y hay una cuarta clave que atraviesa las tres historias como una corriente subterránea: la alfabetización en IA es la infraestructura invisible de toda innovación responsable. Cuando falta, todo se desmorona. Si los equipos no tienen formación suficiente, no pueden mantener su propia solución. Si las administraciones carecen de capacidades internas, la tecnología no encaja en sus procesos. Si los usuarios no comprenden qué tienen delante, no pueden beneficiarse de ello ni confiar en ello. Esta dimensión, tan poco visible y a la vez tan decisiva, conecta directamente con el debate regulatorio europeo, donde la alfabetización en IA se ha convertido en un terreno de disputa que determinará, en gran medida, quién puede usar la tecnología… y quién se queda fuera.


El paquete legislativo europeo de la Ómnibus Digital: una simplificación que debilita la alfabetización en IA


Las historias de GaIA, Woowii y DiloClaro muestran algo que rara vez aparece en los grandes documentos de estrategia: la IA con propósito no se sostiene únicamente en algoritmos robustos ni en marcos normativos, sino en una infraestructura humana que comprende, adapta y acompaña la tecnología. Esa infraestructura —hecha de capacidades, tiempo, alianzas y lenguaje compartido— marca el ritmo de estos proyectos. No avanzan con la velocidad que desearían, pero avanzan; no siguen un camino fácil, pero siguen. Su progreso no es lineal, sino persistente.


En GaIA, la cuestión nunca es solo técnica. Su capacidad para llegar a personas mayores depende tanto de la calidad del sistema como de la confianza que genera, de la facilidad con la que encaja en sus rutinas y del acompañamiento que permite que la herramienta no se perciba como algo ajeno. GaIA crece en ese equilibrio entre diseño, sensibilidad y comprensión mutua: cada mejora tecnológica requiere, al mismo tiempo, una mejora en cómo se comunica, se explica y se integra.


En Woowii, la dificultad no está en la construcción del producto —que funciona y ofrece un enfoque ético sólido—, sino en sostenerlo en un entorno que rara vez favorece la innovación social. Alexandra Díaz lo expone desde la convicción de quien sigue adelante: avanzar hoy implica una mezcla de resiliencia, creatividad y constancia. Woowii continúa precisamente porque su propósito se mantiene firme, no porque el ecosistema lo facilite.


DiloClaro, por su parte, no tropieza con barreras tecnológicas, sino con desajustes institucionales. Su avance depende de un cambio cultural alrededor del lenguaje claro, de procesos más flexibles y de administraciones capaces de reconocer que la comprensión es un componente indispensable de la inclusión. En ese terreno complejo, DiloClaro sigue encontrando maneras de desplegarse, dialogar y abrir espacios de adopción.


Por eso resulta especialmente llamativo y preocupante que la propuesta de Reglamento Ómnibus Digital sobre la IA de la Comisión Europea elimine la única obligación de alfabetización en IA presente en el AI Act: el artículo 4. Lo que hasta ahora era un deber claro pasará a ser una recomendación vaga, un “fomento” sin exigibilidad ni impacto real. Y este gesto, que podría parecer menor, altera uno de los pilares fundamentales del enfoque europeo: sustituye una obligación estructural por una invitación simbólica justo cuando la alfabetización en IA debería considerarse infraestructura crítica, al mismo nivel que la conectividad, la interoperabilidad o la supervisión algorítmica.


La ironía es evidente para cualquiera que haya seguido el debate regulatorio: si hay una idea sobre la que coinciden informes, evaluaciones de impacto y análisis sectoriales es precisamente esta. Pocos documentos políticos terminan sin recordar la importancia de la alfabetización en IA para trabajadores, usuarios y ciudadanía en general. La propia Comisión ha proclamado en repetidas ocasiones que la alfabetización es clave para el éxito tanto de Aplicar la estrategia de IA (Apply AI) como del Plan de Acción del Continente de IA. De hecho, investigaciones recientes muestran que sectores tan sensibles como el periodismo consideran la alfabetización la condición número uno para poder usar IA de forma responsable.


Y, sin embargo, es exactamente esta obligación, la que más consenso genera, la que ahora se propone diluir. El resultado no es neutral. Eliminar el carácter vinculante del artículo 4 implica dejar desprotegidos a quienes más necesitan acompañamiento: usuarios finales que deben enfrentarse a sistemas opacos, administraciones que intentan integrar tecnología sin capacidades internas suficientes, y equipos pequeños que impulsan proyectos sociales sin acceso constante a formación especializada. También significa desincentivar la inversión en capacitación de empleados en un momento en que el aprendizaje continuo es esencial para la empleabilidad a largo plazo. Y el impacto no acaba ahí: la ausencia de un compromiso firme con la alfabetización profundiza la dependencia europea de empresas, principalmente estadounidenses y chinas, que sí invierten de manera sistemática en conocimiento interno y especialización.


Dicho de otro modo: la supresión del artículo 4 es un ejemplo clásico de “pan para hoy y hambre para mañana". Una simplificación normativa que no reduce cargas, sino capacidades. Capacidades de comprender, supervisar, corregir, innovar. Capacidades que determinan quién se beneficia de la IA y quién queda al margen. Y cuando se mira esta decisión a la luz de GaIA, Woowii y DiloClaro, la señal es inequívoca: sin alfabetización suficiente, la IA con propósito no desaparecerá, pero avanzará con más fricción, más lentitud y más dependencia de quienes ya poseen las habilidades y los recursos para gobernarla.


Solo si el contexto sostiene, la innovación social puede dejar huella


Las historias de GaIA, Woowii y DiloClaro comparten un mensaje esencial: la innovación social no fracasa en el código; fracasa en el contexto.


Fracasa cuando las instituciones no están preparadas, cuando la sociedad no comprende, cuando los equipos no tienen apoyo, cuando la regulación simplifica en lugar de fortalecer capacidades.

Por eso IA que deja huella no es solo una serie de entrevistas: es un espacio para repensar cómo construimos, o cómo fallamos en construir, el ecosistema donde la IA con propósito puede convertirse en política pública, impacto real y transformación social.


La IA más responsable no será la más avanzada, sino la que articule tecnología, comunidad y estructuras que cuiden.


Y esa, precisamente, es la huella que debemos perseguir.

Comentarios


bottom of page