
Search Results
108 resultados encontrados
- 🎙️ Evaluaciones de impacto, derechos fundamentales y gobernanza de la IA: Pere Simón conversa con Mario Hernández Ramos
En esta entrevista, Pere Simón Castellano conversa con Mario Hernández Ramos, profesor de Derecho Constitucional en la Universidad Complutense de Madrid, presidente del Comité de Inteligencia Artificial del Consejo de Europa y una de las voces de referencia en el desarrollo de evaluaciones de impacto ético y de derechos humanos en inteligencia artificial. La conversación se inscribe en el Proyecto Red.es – Carta de Derechos Digitales, dentro del Ámbito 6: Derechos en los nuevos entornos digitales, y se centra en una cuestión clave para la gobernanza contemporánea de la IA: cómo alinear el desarrollo tecnológico con los valores democráticos, los derechos fundamentales y el Estado de derecho. A lo largo de la entrevista se abordan, de forma clara y rigurosa, cuestiones como: el enfoque basado en derechos humanos que el Consejo de Europa viene impulsando en materia de IA; el valor añadido de las evaluaciones de impacto como herramientas de anticipación de riesgos y de cultura de responsabilidad; la metodología HUDERIA (Human Rights, Democracy and Rule of Law Impact Assessment), sus fases, estructura y utilidad práctica; las posibilidades reales de aplicación de estas metodologías por administraciones públicas y actores internacionales; y su articulación con el modelo europeo basado en riesgos, especialmente en relación con el Reglamento de IA de la Unión Europea. El diálogo ofrece, además, una mirada prospectiva sobre el futuro de las evaluaciones de impacto, planteándolas no como un mero requisito formal, sino como un instrumento estructural de la gobernanza de la IA, llamado a integrarse de manera ordinaria en el diseño, despliegue y supervisión de sistemas algorítmicos. Una conversación imprescindible para responsables públicos, juristas, tecnólogos y todas las personas interesadas en comprender cómo las evaluaciones de impacto pueden convertirse en un puente efectivo entre innovación, derechos humanos y democracia. Pere Simón Castellano
- Nueva Guía de Ciberseguridad aplicada a la IA para la Alta Dirección
La adopción de la Inteligencia Artificial (IA) en nuestras organizaciones no es una simple transición tecnológica; es una realidad que ya sostiene el 89% de los sistemas críticos de negocio . Sin embargo, esta aceleración ha generado una brecha de seguridad preocupante: mientras la tecnología avanza, el 77% de las empresas admite enfrentar vulnerabilidades estructurales en su cadena de suministro de IA. Para cerrar esta brecha, el proyecto cAIre de OdiseIA , con el apoyo de Google.org , presenta la guía: Protección de Sistemas de Inteligencia Artificial (IA) en el entorno organizativo . Un documento esencial para transicionar la ciberseguridad desde un enfoque operativo que resuelve un "problema técnico" hacia un "pilar de gobierno corporativo". ¿Por qué la IA cambia las reglas del juego? A diferencia de la ciberseguridad tradicional, donde los fallos suelen ser visibles e inmediatos (como un ransomware), la inseguridad en la IA es silenciosa y acumulativa . Un sistema puede parecer que funciona perfectamente mientras está siendo "engañado" para tomar decisiones sesgadas, filtrar datos confidenciales o responder a instrucciones maliciosas ( prompt injection ). Como directivo, la pregunta ya no es solo "¿está el sistema caído?", sino "¿podemos confiar en la decisión que acaba de tomar este algoritmo?" . Lo que encontrará en esta Guía La guía desglosa la complejidad de la IA en cuatro bloques críticos para la toma de decisiones: El Ciclo de Vida Seguro: No se trata solo de proteger el "producto final", sino de asegurar desde la obtención de datos y el entrenamiento del modelo hasta su vigilancia continua. Mapa de Amenazas Específicas: Una disección de los nuevos vectores de ataque, como el envenenamiento de datos ( data poisoning ), la inversión de modelos para robar propiedad intelectual y el consumo incontrolado de recursos (DoS). Sistemas de Defensa y Mitigación: Un análisis de las herramientas de vanguardia, desde Guardrails y Firewalls para LLMs hasta estrategias de Red Teaming . Guía de uso para cargos directivos: Cómo obtener una visión general rápida Sabemos que el tiempo es su recurso más escaso. Por ello, la guía está estructurada para que un perfil ejecutivo pueda extraer valor inmediato mediante los siguientes pasos: 1. Evalúe el "Umbral de aceptación" (Sección 2.4) Utilice esta sección para definir qué nivel de riesgo está dispuesto a asumir la organización. La IA es estocástica (probabilística), por lo que la dirección debe decidir dónde termina la automatización y dónde empieza la supervisión humana necesaria. 2. Diferencie riesgo de impacto (Sección 3.3) Es vital que el C-Level o Alta Dirección entienda esta distinción: Gestión de Riesgos: Protege a la empresa (fallos técnicos, pérdidas económicas). Evaluación de Impacto: Protege a las personas (sesgos, derechos, reputación).Esta visión le permitirá liderar una "IA Responsable" que evite, p.ej.crisis reputacionales de marca y sanciones legales. 3. Comprenda las principales amenazas y soluciones técnicas aplicables (Sección 2 y 3) Nuestra guía no ha tratado de ofrecer una lista exhaustiva, sino un resumen general por bloques de las principales amenazas. Para conocer cómo proteger nuestros activos hemos incluido los sistemas de defensa más empleados junto con un listado de posibles soluciones técnicas en el mercado. 4. Priorice la "Alfabetización en IA" (Capítulo 4) El Reglamento de IA impone la obligación de formar al personal. Use el programa de capacitación propuesto en la guía para delegar responsabilidades no solo al equipo de IT, sino a los dueños de procesos de negocio que interactúan con la IA. 5. Checklist de activos críticos (Anexo I) Consulte el Anexo I para solicitar a sus equipos técnicos un inventario claro. No se puede proteger lo que no se sabe que se tiene: desde datasets de entrenamiento hasta prompts del sistema. De la reactividad a la resiliencia La IA es un activo estratégico que amplía la superficie de ataque de su organización. Esta guía no es solo un manual técnico; es una herramienta de gobierno corporativo diseñada para asegurar que la innovación no comprometa la sostenibilidad jurídica y reputacional de su empresa
- 🎙️ IA, justicia juvenil y derechos de la infancia: Pere Simón entrevista a Alfredo Abadías
En esta conversación, Pere Simón Castellano dialoga con Alfredo Abadías Selma , profesor titular de Derecho Penal y referente en justicia juvenil, protección de menores y análisis crítico del uso de tecnologías digitales en contextos judiciales y socioeducativos. La entrevista se enmarca en el Proyecto Red.es – Carta de Derechos Digitales , dentro del Ámbito 6: Derechos en los nuevos entornos digitales , y aborda uno de los terrenos más sensibles del debate actual sobre inteligencia artificial: su posible aplicación en la justicia juvenil, en los centros de menores y en los procesos de intervención, tratamiento y reinserción. A lo largo del diálogo se analizan, desde una perspectiva jurídica y práctica, cuestiones clave como: el estado actual —real y potencial— del uso de IA en justicia juvenil; las oportunidades que pueden ofrecer estas herramientas en la personalización de intervenciones socioeducativas; las líneas rojas que no deben cruzarse nunca cuando están en juego los derechos de la infancia; los riesgos de sesgos, estigmatización, automatización excesiva o falta de explicabilidad; y las garantías imprescindibles para cualquier eventual implantación: supervisión humana efectiva, evaluaciones de impacto, transparencia y control institucional. La conversación conecta estas cuestiones con el marco normativo europeo emergente, subrayando que el uso de IA en justicia juvenil exige un enfoque especialmente prudente, centrado en el interés superior del menor, el principio de mínima intervención y la finalidad última de reinserción social. Un diálogo riguroso y necesario para responsables públicos, profesionales del ámbito jurídico y socioeducativo, y para todas aquellas personas interesadas en cómo articular la innovación tecnológica sin sacrificar los derechos fundamentales de niños, niñas y adolescentes. Pere Simón Castellano
- Policy paper “Neuroderechos y su Implementación en el Ciclo de Vida de los Neurodatos”
Autor: Facundo Bonaura La neurotecnología se encuentra en plena expansión y su uso ya no se limita al ámbito de la medicina: dispositivos capaces de acceder, registrar, analizar e incluso controlar o emular la actividad cerebral comienzan a integrarse en ámbitos tan diversos como el trabajo, la educación, el entretenimiento, el marketing y la seguridad, lo cual plantea importantes desafíos éticos y regulatorios que no pueden postergarse por mucho más tiempo. Frente a este escenario, resulta crucial el plan de acción que adopten los Estados y las organizaciones para proteger la esfera mental humana ante el uso de tecnologías que interactúan directamente con el cerebro. En este contexto, el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) ha elaborado el policy paper “Neuroderechos y su Implementación en el Ciclo de Vida de los Neurodatos”, un documento orientado a facilitar la implementación de políticas públicas y a contribuir al debate regulatorio en España, Europa y a nivel internacional. El documento ha sido elaborado de forma colectiva por un equipo interdisciplinar de autores —José M. Muñoz (coordinador), Facundo Bonaura, Bernardo Corona y Maite Sanz de Galdeano— en el marco de su colaboración en el seno de OdiseIA. ¿Qué son los neuroderechos y cuál es su importancia? Los neuroderechos son normas para la protección y preservación del cerebro y la mente humana frente a los riesgos asociados a la manipulación, extracción y análisis de información cerebral. Su andamiaje conceptual gira en torno a la protección de la libertad cognitiva, la privacidad mental, la integridad mental y la continuidad psicológica. Asimismo, comprende la necesidad de garantizar la distribución justa y equitativa de los beneficios derivados de las neurotecnologías, y el resguardo frente a sesgos algorítmicos que puedan ser incorporados o amplificados por estos sistemas, a fin de evitar prácticas discriminatorias y asegurar la igualdad de derechos y oportunidades. El debate actual —recogido por el policy paper — se orienta hacia una reconceptualización de los derechos humanos existentes, tales como la libertad de pensamiento, integrando de forma explícita su dimensión interna. En un contexto donde los datos neurales permiten inferir estados mentales, emociones e intenciones, limitar la protección a las manifestaciones externas del pensamiento resulta insuficiente. IA y neurodatos Uno de los aportes más relevantes del documento es su foco en la convergencia entre inteligencia artificial y neurotecnología, especialmente en la gestión de los llamados neurodatos. Estos datos presentan características que los vuelven excepcionalmente sensibles: pueden captarse en tiempo real, permiten inferencias directas sobre estados mentales y, en algunos casos, hacen posible la reidentificación incluso después de un proceso de anonimización. Por este motivo, el paper adopta un enfoque innovador al analizar la protección de los neuroderechos a lo largo de todo el ciclo de vida de los neurodatos, desde su planificación y diseño hasta su publicación y reutilización. Este enfoque permite pasar del plano teórico de los principios a medidas concretas de implementación, aplicables por organismos públicos y privados, centros de investigación y desarrolladores. Un marco regulatorio en construcción El documento también ofrece un recorrido comparado por las principales iniciativas regulatorias en el mundo. América Latina aparece como una región pionera, con avances significativos en Chile, México y Argentina. Mientras que, en Europa, el Reglamento de Inteligencia Artificial ( AI Act ) introduce prohibiciones relevantes para ciertas aplicaciones neurotecnológicas, en tanto que instrumentos como la Carta de Derechos Digitales española y la Declaración de León sobre la Neurotecnología Europea marcan un punto de partida para la creación de un marco normativo centrado en la persona y la protección de los Derechos Humanos. A nivel global, organismos como la OCDE, la UNESCO, la OEA y el Consejo de Derechos Humanos de la ONU han comenzado a delinear estándares éticos, pero persiste el riesgo de mosaicos regulatorios si no se avanza hacia marcos globales coordinados y vinculantes. Recomendaciones para una gobernanza centrada en derechos El policy paper incluye una serie de recomendaciones de política pública orientadas a garantizar la protección efectiva de la esfera mental humana frente al avance de la neurotecnología, tales como el reconocimiento explícito de los neuroderechos en los marcos normativos vigentes; la creación de mecanismos de tutela efectiva, como el habeas cogitationem ; la protección reforzada de los neurodatos; la implementación de evaluaciones de impacto específicas (Neuro-DPIA) y auditorías de neuroseguridad; y la alfabetización en neuroderechos y neurotecnologías tanto de la ciudadanía como de los operadores jurídicos; entre otras medidas. En conclusión, si bien la innovación neurotecnológica promete importantes avances para mejorar la calidad de vida de las personas, también plantea riesgos inéditos para la autonomía, la privacidad, la libertad y la dignidad humana. De allí la urgencia de integrar los neuroderechos en la gobernanza de la inteligencia artificial y de los datos neurales, y de promover una innovación con foco en la protección de los derechos fundamentales.
- Pere Simón entrevista a Pau Aleikum sobre derechos digitales y proyectos de innovación con IA: el caso de Synthetic Memories
En este video, Pere Simón conversa con Pau Aleikum en una entrevista profunda y reveladora en el contexto del Proyecto financiado por Red.es , con fondos del Plan de Recuperación, Transformación y Resiliencia – Next Generation EU, en el marco del Convenio de colaboración suscrito entre Red.es y el Grupo de Entidades coordinado por la Universidad Carlos III de Madrid, integrado por UC3M, UAM, UV, USC, UPF, UA, CGAE, COTEC, ICAV y OdiseIA. Pau ha liderado proyectos como Synthetic Memories, que exploran cómo la IA puede reconstruir recuerdos, cómo los datos se transforman en experiencias públicas y de qué manera la creatividad artística se entrelaza con la tecnología. A partir de esta trayectoria, la conversación aborda cuestiones clave sobre el uso de la IA en el ámbito cultural y social, o en entornos de tratamientos médicos para ayudar a terapias de reminiscencia, así como los retos éticos, políticos y jurídicos que estas prácticas plantean. La entrevista conecta estas reflexiones poniendo el foco en preguntas fundamentales:¿qué significa “recordar” cuando los recuerdos pueden ser generados o reinterpretados algorítmicamente?, ¿cómo se protegen la identidad, la autonomía y la dignidad en contextos de creación basada en datos?, ¿qué responsabilidades emergen cuando la IA media nuestra memoria colectiva? Un diálogo imprescindible para quienes trabajan o reflexionan sobre IA, cultura, derechos fundamentales y sociedad digital, desde una mirada crítica, creativa y necesariamente interdisciplinar. Esta entrevista es especialmente relevante para profesionales, emprendedores y curiosos del mundo tecnológico que buscan entender las tendencias actuales y futuras en innovación digital, así como las vías de colaboración entre el sector público y la iniciativa privada. No te pierdas la conversación completa en el video de arriba — ¡te proporcionará ideas inspiradoras y perspectivas frescas sobre la transformación digital! La entrevista se ha realizado en el marco del Convenio sobre la Carta de Derechos Digitales – Ámbito 6 · Derechos en los nuevos entornos digitales y el WP 6.A.1. Evaluación del impacto multirriesgo en Derechos Fundamentales. Pere Simón Castellano
- Ya disponible la actualización del estudio sobre el impacto y las garantías ante el uso de la inteligencia artificial por los empleadores
Contexto : Este estudio ha sido realizado por OdiseIA en el marco del proyecto Google Caire . Puedes obtener más información sobre esta iniciativa en el enlace: https://www.odiseia.org/proyecto-google-charity . Desde el Subgrupo 2.5 del proyecto Google Caire de OdiseIA presentamos la versión definitiva, revisada y consolidada (22 de diciembre de 2025) del Libro blanco sobre el impacto, regulación y garantías ante el uso de la inteligencia artificial por el empleador respecto de sus trabajadores. Este documento, coordinado por Lorenzo Cotino Hueso (en la versión inicial y hasta finales de 2024) y por Pere Simón Castellano, culmina un trabajo colectivo desarrollado a lo largo de 2024 y 2025, incorporando ahora una revisión integral del texto, la actualización normativa más reciente y las aportaciones finales de las personas autoras. ¿Qué aporta esta versión definitiva y actualizada? La versión que hoy se publica supera el carácter preliminar de borradores anteriores y ofrece un marco consolidado para comprender y abordar el uso de sistemas de IA en el ámbito laboral. El resultado es un Libro que integra plenamente el Reglamento europeo de Inteligencia Artificial, ya aprobado y en fase de aplicación progresiva para empresas y sector público. El estudio constituye un instrumento práctico para organizaciones y agentes sociales, en la medida que actualiza el análisis de la normativa laboral española y europea, incluida la Directiva sobre trabajo en plataformas; refuerza el enfoque en garantías jurídicas, éticas y organizativas frente al uso de sistemas algorítmicos en la gestión de personas; incorpora de forma transversal la perspectiva de los colectivos en situación de mayor vulnerabilidad, atendiendo a los riesgos de exclusión, discriminación o falta de control efectivo en procesos automatizados. Es especialmente útil para empleadores en la medida que recoge y sistematiza buenas prácticas, acuerdos colectivos y mecanismos de gobernanza algorítmica emergentes, que luego pueden ser empleados en la práctica. El Libro blanco está pensado como una herramienta de referencia tanto para empleadores y responsables de recursos humanos como para representantes de las personas trabajadoras, juristas, responsables públicos y organizaciones interesadas en un uso responsable, conforme a derecho y socialmente sostenible de la inteligencia artificial en el empleo. La publicación de esta versión definitiva marca un punto de cierre del trabajo técnico y, al mismo tiempo, un punto de partida para su aplicación práctica en políticas internas, negociación colectiva y procesos de toma de decisiones vinculados a la IA. Ya disponible la versión definitiva (22.12.2025) Autor de la entrada del blog: Pere Simón Castellano. Gráficos e imágenes generadas a partir del contenido de la investigación con napkinAI. Autora del prompt Rosa Cernada Badía. Autores del entregable: Rosa Cernada Badía, Lorenzo Cotino Hueso, Antonio Merchán Murillo, Adrián Palma Ortigosa y Pere Simón Castellano. Realizado en el marco del proyecto Google Caire por OdiseIA.
- La serie “IA que deja huella”: innovación situada, vulnerabilidad y gobernanza responsable
Dr Begoña Glez. Otero Coordinadora del grupo 1.4 AI4Good, Proyecto cAIre - OdiseIA La serie de IA que deja huella nace del subgrupo 1.4 de cAIre–OdiseIA, con un propósito concreto: entender cómo evoluciona la innovación social basada en IA cuando sale del laboratorio y entra en la realidad, y, al mismo tiempo, difundir, inspirar, conectar y sensibilizar, más allá de evaluar. Queremos observar qué ocurre cuando una solución creada con propósito, para acompañar a personas mayores, hacer comprensible el lenguaje administrativo o mejorar la empleabilidad, intentan madurar en un ecosistema que no siempre está preparado para sostenerlas. Nuestro enfoque parte de una hipótesis sencilla aunque controvertida: la vulnerabilidad no es una condición individual o de un grupo de personas, es una condición estructural y relacional. La tecnología puede aliviarla o intensificarla según cómo se diseña, se acompaña y, sobre todo, según las estructuras que permiten que un proyecto se convierta en una solución comercializable y sostenible. En esta contribución me gustaría compartir reflexiones sobre las tres experiencias de GaIA , DiloClaro y Woowii porque, más que historias individuales, son espejos de lo que funciona, lo que falta y lo que deberíamos cambiar a nivel de políticas tanto de innovación como de gobernanza. Y estas reflexiones se vuelven aún más pertinentes a la luz de una novedad regulatoria muy reciente: el 19 de noviembre, se hizo pública la reciente propuesta de la Comisión Europea llamada “ Paquete Ómnibus Digital sobre la IA ”. Esta propuesta, como se indica en la propia web de la Comisión, contiene medidas de simplificación específicas para garantizar una aplicación más ágil, fluida y sin fricciones de algunas de las disposiciones del Reglamento de IA (AI Act) , con el objetivo declarado de aliviar cargas y estimular la innovación. Entre esos ajustes aparece la supresión de la obligación de alfabetización en IA del artículo 4, un cambio que plantea nuevas preguntas sobre cómo queremos que se despliegue la IA en entornos reales. Las tres experiencias que analizo a continuación permiten leer este contexto de otro modo: no como un debate exclusivamente normativo, sino como un punto de encuentro entre marcos legales, capacidades humanas y trayectorias de proyectos que avanzan en condiciones diversas. Qué significa esta supresión, qué efectos puede tener y cómo se relaciona con las dinámicas que observamos en GaIA, DiloClaro y Woowii no es algo que pueda resolverse desde la abstracción; es precisamente en las historias concretas donde este debate adquiere matices que a menudo se pierden en los documentos oficiales. Tres historias que iluminan la misma fractura GaIA: cuando la maduración tecnológica exige cuidados estructurales El equipo de GaIA —Miguel Esteban, Alex Montecino y Pablo Martínez— nació en el contexto del Hackathon OdiseIA4Good 2025 como una idea para crear un asistente digital dirigido a personas mayores que viven solas o en situación de vulnerabilidad, con la intención de combatir la soledad. Tras el hackathon, el equipo de GaIA ha participado en un taller en el Instituto para la Competitividad Empresarial de Castilla y León, Wolaria, donde han recibido mentorías especializadas. Allí han comprendido algo esencial: no basta con prototipar; hay que definir desde el inicio un modelo de negocio sostenible y una propuesta de valor clara. A pesar de ello, el equipo tiene muy claro que su apuesta va más allá del código: buscan dignidad, bienestar y autonomía para las personas mayores. No les basta con que la IA funcione: debe percibirse como segura, respetuosa con la privacidad, fácil de usar y verdaderamente útil. Y esta ecuación suele ser complicada de resolver porque el desarrollo técnico es la parte más “sencilla”. Lo difícil es todo lo demás. No basta con construir un asistente eficaz; hace falta que quienes lo van a usar confíen en él, que las instituciones sepan integrarlo sin miedo y que existan espacios donde un proyecto así pueda madurar sin depender del voluntarismo o de convocatorias puntuales. Ahí es donde GaIA descubre la frontera real de la innovación social: la distancia entre lo que una IA puede hacer hoy y lo que nuestra sociedad está preparada para acompañar, adoptar y convertir en impacto duradero. La lección es clara: sin acompañamiento sostenido, la tecnología socialmente valiosa no madura . DiloClaro: cuando la tecnología está lista y la institución no En su reflexión , Alicia Romero, de Cenit sintetiza una verdad incómoda: “No es que la tecnología no funcionara, es que el sistema no estaba preparado para sostenerla.” DiloClaro nació con un propósito nítido: hacer comprensible la comunicación administrativa para personas con barreras cognitivas o lingüísticas; y con una solución técnicamente madura, validada y lista para desplegarse. Pero ahí es donde empezó la parte difícil. Alicia nos cuenta cómo proyectos diseñados para facilitar la vida cotidiana suelen naufragar no por fallos de diseño, sino por la resistencia de las estructuras que deberían impulsarlos. En el caso de DiloClaro, esa resistencia adoptó muchas formas: trámites rígidos, inercias culturales que aún consideran el lenguaje claro como un “plus” y no como un derecho, convocatorias de financiación que empiezan y terminan demasiado rápido, y una falta persistente de capacidades internas para integrar innovaciones que no se ajustan a los protocolos existentes. Su blog lo expresa con nitidez: entre el piloto y la adopción suele abrirse un abismo. Y ese abismo no se llena con más tecnología, sino con instituciones capaces de comprenderla y sostenerla. La historia de DiloClaro, así, desplaza la mirada de la vulnerabilidad individual a la vulnerabilidad del propio sistema: no son las personas las que fallan, sino las estructuras que no logran adecuarse a sus necesidades . Por eso recuerda que la accesibilidad cognitiva no es una mejora opcional, sino una condición para la igualdad, tan esencial como la accesibilidad técnica. Sin ella, ningún avance algorítmico puede convertirse en impacto real. Woowii: ética como resistencia en un ecosistema que no financia la justicia social En la entrada más reciente, Alexandra Díaz M., fundadora de Woowii, ofrece un testimonio que sintetiza uno de los problemas estructurales del ecosistema español: la precariedad de quienes innovan para la inclusión, especialmente en sectores donde la rentabilidad rápida no es viable. Woowii nació para ofrecer un matching laboral justo a mayores de 40 años y parados de larga duración. El MVP funciona, el enfoque es ético y el propósito está claro. El problema no está en la solución, sino en el entorno. Alexandra explica cómo avanzar en ese contexto implica lidiar con la falta de financiación operativa, la ausencia de redes técnicas estables y la dificultad para atraer inversión cuando el retorno buscado es social y no inmediato. El reconocimiento llega, pero sin el acompañamiento que permitiría consolidar la propuesta. Su testimonio revela una verdad más amplia: las soluciones éticas necesitan infraestructuras éticas , y hoy esas infraestructuras no existen. Por eso Woowii es tanto un proyecto tecnológico como un acto de resistencia, un recordatorio de que la innovación con propósito no fracasa por falta de talento, sino por falta de sistema. ¿Qué revelan estas tres historias de la innovación con propósito? Si se miran juntas, las trayectorias de GaIA, Woowii y DiloClaro nos dibujan un mapa detallado de lo que ocurre cuando una tecnología nace con vocación social y se enfrenta al mundo real. La primera lección es quizá la más evidente: que algo funcione no significa que vaya a adoptarse . Los tres proyectos tienen prototipos sólidos, pero la validación técnica no siempre ha garantizado su continuidad. La brecha no está en el modelo de IA, sino en un ecosistema que carece de mecanismos estables para absorber proyectos más allá del piloto. La segunda lección apunta a algo todavía más profundo: la sostenibilidad económica no es un detalle operativo, sino una dimensión ética . Es imposible exigir responsabilidad, transparencia o impacto social si quienes sostienen las soluciones trabajan desde la precariedad. Innovar sin recursos termina siendo otra forma de desigualdad, una que recae sobre quienes intentan corregir asimetrías estructurales sin las herramientas necesarias. La tercera enseñanza emerge de manera transversal: la vulnerabilidad no está en las personas, sino en las relaciones que las rodean . La innovación con propósito no consiste solo en crear tecnología para alguien, sino en transformar las dependencias, los canales de acceso, los marcos cognitivos y las asimetrías que impiden que determinados colectivos ejerzan su autonomía. El valor de estos proyectos está precisamente en la forma en que intentan redistribuir agencia: hacer comprensible lo incomprensible, accesible lo inaccesible, acompañar donde antes había silencio. Y hay una cuarta clave que atraviesa las tres historias como una corriente subterránea: la alfabetización en IA es la infraestructura invisible de toda innovación responsable . Cuando falta, todo se desmorona. Si los equipos no tienen formación suficiente, no pueden mantener su propia solución. Si las administraciones carecen de capacidades internas, la tecnología no encaja en sus procesos. Si los usuarios no comprenden qué tienen delante, no pueden beneficiarse de ello ni confiar en ello. Esta dimensión, tan poco visible y a la vez tan decisiva, conecta directamente con el debate regulatorio europeo, donde la alfabetización en IA se ha convertido en un terreno de disputa que determinará, en gran medida, quién puede usar la tecnología… y quién se queda fuera. El paquete legislativo europeo de la Ómnibus Digital: una simplificación que debilita la alfabetización en IA Las historias de GaIA, Woowii y DiloClaro muestran algo que rara vez aparece en los grandes documentos de estrategia: la IA con propósito no se sostiene únicamente en algoritmos robustos ni en marcos normativos , sino en una infraestructura humana que comprende, adapta y acompaña la tecnología. Esa infraestructura —hecha de capacidades, tiempo, alianzas y lenguaje compartido— marca el ritmo de estos proyectos. No avanzan con la velocidad que desearían, pero avanzan; no siguen un camino fácil, pero siguen. Su progreso no es lineal, sino persistente. En GaIA, la cuestión nunca es solo técnica. Su capacidad para llegar a personas mayores depende tanto de la calidad del sistema como de la confianza que genera, de la facilidad con la que encaja en sus rutinas y del acompañamiento que permite que la herramienta no se perciba como algo ajeno. GaIA crece en ese equilibrio entre diseño, sensibilidad y comprensión mutua: cada mejora tecnológica requiere, al mismo tiempo, una mejora en cómo se comunica, se explica y se integra. En Woowii, la dificultad no está en la construcción del producto —que funciona y ofrece un enfoque ético sólido—, sino en sostenerlo en un entorno que rara vez favorece la innovación social. Alexandra Díaz lo expone desde la convicción de quien sigue adelante: avanzar hoy implica una mezcla de resiliencia, creatividad y constancia. Woowii continúa precisamente porque su propósito se mantiene firme, no porque el ecosistema lo facilite. DiloClaro, por su parte, no tropieza con barreras tecnológicas, sino con desajustes institucionales. Su avance depende de un cambio cultural alrededor del lenguaje claro, de procesos más flexibles y de administraciones capaces de reconocer que la comprensión es un componente indispensable de la inclusión. En ese terreno complejo, DiloClaro sigue encontrando maneras de desplegarse, dialogar y abrir espacios de adopción. Por eso resulta especialmente llamativo y preocupante que la propuesta de Reglamento Ómnibus Digital sobre la IA de la Comisión Europea elimine la única obligación de alfabetización en IA presente en el AI Act: el artículo 4. Lo que hasta ahora era un deber claro pasará a ser una recomendación vaga, un “fomento” sin exigibilidad ni impacto real. Y este gesto, que podría parecer menor, altera uno de los pilares fundamentales del enfoque europeo: sustituye una obligación estructural por una invitación simbólica justo cuando la alfabetización en IA debería considerarse infraestructura crítica , al mismo nivel que la conectividad, la interoperabilidad o la supervisión algorítmica. La ironía es evidente para cualquiera que haya seguido el debate regulatorio: si hay una idea sobre la que coinciden informes, evaluaciones de impacto y análisis sectoriales es precisamente esta. Pocos documentos políticos terminan sin recordar la importancia de la alfabetización en IA para trabajadores, usuarios y ciudadanía en general. La propia Comisión ha proclamado en repetidas ocasiones que la alfabetización es clave para el éxito tanto de Aplicar la estrategia de IA ( Apply AI ) como del Plan de Acción del Continente de IA . De hecho, investigaciones recientes muestran que sectores tan sensibles como el periodismo consideran la alfabetización la condición número uno para poder usar IA de forma responsable. Y, sin embargo, es exactamente esta obligación, la que más consenso genera, la que ahora se propone diluir. El resultado no es neutral. Eliminar el carácter vinculante del artículo 4 implica dejar desprotegidos a quienes más necesitan acompañamiento: usuarios finales que deben enfrentarse a sistemas opacos, administraciones que intentan integrar tecnología sin capacidades internas suficientes, y equipos pequeños que impulsan proyectos sociales sin acceso constante a formación especializada. También significa desincentivar la inversión en capacitación de empleados en un momento en que el aprendizaje continuo es esencial para la empleabilidad a largo plazo. Y el impacto no acaba ahí: la ausencia de un compromiso firme con la alfabetización profundiza la dependencia europea de empresas, principalmente estadounidenses y chinas, que sí invierten de manera sistemática en conocimiento interno y especialización . Dicho de otro modo: la supresión del artículo 4 es un ejemplo clásico de “pan para hoy y hambre para mañana". Una simplificación normativa que no reduce cargas, sino capacidades. Capacidades de comprender, supervisar, corregir, innovar. Capacidades que determinan quién se beneficia de la IA y quién queda al margen. Y cuando se mira esta decisión a la luz de GaIA, Woowii y DiloClaro, la señal es inequívoca: sin alfabetización suficiente, la IA con propósito no desaparecerá, pero avanzará con más fricción, más lentitud y más dependencia de quienes ya poseen las habilidades y los recursos para gobernarla . Solo si el contexto sostiene, la innovación social puede dejar huella Las historias de GaIA, Woowii y DiloClaro comparten un mensaje esencial: la innovación social no fracasa en el código; fracasa en el contexto. Fracasa cuando las instituciones no están preparadas, cuando la sociedad no comprende, cuando los equipos no tienen apoyo, cuando la regulación simplifica en lugar de fortalecer capacidades. Por eso IA que deja huella no es solo una serie de entrevistas: es un espacio para repensar cómo construimos, o cómo fallamos en construir, el ecosistema donde la IA con propósito puede convertirse en política pública, impacto real y transformación social. La IA más responsable no será la más avanzada, sino la que articule tecnología, comunidad y estructuras que cuiden. Y esa, precisamente, es la huella que debemos perseguir.
- Bootstrapping, perspectiva y revolución cognitiva: la trinchera real de la IA europea
Por Alexandra Díaz, fundadora de Woowii. Un contexto necesario: El reto del talento invisible Si bien cada vez hablamos más de IA responsable, talento diverso y empleo inclusivo, la realidad del ecosistema europeo es que sigue dejando fuera a muchas personas cuya trayectoria no encaja en los moldes tradicionales: seniors, mujeres, migrantes, jóvenes “sin etiquetas”, personas con discapacidad o personas que deciden cambiar de sector en la mitad de su carrera laboral y emprender. Esa fue la motivación que llevó a Woowii a presentarse al Hackathon AI4Good 2025 organizado por OdiseIA. El reto estaba claro: ¿cómo crear un sistema de IA que entienda a las personas más allá de un currículo o un prompt, y que pueda ayudar a revelar el potencial de quienes hoy son sistemáticamente invisibilizados en los procesos de selección? Un origen poco habitual en el ecosistema de las deeptech Woowii no nació en el confort de un despacho, de una ronda de Family, Friends and Fools (categoría de inversión en fases iniciales), ni en un laboratorio bien financiado. Su origen es una herida compartida: mobbing, edadismo, listas negras, burnout y multitud de puertas cerradas al talento diverso. Como fundadora de Woowii, con décadas de experiencia llevando al éxito a empresas en sectores diversos a nivel mundial, decidí desafiar el algoritmo social y técnico que perpetúa ese sesgo y construir desde cero, una IA ética que ve a las personas completas, no solo una serie de palabras clave en sus currículos. En un ecosistema europeo que reivindica la ética, la soberanía tecnológica y el cumplimiento del AI Act, la realidad del emprendimiento deeptech sigue mostrando brechas importantes. La inversión temprana suele inclinarse hacia soluciones basadas en wrappers de modelos fundacionales (rápidas de prototipar y alineadas con el hype, con buzzwords y en muchos casos, con MVPs inflados), frente a tecnologías genuinas, propias, auditables y diferenciales, que requieren más tiempo, más validación y mayor esfuerzo científico, pero que proporcionan mayores beneficios a medio-largo plazo y que son seguras y confiables. Esta dinámica no afecta a todos por igual. Numerosos estudios sobre inversión tecnológica en Europa, señalan que los proyectos liderados por mujeres o por equipos que innovan fuera de los patrones de éxito más reconocibles, afrontan ciclos de evaluación más exigentes y mayores barreras de entrada. En resumen, si eres mujer, innovas a contracorriente y no tienes el “status” de unicornio, lo tienes muy difícil. En este contexto, avanzar en tecnología auditable, soberana y con impacto social real suele implicar un bootstrapping extremo , que obliga a los equipos a sostener la innovación y la resiliencia en condiciones que ponen a prueba tanto el ritmo de desarrollo como el bienestar de quienes la impulsamos. La propuesta de Woowii: reescribiendo el significado de IA aplicada al talento Frente al hype de la IA generativa y los chatbots desechables, Woowii apuesta por lo radical: una arquitectura neuro-simbólica propia (INSA-W™). Mientras más del 90 % de proyectos HRTech en Europa son wrappers de LLM (dependientes de OpenAI, Google o Anthropic, con sesgos y opacidad por defecto), Woowii construye una base completamente nueva: Datos soberanos y humanos: historias reales, assessments y competencias transversales, sin depender de texto plano, datos extraídos (escrapeados) de LinkedIn, Infojobs o perfiles automatizados. Ontología evolutiva: un grafo semántico propietario alimentado por interacciones genuinas, centrado en valor, propósito y cultura. Matching cognitivo: Woowii no predice probabilísticamente; comprende, razona sobre significados y se ajusta en tiempo real con cada interacción. Esto nos permitirá mejorar radicalmente el fit cultural, disminuir la rotación y dar visibilidad al talento invisible: mujeres, seniors, jóvenes sin “etiqueta”, migrantes, personas con discapacidad o con condiciones crónicas. Validación y meritocracia reales: badges, reputación trazable, gamificación y evaluación bidireccional. Cada logro, sea badges, historias validadas, roleplays o tests técnicos, es un activo científico y social, no solo una línea en un algoritmo. Un futuro más allá del hype: hacia una revolución cognitiva europea Woowii propone lo siguiente: ser el antibiótico frente a la fiebre de wrappers y automatismos sin alma. A medida que grandes proveedores consideren desplegar sus propios portales de empleo y servicios verticales, muchas startups de HR basadas exclusivamente en modelos de LLM de terceros afrontarán dificultades reales para diferenciarse y sostener su propuesta de valor. Nuestro objetivo es anticipar ese escenario estando listos por diseño y así contribuir a una IA europea más robusta y autónoma. ¿Por qué Woowii sobrevivirá (y lo liderará)? Tecnología propia e inmune: arquitectura que “aprende a aprender”, 10x más barata de entrenar y sin gasto excesivo de GPU, con criterio semántico y capacidad de expandirse a cualquier sector. Fit cultural, reputacional y circular: el matching abandona la estadística ciega y se transforma en razonamiento sobre valores, propósito y dinámica organizacional. El sistema de Woowii aprende de sus errores, crea un gemelo cognitivo de cada usuario, que evoluciona con cada paso. Infraestructura social y económica: Europa no necesita más plataformas. Necesita sistemas que permitan validar competencias, analizar datos de manera científica, integrar talento vulnerable y orientar políticas públicas de empleabilidad, diversidad e inclusión. ¿Cómo se logra esto sin capital? La incoherencia del sistema Construir una IA neuro-simbólica, con infraestructura y datos propios, validación real, soporte a colectivos vulnerables y trazabilidad alineada con el AI Act, con cero inversión externa, ¡es prácticamente imposible y muy lento! Eso es una hazaña de ciencia ficción. Y también resulta insostenible si Europa realmente quiere alcanzar la soberanía tecnológica que pretende. El bootstrapping extremo: Penaliza la velocidad, la salud y la capacidad de iterar rápido de los equipos pequeños. Hace del acceso a corporates y de la validación una carrera de fondo desigual (“el vuelve en seis meses” puede matar al mejor deeptech de impacto). Expone el sesgo sistémico: si eres mujer, innovas en sistemas calificados regulatoriamente como de alto riesgo y estás fuera del radar de los fondos, la doble (o cuádruple) validación es la norma. El mayor reto en nuestro caso no es solo el acceso a capital, es también para la validación del mercado, tener acceso real a pruebas piloto grandes y datos públicos para no solo crecer y sobrevivir, sino sobre todo poder escalar una tecnología realmente transformadora y con impacto. El “wow” técnico y el FOMO institucional INSA-W™ , nuestro motor, no genera texto ni filtra currículos. Entiende narrativa, propósito, liderazgo, habilidades, soft y hard skills y las representa en grafos con semántica propia, auditables, alineados con la ética europea. Seremos capaces de: Razonar sobre qué hace única a una persona, una historia o una cultura en tiempo real. Ofrecer a empresas, instituciones y gobiernos dashboards de inteligencia simbólica: desde el índice de inclusión real hasta el mapeo de sesgos o el impacto de la diversidad. Certificar el camino profesional de colectivos vulnerables y ayudar a las empresas a cumplir y potenciar sus cuotas legales de integración, validando el fit e impulsando la rentabilidad y el propósito social. Nuestro motor permite hacer realidad un futuro laboral en el que la historia, retos personales y potencial de la persona no desaparecen a golpe de filtro de currículo, sino que se convierten en ventaja y puente para dejar de ser invisible . Donde los algoritmos no sólo detectan, sino que comprenden la diferencia y el “ match ” es una ciencia ética y dinámica, no una lotería. ¿Por qué Woowii es la verdadera innovación? Woowii no compite por repetir, sino por crear criterio. Mientras otros automatizan y amplifican lo que ya está roto, Woowii redefine cómo se mide, se entiende y se relaciona el talento humano. Desde la trinchera, sin recursos, hemos demostrado que el mercado quiere profundidad y verdad, no humo ni anuncios vacíos. Somos el Google Maps del empleo con cerebro y corazón. La primera infraestructura cognitiva auditable para el trabajo europeo. Un FOMO para el ecosistema europeo Si Woowii hubiera nacido en Silicon Valley, estaría sobrecapitalizada. Si fuéramos un wrapper, abundarían las subvenciones, la visibilidad y el entusiasmo que suelen acompañar a las soluciones de moda. Pero nuestra disrupción nace de otro lugar: de nuestro dolor, de vivencias reales de exclusión laboral, de la necesidad de justicia algorítmica y social de la convicción de que el talento invisible, merece ser reconocido y puesto en valor. Y eso, aunque transformador, no siempre coincide con lo que el mercado denomina “sexy” o inmediatamente rentable.Europa está ante una oportunidad histórica: apostar por deeptech creado por quienes han quedado fuera de los circuitos tradicionales, por tecnologías que no solo automatizan, sino que comprenden; que no reproducen sesgos, sino que los desactivan, que no buscan volumen, sino impacto real. Eso requiere más que discursos de política pública. Exige inversión temprana, pilotos reales, acceso a datos del sector público de calidad y mecanismos de validación que midan efectos en empleabilidad, inclusión, diversidad y competitividad, no solo la estética de una presentación. Un reto para quienes desean anticipar el futuro del trabajo. Woowii ya existe. La pregunta es si serás tú, tu organización o tu fondo quien quiera anticiparse y formar parte de este cambio, o si permitiremos que Europa siga apostando por lo superficial mientras deja pasar la oportunidad de crear la infraestructura europea que de verdad hace falta. Si has llegado hasta aquí, quizás este sea tu “ wow moment ”: ese instante que necesitabas para solicitar más información, para conectar con nosotros o para apostar por la siguiente generación de IA europea: la que entiende, cuida y transforma a las personas y devuelve la esperanza a todo ese colectivo invisibilizado por el sistema . La era de la Cognición empieza hoy. Y esta vez no será liderada por los de siempre. Te invitamos a elegir de qué forma quieres acompañarnos 🫶 alex@woowiihr.com
- Conferencia magistral de Daron Acemoğlu - Premio Nobel de Economía 2024 - “El progreso en un punto de inflexión: Tecnología, poder y los desafíos globales”
Autor: Dolores Abuin, en colaboración con los miembros del grupo del Proyecto cAIre-Google.org , Ricardo Palomo (Coordinador), Jorge Cerqueiro, Frank Escandell y José Javier Sesma. Este artículo ha sido realizado por OdiseIA en el marco del proyecto Google cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Google Caire - OdiseIA Aprovechando la ponencia del profesor Daron Acemoglu durante la celebración del Vigo Global Summit 2025 , hemos tenido la oportunidad única de atender el evento y de establecer una productiva comparativa con nuestro trabajo ya publicado en la web del Proyecto cAIre, dentro de Google.org Digital Futures Project . Como profesor en el MIT Sloan School of Economics, el análisis de Acemoglu nos permite establecer puntos de convergencia significativos con nuestras conclusiones del subproyecto 2.1 "Profesiones del Futuro: Nuevas Oportunidades y Requerimientos”, a la vez que introduce una divergencia fundamental en el diagnóstico de la transformación laboral. Puntos de convergencia La primera convergencia es la visión dual. Acemoglu articula la encrucijada entre el camino de Alan Turing (reemplazo) y el de Norbert Wiener (aumento). Esto mismo recogimos en nuestro entregable en el apartado de la "Percepción dual: riesgos y oportunidades" que algunos expertos identificaron como el núcleo del debate. La segunda convergencia reside en las habilidades del futuro. La conclusión de Acemoglu se centra en "aprender a aprender". Esta idea se refuerza en nuestro estudio, tanto a través de las encuestas al público en general, como en las realizadas a los expertos, quienes identificaron el "pensamiento crítico" y la "adaptabilidad y aprendizaje continuo" como las habilidades más cruciales, por encima de las puramente técnicas, y algunos hicieron hincapié en el carácter ‘multitareas’ del profesional del futuro inmediato. Ambos análisis concluyen que el valor humano que se traduce en el mercado reside en las habilidades, no en la simple ejecución técnica. Y la tercera convergencia se refiere a la regulación. La advertencia de Acemoglu sobre el poder de las "Big Tech" y la necesidad de una elección "social y política" se alinea perfectamente con nuestro apartado sobre "Gobernanza, regulación y ética aplicada", que identificamos como una de las principales generadoras de nuevas profesiones. Muchos de los futuros perfiles profesionales que proponemos en nuestro estudio lidiarán con la rehumanización en el despliegue de estas tecnologías. El ‘Performed by Humans’ podría llegar a ser todo un nicho de mercado. Puntos de divergencia Aquí es donde la tesis de Acemoglu ofrece su mayor valor a nuestro trabajo. Nuestro informe, basado en las opiniones de expertos y del público, concluye que el impacto de la IA es una "transformación inevitable" y se enfoca en las estrategias de adaptación (como el reskilling o aprendizaje horizontal y la creación de nuevos roles). Acemoglu desafía radicalmente esta premisa. Él argumenta que la trayectoria tecnológica actual (el camino de Turing) no es en absoluto inevitable, sino una elección. El problema no es la IA, sino que es su dirección. Mientras nuestro informe analiza el "impacto" de la IA, Acemoglu nos obliga a preguntar por qué la IA tiene ese impacto. Su diagnóstico de los tres obstáculos (concentración económica, ideología de Hollywood y geopolítica) sugiere que el reskilling por sí solo es insuficiente si no se cambia la dirección de la innovación tecnológica. La solución de Acemoglu es la "IA Pro-Trabajador" (el "electricista aumentado"). Nos ofrece una nueva visión del futuro laboral que completa nuestro informe. El listado de "nuevas profesiones" de nuestro entregable (como "Auditor de algoritmos", "Arquitecto de soluciones IA", "Curadores de datos") corre el riesgo de crear una nueva élite tecnológica. Acemoglu nos recuerda que la verdadera oportunidad no es solo crear nuevos roles técnicos, sino usar la IA para aumentar la productividad, el valor y el salario de millones de empleos existentes. 1. La llegada de la IA En su conferencia, el premio Nobel Daron Acemoglu presenta su tesis sobre el camino de la Inteligencia Artificial como una elección social, económica e ideológica. Es una elección que, según él, nos está llevando por la senda equivocada, con graves consecuencias para la desigualdad, la prosperidad compartida y la propia democracia. Turing contra Wiener Acemoglu sostiene que, desde sus inicios, la informática ha albergado dos filosofías opuestas sobre la relación entre humanos y máquinas. Alan Turing (la automatización). Ésta es la visión dominante hoy en día. Se basa en la idea de que la mente humana es una "máquina de computación", una visión también compartida por Marvin Minsky y John McCarthy, los impulsores de la Conferencia de Dartmouth en 1956. El objetivo, por tanto, es crear máquinas que imiten, compitan y, finalmente, reemplacen a los humanos en sus tareas. El éxito se podría medir por la paridad. ¿Puede la IA hacer el trabajo de un humano igual o mejor? Norbert Wiener (el aumento). La otra visión alternativa, se basa en que las máquinas deben ser herramientas que hagan cosas que los humanos no pueden hacer. Fue por esto que Wiener fundó la Cibernética, que es contrapuesta a la Inteligencia Artificial Simbólica. El objetivo no es reemplazar, sino aumentar y complementar la capacidad humana. El éxito se mide por la ampliación de nuestras habilidades (como lo hicieron el ratón,el hipertexto o la interfaz gráfica de usuario). La industria tecnológica, influenciada por factores muy diversos, ha apostado casi en su totalidad por el camino de Turing, generando lo que Acemoglu llama la "automatización descontrolada". 2. Las consecuencias sociales (desigualdad y crisis democrática) El resultado de elegir el camino de Turing es claro para Acemoglu. Nos llevará a un enorme aumento de la desigualdad. Esta brecha económica, argumenta, es el combustible directo de la crisis de la democracia que vemos hoy. Cuando la democracia no puede cumplir con su promesa de prosperidad, surgen el populismo, la desinformación y la pérdida de confianza en las instituciones. 3. La solución es la "IA Pro-Trabajador" Acemoglu propone una alternativa, la "IA Pro-Trabajador". Su ejemplo clave no es un radiólogo, sino un electricista. Un electricista que acaba de comenzar a trabajar, no puede resolver problemas complejos que uno experimentado sí. La IA de "automatización" (Turing) intentará reemplazar a ambos. La "IA pro-trabajador" (Wiener) sería una herramienta (quizás en un dispositivo portátil) que proporciona al principiante información en tiempo real basada en datos, permitiéndole realizar tareas más sofisticadas y aprender en el proceso. Esta IA no reemplaza, sino que aumenta la productividad del trabajador. Es el "antídoto perfecto" a la desigualdad, porque un trabajador más productivo y capaz de nuevas tareas justifica un salario más alto. Es la verdadera promesa de la IA, no es una Inteligencia Artificial General (IAG) que nos reemplace, sino herramientas que dupliquen la productividad de médicos, enfermeros, profesores, fontaneros y obreros. 4. ¿Por qué no tenemos esta IA? Si la "IA Pro-Trabajador" es técnicamente más fácil y económicamente superior para la sociedad, ¿por qué no la vemos en todas partes?Acemoglu señala tres obstáculos que evitan la aparición directa de esa IA. El obstáculo económico (concentración). A diferencia de la esquematización efectuada por Amy Webb, profesora en NYU Stern School of Business, sobre la M.A.F.I.A.G. en Estados Unidos y la B.A.T. en China, para Acemoglu el mercado está dominado por seis o siete "Big Tech". El modelo de negocio de Meta o Microsoft no es "crear herramientas para electricistas en PYMES". Sus modelos se basan en la Inteligencia Artificial Generativa (IAGen), la venta de software a grandes corporaciones y la publicidad, lo que incentiva la automatización a gran escala. El obstáculo ideológico (Hollywood). Estamos culturalmente obsesionados con la idea de la IA que compite con los humanos ("robots que nos matan"), gracias a la ciencia ficción. Esta ideología atrae el talento y la financiación hacia el camino de Turing, en lugar del camino más "aburrido" pero útil de Wiener. Irónicamente, éste ha sido el mismo camino por el cual la industria del cine ya está claramente amenazada. El obstáculo geopolítico (arma política). La IA se ha convertido en una "arma política" en una carrera de "suma cero" contra China. La narrativa "quien domine la IA, dominará el mundo" justifica una inversión ilimitada en el camino de la automatización, beneficiando a las "Big Tech" que la promueven. El advenimiento del Proyecto Stargate por parte de la Administración Trump a inicios de 2025, siendo inicialmente una billonaria iniciativa propulsada por OpenAI, Softbank y Oracle, recibió un fugaz ataque comercial chino con la disrupción del modelo DeepSeek, poco después. La carrera por la supremacía de la IA no es un nuevo ‘Proyecto Manhattan' sino una nueva ‘Misión Apolo’. 5. Conclusión Acemoglu concluye con una seria advertencia sobre la educación. Acemoğlu critica que herramientas como ChatGPT fomentan la obtención de "respuestas de experto" sin el esfuerzo del proceso, lo que amenaza la habilidad más importante del futuro, "aprender a aprender". El futuro de la IA, por tanto, no debe dejarse en manos de pocas empresas que la controlan. El argumento de Daron Acemoglu es que la "profesión del futuro" no es un destino tecnológico que debamos predecir, sino una elección política, económica y social que debemos asumir activamente. El gran desafío no es técnico, sino que es cívico.
- IA con propósito: cuando la innovación social se enfrenta a las estructuras
Por Alicia Romero, Cenit Equipo Hackathon 2025: DiloClaro Estamos a las puertas de una era en la que las máquinas nos escuchan, nos responden y hasta nos traducen con una precisión que parecía imposible hace una década. Y, sin embargo, seguimos enfrentándonos a un documento administrativo como si fuera un texto cifrado. Asimov soñó con leyes que protegieran a las personas de las máquinas; hoy las necesitamos para que nos protejan de nuestra propia complejidad. Pero también estamos en el momento más prometedor de todos: nunca habíamos tenido tanta tecnología al servicio de la empatía. Por primera vez, podemos usar la inteligencia artificial no solo para automatizar, sino para acercar. Quienes hemos pasado buena parte de nuestra carrera acompañando a administraciones públicas en procesos de transformación digital, hemos visto cómo algunas de las mejores ideas, las más humanas, las más justas se quedaban atascadas entre la fase piloto y la realidad. Proyectos que nacen para hacer la vida más comprensible, accesible o equitativa, como DiloClaro , terminan chocando con un muro de inercias, normativas desfasadas y estructuras de financiación que no están pensadas para sostener la innovación y menos aún la innovación social. No es que la tecnología no funcionara, sino que el sistema no estaba preparado para sostenerla. Por tanto, la pregunta no es si podemos hacerlo. La pregunta es qué debe cambiar para que la tecnología con propósito no se agote en un laboratorio de innovación, sino que se consolide. De la innovación a la política pública estructural En el sector público, la innovación suele llegar en forma de proyectos piloto, impulsados por el entusiasmo de unos pocos equipos y la financiación puntual de una convocatoria. Pero cuando el proyecto acaba, lo hace también la oportunidad de consolidarlo. Necesitamos marcos de adopción estructural que permitan que las innovaciones con propósito pasen de la prueba de concepto a la política pública. Eso implica financiación plurianual e integración normativa. Por lo que estas iniciativas y sus proyectos no deberían depender de fondos ocasionales: su lugar está en el núcleo de la estrategia digital de las administraciones. La transformación real no vendrá de la tecnología, sino de nuestra capacidad para usarla con propósito. Solo así cuestiones como la accesibilidad cognitiva dejará de ser un “plus” para convertirse en una obligación institucional. Cultura social y responsabilidad compartida A menudo hablamos de accesibilidad como si fuera una concesión. Pero no lo es: es una deuda. La tecnología actual nos permite simplificar, traducir y anticipar, pero seguimos mirando a los colectivos vulnerables como si el problema fuera suyo, cuando en realidad es de una sociedad que comunica sin empatía. Una sociedad verdaderamente digital no es la que automatiza trámites, sino la que los hace comprensibles para todos y todas. La IA responsable amplifica nuestra capacidad de cuidar, pero solo si la acompañamos de una pedagogía social que promueva empatía digital y equidad comunicativa.Facilitar la vida a los demás es más sencillo que nunca. Lo difícil sigue siendo querer hacerlo como prioridad. Financiación y retorno de la inversión con propósito Uno de los principales bloqueos estructurales está en cómo entendemos el retorno.En la administración, el ROI se traduce en ahorro, eficiencia o reducción de tiempos. Pero el valor social también tiene métricas: una notificación entendida, un trámite completado sin ayuda, una persona mayor que no renuncia a un derecho porque el lenguaje era incomprensible. Necesitamos modelos híbridos de evaluación, donde los beneficios sociales, éticos y de confianza se integren en los indicadores de éxito.Invertir en accesibilidad cognitiva, por ejemplo, es invertir en eficiencia ciudadana: menos errores, menos repetición de trámites, más autonomía. El retorno no solo es económico, es social y democrático. Ecosistemas de innovación inclusivos y realistas Los ecosistemas de innovación pública suelen estar poblados de tecnólogos, universidades y administraciones, pero raramente de las personas a las que esas innovaciones quieren servir. La IA con propósito necesita ecosistemas cívicos, donde las asociaciones, fundaciones y colectivos vulnerables participen desde el diseño y no solo en la fase de validación. Esa participación no puede ser simbólica. Debe traducirse en procesos de co-creación que integren la voz de quienes experimentan las brechas de comprensión o acceso. En el caso de DiloClaro, esa validación participativa garantiza que el lenguaje claro y la lectura fácil respondan a necesidades reales, no a suposiciones técnicas. El verdadero salto de calidad ocurre cuando el impacto social se diseña desde el principio, no cuando se mide al final. De la accesibilidad técnica a la accesibilidad cognitiva Desde hace años, las normas europeas y españolas obligan a que los portales públicos cumplan los estándares de accesibilidad web ( WCAG ). Eso permite que cualquier persona pueda entrar en la página, pero no asegura que pueda entender lo que allí se dice. Ha llegado el momento de ampliar el concepto: la accesibilidad cognitiva debe reconocerse como un derecho ciudadano, vinculado al derecho a la información y a la igualdad. No basta con que las interfaces sean navegables; deben ser comprensibles. Así como hoy se exige que los sitios sean técnicamente accesibles, deberíamos exigir que la información pública esté redactada en lenguaje claro y lectura fácil. La ONU y la UNESCO llevan tiempo recordando que el acceso a la información solo es real cuando las personas pueden comprenderla y utilizarla. La Convención sobre los Derechos de las Personas con Discapacidad (artículos 9 y 21) insta a los Estados a garantizar no solo la accesibilidad física y digital, sino también la accesibilidad en la comunicación y la información, en formatos que sean claros, legibles y adaptados a la diversidad cognitiva. España ha dado un paso importante en esta dirección al incorporar la accesibilidad cognitiva en su legislación (Ley 6/2022), reconociéndola como condición necesaria para la inclusión social. Aun así, queda mucho por hacer: las normas técnicas aseguran que un sitio web funcione correctamente, pero no garantizan que un ciudadano entienda lo que la administración le está comunicando. Así como hoy exigimos que los sitios sean técnicamente accesibles, deberíamos exigir también que la información pública esté redactada en lenguaje claro y lectura fácil. Comprender lo que leemos no es un lujo: es parte esencial del derecho a participar plenamente en la vida democrática. Además, una normativa de claridad y comprensión no solo mejoraría la experiencia ciudadana, sino que también abriría un nuevo espacio de innovación y colaboración entre administraciones y empresas tecnológicas responsables. La administración no solo asegura el acceso: también marca el rumbo del sector TIC. Y en ese rumbo debería estar, por ejemplo, la obligación de comunicar de forma que todas las personas puedan entender lo que se les dice. De hecho, ya existen pasos normativos importantes que apuntan en esa dirección. En Andalucía, por ejemplo, el Decreto-ley 3/2024, de 6 de febrero , por el que se adoptan medidas de simplificación y racionalización administrativa para la mejora de las relacionesde los ciudadanos con la Administración de la Junta de Andalucía y el impulsode la actividad económica en Andalucía. Sin embargo, la aplicación práctica de estas normas sigue siendo desigual y carece de una estrategia digital que las traslade al ámbito de la inteligencia artificial y la automatización de servicios públicos. Gobernanza ética de la IA con propósito Como conclusión, queda claro que los proyectos de inteligencia artificial, con propósito, no fracasan por falta de talento o de tecnología, sino por exceso de fricción. Fricción normativa, institucional, cultural. Si realmente queremos que la IA responsable se consolide en el sector público, necesitamos alinear tres dimensiones: la política pública, que impulse y financie; la capacidad técnica, que acompañe y supervise; y la cultura social, que comprenda y sostenga. Solo cuando esas tres capas se alineen, la tecnología con propósito dejará de ser una promesa para convertirse en una política pública transformadora. Pero, además, es fundamental recordar que la IA Responsable no es un atributo del modelo, sino del sistema que la gobierna. Su madurez no depende solo del cumplimiento normativo, sino de la capacidad institucional de garantizar principios como la transparencia, la equidad, la explicabilidad y la supervisión humana en todo el ciclo de vida de la tecnología. El AI Act europeo abre precisamente esa puerta, estableciendo obligaciones diferenciadas según el riesgo y reconociendo el papel clave de la gobernanza ética en la administración pública. La cuestión es si sabremos traducir esos marcos a políticas nacionales y regionales que no se limiten a regular, sino que impulsen la innovación con propósito. Porque la inteligencia artificial más responsable no será la más avanzada, sino la que consiga alinear ética, impacto y estructura.
- De la idea al impacto: el camino de GaIA, un asistente contra la soledad nacido en un hackathon, en Wolaria
Miguel Esteban Salazar, Alex Montecino Puerto, Pablo Martínez Rodrigo ¿Cómo se pasa de una idea concebida en un hackathon a un proyecto real que busca transformar la vida de las personas? Esa es la pregunta que nos hemos hecho desde que nació GaIA, nuestro asistente contra la soledad para personas mayores, que en pocos meses ha pasado de ser un concepto a empezar a formarse como una futura solución tecnológica. El punto de partida fue el Hackathon OdiseIA4Good 2025, donde con GaIA ganamos el premio de la aceleradora Wolaria . Este reconocimiento nos abrió la puerta a algo que jamás habríamos imaginado: entrar en un programa de aceleración de referencia en España, pensado para acompañar a startups y equipos en las primeras fases de su camino. A principios de octubre, nos fuimos invitados a un taller en el Instituto para la Competitividad Empresarial de Castilla y León , centrado en estrategia y sostenibilidad. No fue una simple charla: durante toda la jornada tuvimos acceso a mentorías personalizadas con expertos de Wolaria que nos ayudaron a cuestionarnos los pilares de nuestro proyecto. Uno de los mayores aprendizajes fue la importancia de trabajar el modelo de negocio desde el inicio. Muchas veces en un hackathon nos centramos en la parte técnica —prototipos rápidos, validaciones—, pero si de verdad queremos que la idea llegue lejos, hay que preguntarse desde el principio: ¿Qué problema real estoy resolviendo? ¿Quiénes son mis usuarios y cómo acceden a mi solución? ¿Cuál será la propuesta de valor que los convenza para usarla? Ese fue el primer consejo práctico que nos llevamos: no dejar el modelo de negocio para el final , sino construirlo de la mano del desarrollo tecnológico. El taller también puso sobre la mesa otro tema muy importante: la sostenibilidad . Y no solo en un sentido medioambiental, sino en la capacidad de que un proyecto se mantenga en el tiempo, con recursos y un impacto positivo. Aquí aprendimos que una startup no se trata solo de lanzar una idea brillante, sino de crear algo viable, escalable y responsable. En nuestro caso, esto significa pensar en cómo GaIA puede ser accesible a las familias y cuidadores, y al mismo tiempo tener un modelo que garantice que podamos seguir innovando y ofreciendo valor a los usuarios más vulnerables. Gracias a este taller, dimos un paso más allá. Ahora estamos perfeccionando el plan de negocio y, en paralelo, hemos empezado a desarrollar dos piezas fundamentales: la aplicación, con la que la familia o cuidador podrá seguir de cerca al paciente, recibir alertas y tener información útil en todo momento y el hardware, que será el corazón de GaIA y permitirá que las personas mayores interactúen con el asistente de forma sencilla, sin barreras tecnológicas. Nuestro sueño es poder tener pronto un primer prototipo operativo que mostrar. Más allá de nuestro caso particular, creemos que es importante destacar por qué proyectos como GaIA tienen sentido en el sector de la IA. La inteligencia artificial está revolucionando múltiples ámbitos (finanzas, transporte, salud), pero su aplicación en personas mayores y colectivos vulnerables no está tan explorada, por ello debemos tener claro que no basta con que la tecnología funcione, tiene que ser percibida como segura y respetuosa con la privacidad y con la protección de datos personales. Además, estas soluciones deben ser comprensibles y fáciles de usar, especialmente para quienes no están familiarizados con entornos digitales. Por último, más allá del beneficio económico, hay que medir cómo contribuyen al bienestar, la autonomía y la dignidad de estos colectivos. En nuestro caso, el reto de GaIA no es solo tecnológico, sino también humano y social. Si tuviéramos que resumir los aprendizajes de este primer taller en tres consejos prácticos para otros equipos serían: Empieza por el modelo de negocio: incluso en fases tempranas, pregúntate cómo tu solución se sostendrá a largo plazo. Aprovecha la mentoría al máximo: los expertos no solo resuelven dudas, sino también ayudan a ver ángulos que desde dentro del equipo a veces se pasan por alto. Piensa en el impacto social: una startup no es solo una empresa, es también una oportunidad para mejorar nuestro entorno. Esta experiencia nos ha hecho crecer como equipo y como proyecto. Y aunque todavía estamos en los primeros pasos, sentimos que GaIA empieza a dejar de ser un sueño para convertirse en una realidad tangible. Queremos dar las gracias a Wolaria y OdiseIA por esta gran oportunidad, y también invitar a otros a lanzarse a emprender o a participar en un hackathon. Nunca sabes qué puede salir de un fin de semana de trabajo intenso.
- DERTECNIA
Derechos Humanos, Diversidad y Tecnología es una unidad académica interdisciplinar, compuesta por investigadores/as de la Universidad Carlos III de Madrid, que tiene como principal objetivo, analizar los retos que las nuevas tecnologías plantean a los derechos humanos, y proponer medidas y soluciones que consigan que el progreso científico-tecnológico no se distancie de los valores humanos. En su último evento "Jornada sobre Neurotecnologías y Derechos Humanos", nuestra socia, Patricia Llaque, estuvo invitada como representante de OdiseIA, para presentar y moderar las magistrales ponencias de los investigadores: Claudia Aniballi (UC3M), Francisco Bariffi (UC3M), Eugenia Relaño Pastor (UCM) y Nuria Reche Tello (Universidad Miguel Hernández de Elche). Patricia Llaque, en su calidad de perfil tecnocientífico, volvió a acentuar la necesidad de trabajar de forma interdisciplinar, planteando y alineando nuevas semánticas, enfoques complejos y mejoras metodológicas que favorezcan el análisis y la comprensión de los fenómenos consustanciales al ser humano ante el auge de las Neurotecnologías. En esta nueva era, reivindica el poder afinar la redefinición de qué entendemos por ser humano, qué deseamos preservar, qué y cuándo modificar, hacia qué condición... Recordó también que tanto la naturaleza como la identidad humana no son realidades estáticas, inflexibles, presentadas de un solo modo y para siempre en todos y cada uno de los individuos que formamos parte de la especie humana. Y, entendiendo, la unidad psicofísica que constituye el ser humano, invitó a reflexionar sobre si ¿creemos que los fenómenos que se experimentan a nivel mental pueden reducirse a un conjunto más o menos extenso de información codificable y descifrable por algoritmos de complejos sistemas de Inteligencia Artificial? Todo ello, en un contexto, donde fueron presentadas distintas propuestas para proteger tanto los datos que provienen del cerebro como la integridad y la vulnerabilidad mental ante los avances de los sistemas de Inteligencia Artificial, las neurociencias, las nanotecnologías, las ciencias de los materiales... tanto en los ámbitos clínicos, de investigación como en el mercado de consumo dirigido al ocio, entretenimiento y bienestar.












