top of page

Search Results

101 resultados encontrados

  • Bootstrapping, perspectiva y revolución cognitiva: la trinchera real de la IA europea

    Por Alexandra Díaz, fundadora de Woowii. Un contexto necesario: El reto del talento invisible  Si bien cada vez hablamos más de IA responsable, talento diverso y empleo inclusivo, la realidad del ecosistema europeo es que sigue dejando fuera a muchas personas cuya trayectoria no encaja en los moldes tradicionales: seniors, mujeres, migrantes, jóvenes “sin etiquetas”, personas con discapacidad o personas que deciden cambiar de sector en la mitad de su carrera laboral y emprender. Esa fue la motivación que llevó a Woowii  a presentarse al Hackathon AI4Good 2025 organizado por OdiseIA. El reto estaba claro: ¿cómo crear un sistema de IA que entienda a las personas más allá de un currículo o un prompt, y que pueda ayudar a revelar el potencial de quienes hoy son sistemáticamente invisibilizados en los procesos de selección? Un origen poco habitual en el ecosistema de las deeptech Woowii no nació en el confort de un despacho, de una ronda de Family, Friends and Fools (categoría de inversión en fases iniciales), ni en un laboratorio bien financiado. Su origen es una herida compartida: mobbing, edadismo, listas negras, burnout y multitud de puertas cerradas al talento diverso. Como fundadora de Woowii, con décadas de experiencia llevando al éxito a empresas en sectores diversos a nivel mundial, decidí desafiar el algoritmo social y técnico que perpetúa ese sesgo y construir desde cero, una IA ética que ve a las personas completas, no solo una serie de palabras clave en sus currículos. En un ecosistema europeo que reivindica la ética, la soberanía tecnológica y el cumplimiento del AI Act, la realidad del emprendimiento deeptech  sigue mostrando brechas importantes. La inversión temprana suele inclinarse hacia soluciones basadas en wrappers  de modelos fundacionales (rápidas de prototipar y alineadas con el hype, con buzzwords  y en muchos casos, con MVPs inflados), frente a tecnologías genuinas, propias, auditables y diferenciales, que requieren más tiempo, más validación y mayor esfuerzo científico, pero que proporcionan mayores beneficios a medio-largo plazo y que son seguras y confiables.  Esta dinámica no afecta a todos por igual. Numerosos estudios sobre inversión tecnológica en Europa, señalan que los proyectos liderados por mujeres o por equipos que innovan fuera de los patrones de éxito más reconocibles, afrontan ciclos de evaluación más exigentes y mayores barreras de entrada. En resumen, si eres mujer, innovas a contracorriente y no tienes el “status” de unicornio, lo tienes muy difícil. En este contexto, avanzar en tecnología auditable, soberana y con impacto social real suele implicar un bootstrapping extremo , que obliga a los equipos a sostener la innovación y la resiliencia en condiciones que ponen a prueba tanto el ritmo de desarrollo como el bienestar de quienes la impulsamos. La propuesta de Woowii: reescribiendo el significado de IA aplicada al talento Frente al hype de la IA generativa y los chatbots desechables, Woowii  apuesta por lo radical: una arquitectura neuro-simbólica propia (INSA-W™). Mientras más del 90 % de proyectos HRTech en Europa son wrappers de LLM (dependientes de OpenAI, Google o Anthropic, con sesgos y opacidad por defecto), Woowii construye una base completamente nueva: Datos soberanos y humanos:  historias reales, assessments y competencias transversales, sin depender de texto plano, datos extraídos (escrapeados) de LinkedIn, Infojobs o perfiles automatizados. Ontología evolutiva:  un grafo semántico propietario alimentado por interacciones genuinas, centrado en valor, propósito y cultura. Matching cognitivo:  Woowii no predice probabilísticamente; comprende, razona sobre significados y se ajusta en tiempo real con cada interacción. Esto nos permitirá mejorar radicalmente el fit cultural, disminuir la rotación y dar visibilidad al talento invisible: mujeres, seniors, jóvenes sin “etiqueta”, migrantes, personas con discapacidad o con condiciones crónicas. Validación y meritocracia reales:  badges, reputación trazable, gamificación y evaluación bidireccional. Cada logro, sea badges, historias validadas, roleplays o tests técnicos, es un activo científico y social, no solo una línea en un algoritmo. Un futuro más allá del hype: hacia una revolución cognitiva europea Woowii  propone lo siguiente: ser el antibiótico frente a la fiebre de wrappers y automatismos sin alma. A medida que grandes proveedores consideren desplegar sus propios portales de empleo y servicios verticales, muchas startups de HR basadas exclusivamente en modelos de LLM de terceros afrontarán dificultades reales para diferenciarse y sostener su propuesta de valor. Nuestro objetivo es anticipar ese escenario estando listos por diseño y así contribuir a una IA europea más robusta y autónoma. ¿Por qué Woowii sobrevivirá (y lo liderará)? Tecnología propia e inmune:  arquitectura que “aprende a aprender”, 10x más barata de entrenar y sin gasto excesivo de GPU, con criterio semántico y capacidad de expandirse a cualquier sector. Fit cultural, reputacional y circular:  el matching abandona la estadística ciega y se transforma en razonamiento sobre valores, propósito y dinámica organizacional. El sistema de Woowii aprende de sus errores, crea un gemelo cognitivo de cada usuario, que evoluciona con cada paso. Infraestructura social y económica:  Europa no necesita más plataformas. Necesita sistemas que permitan validar competencias, analizar datos de manera científica, integrar talento vulnerable y orientar políticas públicas de empleabilidad, diversidad e inclusión. ¿Cómo se logra esto sin capital? La incoherencia del sistema Construir una IA neuro-simbólica, con infraestructura y datos propios, validación real, soporte a colectivos vulnerables y trazabilidad alineada con el AI Act, con cero inversión externa, ¡es prácticamente imposible y muy lento! Eso es una hazaña de ciencia ficción. Y también resulta insostenible si Europa realmente quiere alcanzar la soberanía tecnológica que pretende.  El bootstrapping extremo: Penaliza la velocidad, la salud y la capacidad de iterar rápido de los equipos pequeños. Hace del acceso a corporates y de la validación una carrera de fondo desigual (“el vuelve en seis meses” puede matar al mejor deeptech  de impacto). Expone el sesgo sistémico: si eres mujer, innovas en sistemas calificados regulatoriamente como de alto riesgo y estás fuera del radar de los fondos, la doble (o cuádruple) validación es la norma. El mayor reto en nuestro  caso no es solo el acceso a capital, es también para la validación del mercado, tener acceso real a pruebas piloto grandes y datos públicos para no solo crecer y sobrevivir, sino sobre todo poder escalar una tecnología realmente  transformadora y con impacto. El “wow” técnico y el FOMO institucional INSA-W™ , nuestro motor, no genera texto ni filtra currículos. Entiende narrativa, propósito, liderazgo, habilidades, soft y hard skills y las representa en grafos con semántica propia, auditables, alineados con la ética europea. Seremos capaces de: Razonar sobre qué hace única a una persona, una historia o una cultura en tiempo real. Ofrecer a empresas, instituciones y gobiernos dashboards  de inteligencia simbólica: desde el índice de inclusión real hasta el mapeo de sesgos o el impacto de la diversidad. Certificar el camino profesional de colectivos vulnerables y ayudar a las empresas a cumplir y potenciar sus cuotas legales de integración, validando el fit e impulsando la rentabilidad y el propósito social. Nuestro motor permite hacer realidad un futuro laboral en el que la historia, retos personales y potencial de la persona no desaparecen a golpe de filtro de currículo, sino que se convierten en ventaja y puente para dejar de ser invisible . Donde los algoritmos no sólo detectan, sino que comprenden la diferencia y el “ match ” es una ciencia ética y dinámica, no una lotería. ¿Por qué Woowii es la verdadera innovación? Woowii  no compite por repetir, sino por crear criterio. Mientras otros automatizan y amplifican lo que ya está roto, Woowii redefine cómo se mide, se entiende y se relaciona el talento humano. Desde la trinchera, sin recursos, hemos demostrado que el mercado quiere profundidad y verdad, no humo ni anuncios vacíos. Somos el Google Maps del empleo con cerebro y corazón. La primera infraestructura cognitiva auditable para el trabajo europeo. Un FOMO para el ecosistema europeo Si Woowii  hubiera nacido en Silicon Valley, estaría sobrecapitalizada. Si fuéramos un wrapper, abundarían las subvenciones, la visibilidad y el entusiasmo que suelen acompañar a las soluciones de moda. Pero nuestra disrupción nace de otro lugar: de nuestro dolor, de vivencias reales de exclusión laboral, de la necesidad de justicia algorítmica y social de la convicción de que el talento invisible, merece ser reconocido y puesto en valor. Y eso, aunque transformador, no siempre coincide con lo que el mercado denomina “sexy” o inmediatamente rentable.Europa está ante una oportunidad histórica: apostar por deeptech  creado por quienes han quedado fuera de los circuitos tradicionales, por tecnologías que no solo automatizan, sino que comprenden; que no reproducen sesgos, sino que los desactivan, que no buscan volumen, sino impacto real. Eso requiere más que discursos de política pública. Exige inversión temprana, pilotos reales, acceso a datos del sector público de calidad y mecanismos de validación que midan efectos en empleabilidad, inclusión, diversidad y competitividad, no solo la estética de una presentación. Un reto para quienes desean anticipar el futuro del trabajo. Woowii  ya existe. La pregunta es si serás tú, tu organización o tu fondo quien quiera anticiparse y formar parte de este cambio, o si permitiremos que Europa siga apostando por lo superficial mientras deja pasar la oportunidad de crear la infraestructura europea que de verdad hace falta. Si has llegado hasta aquí, quizás este sea tu “ wow moment ”: ese instante que necesitabas para solicitar más información, para conectar con nosotros o para apostar por la siguiente generación de IA europea: la que entiende, cuida y transforma a las personas y devuelve la esperanza a todo ese colectivo invisibilizado por el sistema . La era de la Cognición  empieza hoy. Y esta vez no será liderada por los de siempre. Te invitamos a elegir de qué forma quieres acompañarnos 🫶 alex@woowiihr.com

  • Conferencia magistral de Daron Acemoğlu - Premio Nobel de Economía 2024 - “El progreso en un punto de inflexión: Tecnología, poder y los desafíos globales”

    Autor: Dolores Abuin, en colaboración con los miembros del grupo del Proyecto cAIre-Google.org , Ricardo Palomo (Coordinador), Jorge Cerqueiro, Frank Escandell y José Javier Sesma.   Este artículo ha sido realizado por OdiseIA en el marco del proyecto Google cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Google Caire - OdiseIA Aprovechando la ponencia del profesor Daron Acemoglu durante la celebración del Vigo Global Summit 2025 , hemos tenido la oportunidad única de atender el evento y de establecer una productiva comparativa con nuestro trabajo ya publicado en la web del Proyecto cAIre, dentro de Google.org   Digital Futures Project . Como profesor en el MIT Sloan School of Economics, el análisis de Acemoglu nos permite establecer puntos de convergencia significativos con nuestras conclusiones del subproyecto 2.1 "Profesiones del Futuro: Nuevas Oportunidades y Requerimientos”, a la vez que introduce una divergencia fundamental en el diagnóstico de la transformación laboral. Puntos de convergencia La primera convergencia es la visión dual. Acemoglu articula la encrucijada entre el camino de Alan Turing (reemplazo) y el de Norbert Wiener (aumento). Esto mismo recogimos en nuestro entregable en el apartado de la "Percepción dual: riesgos y oportunidades" que algunos expertos identificaron como el núcleo del debate. La segunda convergencia reside en las habilidades del futuro. La conclusión de Acemoglu se centra en "aprender a aprender". Esta idea se refuerza en nuestro estudio, tanto a través de las encuestas al público en general, como en las realizadas a los expertos, quienes identificaron el "pensamiento crítico" y la "adaptabilidad y aprendizaje continuo" como las habilidades más cruciales, por encima de las puramente técnicas, y algunos hicieron hincapié en el carácter ‘multitareas’ del profesional del futuro inmediato. Ambos análisis concluyen que el valor humano que se traduce en el mercado reside en las habilidades, no en la simple ejecución técnica. Y la tercera convergencia se refiere a la regulación. La advertencia de Acemoglu sobre el poder de las "Big Tech" y la necesidad de una elección "social y política" se alinea perfectamente con nuestro apartado sobre "Gobernanza, regulación y ética aplicada", que identificamos como una de las principales generadoras de nuevas profesiones. Muchos de los futuros perfiles profesionales que proponemos en nuestro estudio lidiarán con la rehumanización en el despliegue de estas tecnologías. El ‘Performed by Humans’ podría llegar a ser todo un nicho de mercado. Puntos de divergencia Aquí es donde la tesis de Acemoglu ofrece su mayor valor a nuestro trabajo.  Nuestro informe, basado en las opiniones de expertos y del público, concluye que el impacto de la IA es una "transformación inevitable" y se enfoca en las estrategias de adaptación (como el reskilling  o aprendizaje horizontal y la creación de nuevos roles).      Acemoglu desafía radicalmente esta premisa. Él argumenta que la trayectoria tecnológica actual (el camino de Turing) no es en absoluto inevitable, sino una elección. El problema no es la IA, sino que es su dirección. Mientras nuestro informe analiza el "impacto" de la IA, Acemoglu nos obliga a preguntar por qué la IA tiene ese impacto. Su diagnóstico de los tres obstáculos (concentración económica, ideología de Hollywood y geopolítica) sugiere que el reskilling  por sí solo es insuficiente si no se cambia la dirección de la innovación tecnológica.   La solución de Acemoglu es la "IA Pro-Trabajador" (el "electricista aumentado"). Nos ofrece una nueva visión del futuro laboral que completa nuestro informe. El listado de "nuevas profesiones" de nuestro entregable (como "Auditor de algoritmos", "Arquitecto de soluciones IA", "Curadores de datos") corre el riesgo de crear una nueva élite tecnológica. Acemoglu nos recuerda que la verdadera oportunidad no es solo crear nuevos roles técnicos, sino usar la IA para aumentar la productividad, el valor y el salario de millones de empleos existentes. 1. La llegada de la IA En su conferencia, el premio Nobel Daron Acemoglu presenta su tesis sobre el camino de la Inteligencia Artificial como una elección social, económica e ideológica. Es una elección que, según él, nos está llevando por la senda equivocada, con graves consecuencias para la desigualdad, la prosperidad compartida y la propia democracia. Turing contra Wiener Acemoglu sostiene que, desde sus inicios, la informática ha albergado dos filosofías opuestas sobre la relación entre humanos y máquinas. Alan Turing (la automatización). Ésta es la visión dominante hoy en día. Se basa en la idea de que la mente humana es una "máquina de computación", una visión también compartida por Marvin Minsky y John McCarthy, los impulsores de la Conferencia de Dartmouth en 1956. El objetivo, por tanto, es crear máquinas que imiten, compitan y, finalmente, reemplacen a los humanos en sus tareas. El éxito se podría medir por la paridad. ¿Puede la IA hacer el trabajo de un humano igual o mejor? Norbert Wiener (el aumento). La otra visión alternativa, se basa en que las máquinas deben ser herramientas que hagan cosas que los humanos no pueden hacer. Fue por esto que Wiener fundó la Cibernética, que es contrapuesta a la Inteligencia Artificial Simbólica. El objetivo no es reemplazar, sino aumentar y complementar la capacidad humana. El éxito se mide por la ampliación de nuestras habilidades (como lo hicieron el ratón,el hipertexto o la interfaz gráfica de usuario). La industria tecnológica, influenciada por factores muy diversos, ha apostado casi en su totalidad por el camino de Turing, generando lo que Acemoglu llama la "automatización descontrolada". 2. Las consecuencias sociales (desigualdad y crisis democrática) El resultado de elegir el camino de Turing es claro para Acemoglu. Nos llevará a un enorme aumento de la desigualdad. Esta brecha económica, argumenta, es el combustible directo de la crisis de la democracia que vemos hoy. Cuando la democracia no puede cumplir con su promesa de prosperidad, surgen el populismo, la desinformación y la pérdida de confianza en las instituciones. 3. La solución es la "IA Pro-Trabajador"  Acemoglu propone una alternativa, la "IA Pro-Trabajador". Su ejemplo clave no es un radiólogo, sino un electricista. Un electricista que acaba de comenzar a trabajar, no puede resolver problemas complejos que uno experimentado sí. La IA de "automatización" (Turing) intentará reemplazar a ambos. La "IA pro-trabajador" (Wiener) sería una herramienta (quizás en un dispositivo portátil) que proporciona al principiante información en tiempo real basada en datos, permitiéndole realizar tareas más sofisticadas y aprender en el proceso. Esta IA no reemplaza, sino que aumenta la productividad del trabajador. Es el "antídoto perfecto" a la desigualdad, porque un trabajador más productivo y capaz de nuevas tareas justifica un salario más alto. Es la verdadera promesa de la IA, no es una Inteligencia Artificial General (IAG) que nos reemplace, sino herramientas que dupliquen la productividad de médicos, enfermeros, profesores, fontaneros y obreros. 4. ¿Por qué no tenemos esta IA? Si la "IA Pro-Trabajador" es técnicamente más fácil y económicamente superior para la sociedad, ¿por qué no la vemos en todas partes?Acemoglu señala tres obstáculos que evitan la aparición directa de esa IA. El obstáculo económico (concentración). A diferencia de la esquematización efectuada por Amy Webb, profesora en NYU Stern School of Business, sobre la M.A.F.I.A.G. en Estados Unidos y la B.A.T. en China, para Acemoglu el mercado está dominado por seis o siete "Big Tech". El modelo de negocio de Meta o Microsoft no es "crear herramientas para electricistas en PYMES". Sus modelos se basan en la Inteligencia Artificial Generativa (IAGen), la venta de software a grandes corporaciones y la publicidad, lo que incentiva la automatización a gran escala. El obstáculo ideológico (Hollywood). Estamos culturalmente obsesionados con la idea de la IA que compite con los humanos ("robots que nos matan"), gracias a la ciencia ficción. Esta ideología atrae el talento y la financiación hacia el camino de Turing, en lugar del camino más "aburrido" pero útil de Wiener. Irónicamente, éste ha sido el mismo camino por el cual la industria del cine ya está claramente amenazada. El obstáculo geopolítico (arma política). La IA se ha convertido en una "arma política" en una carrera de "suma cero" contra China. La narrativa "quien domine la IA, dominará el mundo" justifica una inversión ilimitada en el camino de la automatización, beneficiando a las "Big Tech" que la promueven. El advenimiento del Proyecto Stargate por parte de la Administración Trump a inicios de 2025, siendo inicialmente una billonaria iniciativa propulsada por OpenAI, Softbank y Oracle, recibió un fugaz ataque comercial chino con la disrupción del modelo DeepSeek, poco después. La carrera por la supremacía de la IA no es un nuevo ‘Proyecto Manhattan' sino una nueva ‘Misión Apolo’. 5. Conclusión Acemoglu concluye con una seria advertencia sobre la educación. Acemoğlu critica que herramientas como ChatGPT fomentan la obtención de "respuestas de experto" sin el esfuerzo del proceso, lo que amenaza la habilidad más importante del futuro, "aprender a aprender". El futuro de la IA, por tanto, no debe dejarse en manos de pocas empresas que la controlan. El argumento de Daron Acemoglu es que la "profesión del futuro" no es un destino tecnológico que debamos predecir, sino una elección política, económica y social que debemos asumir activamente. El gran desafío no es técnico, sino que es cívico.

  • IA con propósito: cuando la innovación social se enfrenta a las estructuras

    Por Alicia Romero, Cenit Equipo Hackathon 2025: DiloClaro Estamos a las puertas de una era en la que las máquinas nos escuchan, nos responden y hasta nos traducen con una precisión que parecía imposible hace una década. Y, sin embargo, seguimos enfrentándonos a un documento administrativo como si fuera un texto cifrado. Asimov  soñó con leyes que protegieran a las personas de las máquinas; hoy las necesitamos para que nos protejan de nuestra propia complejidad. Pero también estamos en el momento más prometedor de todos: nunca habíamos tenido tanta tecnología al servicio de la empatía. Por primera vez, podemos usar la inteligencia artificial no solo para automatizar, sino para acercar.  Quienes hemos pasado buena parte de nuestra carrera acompañando a administraciones públicas en procesos de transformación digital, hemos visto cómo algunas de las mejores ideas, las más humanas, las más justas se quedaban atascadas entre la fase piloto y la realidad. Proyectos que nacen para hacer la vida más comprensible, accesible o equitativa, como DiloClaro , terminan chocando con un muro de inercias, normativas desfasadas y estructuras de financiación que no están pensadas para sostener la innovación y menos aún la innovación social. No es que la tecnología no funcionara, sino que el sistema no estaba preparado para sostenerla. Por tanto, la pregunta no es si podemos hacerlo. La pregunta es qué debe cambiar para que la tecnología con propósito no se agote en un laboratorio de innovación, sino que se consolide. De la innovación a la política pública estructural En el sector público, la innovación suele llegar en forma de proyectos piloto, impulsados por el entusiasmo de unos pocos equipos y la financiación puntual de una convocatoria. Pero cuando el proyecto acaba, lo hace también la oportunidad de consolidarlo. Necesitamos marcos de adopción estructural que permitan que las innovaciones con propósito pasen de la prueba de concepto a la política pública. Eso implica financiación plurianual e integración normativa. Por lo que estas iniciativas y sus proyectos no deberían depender de fondos ocasionales: su lugar está en el núcleo de la estrategia digital de las administraciones.  La transformación real no vendrá de la tecnología, sino de nuestra capacidad para usarla con propósito. Solo así cuestiones como la accesibilidad cognitiva dejará de ser un “plus” para convertirse en una obligación institucional. Cultura social y responsabilidad compartida A menudo hablamos de accesibilidad como si fuera una concesión. Pero no lo es: es una deuda. La tecnología actual nos permite simplificar, traducir y anticipar, pero seguimos mirando a los colectivos vulnerables como si el problema fuera suyo, cuando en realidad es de una sociedad que comunica sin empatía. Una sociedad verdaderamente digital no es la que automatiza trámites, sino la que los hace comprensibles para todos y todas.  La IA responsable amplifica nuestra capacidad de cuidar, pero solo si la acompañamos de una pedagogía social que promueva empatía digital y equidad comunicativa.Facilitar la vida a los demás es más sencillo que nunca. Lo difícil sigue siendo querer hacerlo como prioridad. Financiación y retorno de la inversión con propósito Uno de los principales bloqueos estructurales está en cómo entendemos el retorno.En la administración, el ROI se traduce en ahorro, eficiencia o reducción de tiempos. Pero el valor social también tiene métricas: una notificación entendida, un trámite completado sin ayuda, una persona mayor que no renuncia a un derecho porque el lenguaje era incomprensible. Necesitamos modelos híbridos de evaluación, donde los beneficios sociales, éticos y de confianza se integren en los indicadores de éxito.Invertir en accesibilidad cognitiva, por ejemplo, es invertir en eficiencia ciudadana: menos errores, menos repetición de trámites, más autonomía. El retorno no solo es económico, es social y democrático. Ecosistemas de innovación inclusivos y realistas Los ecosistemas de innovación pública suelen estar poblados de tecnólogos, universidades y administraciones, pero raramente de las personas a las que esas innovaciones quieren servir. La IA con propósito necesita ecosistemas cívicos, donde las asociaciones, fundaciones y colectivos vulnerables participen desde el diseño y no solo en la fase de validación. Esa participación no puede ser simbólica. Debe traducirse en procesos de co-creación que integren la voz de quienes experimentan las brechas de comprensión o acceso.  En el caso de DiloClaro, esa validación participativa garantiza que el lenguaje claro y la lectura fácil respondan a necesidades reales, no a suposiciones técnicas. El verdadero salto de calidad ocurre cuando el impacto social se diseña desde el principio, no cuando se mide al final. De la accesibilidad técnica a la accesibilidad cognitiva Desde hace años, las normas europeas y españolas obligan a que los portales públicos cumplan los estándares de accesibilidad web ( WCAG ). Eso permite que cualquier persona pueda entrar en la página, pero no asegura que pueda entender lo que allí se dice. Ha llegado el momento de ampliar el concepto: la accesibilidad cognitiva debe reconocerse como un derecho ciudadano, vinculado al derecho a la información y a la igualdad. No basta con que las interfaces sean navegables; deben ser comprensibles. Así como hoy se exige que los sitios sean técnicamente accesibles, deberíamos exigir que la información pública esté redactada en lenguaje claro y lectura fácil.  La ONU y la UNESCO llevan tiempo recordando que el acceso a la información solo es real cuando las personas pueden comprenderla y utilizarla. La Convención sobre los Derechos de las Personas con Discapacidad (artículos 9 y 21) insta a los Estados a garantizar no solo la accesibilidad física y digital, sino también la accesibilidad en la comunicación y la información, en formatos que sean claros, legibles y adaptados a la diversidad cognitiva. España ha dado un paso importante en esta dirección al incorporar la accesibilidad cognitiva  en su legislación (Ley 6/2022), reconociéndola como condición necesaria para la inclusión social. Aun así, queda mucho por hacer: las normas técnicas aseguran que un sitio web funcione correctamente, pero no garantizan que un ciudadano entienda lo que la administración le está comunicando. Así como hoy exigimos que los sitios sean técnicamente accesibles, deberíamos exigir también que la información pública esté redactada en lenguaje claro y lectura fácil. Comprender lo que leemos no es un lujo: es parte esencial del derecho a participar plenamente en la vida democrática. Además, una normativa de claridad y comprensión no solo mejoraría la experiencia ciudadana, sino que también abriría un nuevo espacio de innovación y colaboración entre administraciones y empresas tecnológicas responsables. La administración no solo asegura el acceso: también marca el rumbo del sector TIC. Y en ese rumbo debería estar, por ejemplo, la obligación de comunicar de forma que todas las personas puedan entender lo que se les dice. De hecho, ya existen pasos normativos importantes que apuntan en esa dirección. En Andalucía, por ejemplo, el Decreto-ley 3/2024, de 6 de febrero , por el que se adoptan medidas de simplificación y racionalización administrativa para la mejora de las relacionesde los ciudadanos con la Administración de la Junta de Andalucía y el impulsode la actividad económica en Andalucía. Sin embargo, la aplicación práctica de estas normas sigue siendo desigual y carece de una estrategia digital que las traslade al ámbito de la inteligencia artificial y la automatización de servicios públicos. Gobernanza ética de la IA con propósito Como conclusión, queda claro que los proyectos de inteligencia artificial, con propósito, no fracasan por falta de talento o de tecnología, sino por exceso de fricción. Fricción normativa, institucional, cultural. Si realmente queremos que la IA responsable se consolide en el sector público, necesitamos alinear tres dimensiones: la política pública, que impulse y financie; la capacidad técnica, que acompañe y supervise; y la cultura social, que comprenda y sostenga. Solo cuando esas tres capas se alineen, la tecnología con propósito dejará de ser una promesa para convertirse en una política pública transformadora.  Pero, además, es fundamental recordar que la IA Responsable no es un atributo del modelo, sino del sistema que la gobierna. Su madurez no depende solo del cumplimiento normativo, sino de la capacidad institucional de garantizar principios como la transparencia, la equidad, la explicabilidad y la supervisión humana en todo el ciclo de vida de la tecnología. El AI Act  europeo abre precisamente esa puerta, estableciendo obligaciones diferenciadas según el riesgo y reconociendo el papel clave de la gobernanza ética en la administración pública. La cuestión es si sabremos traducir esos marcos a políticas nacionales y regionales que no se limiten a regular, sino que impulsen la innovación con propósito. Porque la inteligencia artificial más responsable no será la más avanzada, sino la que consiga alinear ética, impacto y estructura.

  • De la idea al impacto: el camino de GaIA, un asistente contra la soledad nacido en un hackathon, en Wolaria

    Miguel Esteban Salazar, Alex Montecino Puerto, Pablo Martínez Rodrigo ¿Cómo se pasa de una idea concebida en un hackathon a un proyecto real que busca transformar la vida de las personas? Esa es la pregunta que nos hemos hecho desde que nació GaIA, nuestro asistente contra la soledad para personas mayores, que en pocos meses ha pasado de ser un concepto a empezar a formarse como una futura solución tecnológica. El punto de partida fue el Hackathon OdiseIA4Good  2025, donde con GaIA ganamos el premio de la aceleradora Wolaria . Este reconocimiento nos abrió la puerta a algo que jamás habríamos imaginado: entrar en un programa de aceleración de referencia en España, pensado para acompañar a startups y equipos en las primeras fases de su camino. A principios de octubre, nos fuimos invitados a un taller en el Instituto para la Competitividad Empresarial de Castilla y León , centrado en estrategia y sostenibilidad. No fue una simple charla: durante toda la jornada tuvimos acceso a mentorías personalizadas con expertos de Wolaria  que nos ayudaron a cuestionarnos los pilares de nuestro proyecto. Uno de los mayores aprendizajes fue la importancia de trabajar el modelo de negocio desde el inicio. Muchas veces en un hackathon nos centramos en la parte técnica —prototipos rápidos, validaciones—, pero si de verdad queremos que la idea llegue lejos, hay que preguntarse desde el principio: ¿Qué problema real estoy resolviendo? ¿Quiénes son mis usuarios y cómo acceden a mi solución? ¿Cuál será la propuesta de valor que los convenza para usarla? Ese fue el primer consejo práctico que nos llevamos: no dejar el modelo de negocio para el final , sino construirlo de la mano del desarrollo tecnológico. El taller también puso sobre la mesa otro tema muy importante: la sostenibilidad . Y no solo en un sentido medioambiental, sino en la capacidad de que un proyecto se mantenga en el tiempo, con recursos y un impacto positivo. Aquí aprendimos que una startup no se trata solo de lanzar una idea brillante, sino de crear algo viable, escalable y responsable. En nuestro caso, esto significa pensar en cómo GaIA puede ser accesible a las familias y cuidadores, y al mismo tiempo tener un modelo que garantice que podamos seguir innovando y ofreciendo valor a los usuarios más vulnerables. Gracias a este taller, dimos un paso más allá. Ahora estamos perfeccionando el plan de negocio y, en paralelo, hemos empezado a desarrollar dos piezas fundamentales: la aplicación, con la que la familia o cuidador podrá seguir de cerca al paciente, recibir alertas y tener información útil en todo momento y el hardware, que será el corazón de GaIA y permitirá que las personas mayores interactúen con el asistente de forma sencilla, sin barreras tecnológicas. Nuestro sueño es poder tener pronto un primer prototipo operativo que mostrar. Más allá de nuestro caso particular, creemos que es importante destacar por qué proyectos como GaIA tienen sentido en el sector de la IA. La inteligencia artificial está revolucionando múltiples ámbitos (finanzas, transporte, salud), pero su aplicación en personas mayores y colectivos vulnerables no está tan explorada, por ello debemos tener claro que no basta con que la tecnología funcione, tiene que ser percibida como segura y respetuosa con la privacidad y con la protección de datos personales. Además, estas soluciones deben ser comprensibles y fáciles de usar, especialmente para quienes no están familiarizados con entornos digitales. Por último, más allá del beneficio económico, hay que medir cómo contribuyen al bienestar, la autonomía y la dignidad de estos colectivos. En nuestro caso, el reto de GaIA no es solo tecnológico, sino también humano y social. Si tuviéramos que resumir los aprendizajes de este primer taller en tres consejos prácticos para otros equipos serían: Empieza por el modelo de negocio: incluso en fases tempranas, pregúntate cómo tu solución se sostendrá a largo plazo. Aprovecha la mentoría al máximo: los expertos no solo resuelven dudas, sino también ayudan a ver ángulos que desde dentro del equipo a veces se pasan por alto. Piensa en el impacto social: una startup no es solo una empresa, es también una oportunidad para mejorar nuestro entorno. Esta experiencia nos ha hecho crecer como equipo y como proyecto. Y aunque todavía estamos en los primeros pasos, sentimos que GaIA empieza a dejar de ser un sueño para convertirse en una realidad tangible. Queremos dar las gracias a Wolaria y OdiseIA por esta gran oportunidad, y también invitar a otros a lanzarse a emprender o a participar en un hackathon. Nunca sabes qué puede salir de un fin de semana de trabajo intenso.

  • DERTECNIA

    Derechos Humanos, Diversidad y Tecnología es una unidad académica interdisciplinar, compuesta por investigadores/as de la Universidad Carlos III de Madrid, que tiene como principal objetivo, analizar los retos que las nuevas tecnologías plantean a los derechos humanos, y proponer medidas y soluciones que consigan que el progreso científico-tecnológico no se distancie de los valores humanos. En su último evento "Jornada sobre Neurotecnologías y Derechos Humanos", nuestra socia, Patricia Llaque, estuvo invitada como representante de OdiseIA, para presentar y moderar las magistrales ponencias de los investigadores: Claudia Aniballi (UC3M), Francisco Bariffi (UC3M), Eugenia Relaño Pastor (UCM) y Nuria Reche Tello (Universidad Miguel Hernández de Elche). Patricia Llaque, en su calidad de perfil tecnocientífico, volvió a acentuar la necesidad de trabajar de forma interdisciplinar, planteando y alineando nuevas semánticas, enfoques complejos y mejoras metodológicas que favorezcan el análisis y la comprensión de los fenómenos consustanciales al ser humano ante el auge de las Neurotecnologías. En esta nueva era, reivindica el poder afinar la redefinición de qué entendemos por ser humano, qué deseamos preservar, qué y cuándo modificar, hacia qué condición... Recordó también que tanto la naturaleza como la identidad humana no son realidades estáticas, inflexibles, presentadas de un solo modo y para siempre en todos y cada uno de los individuos que formamos parte de la especie humana. Y, entendiendo, la unidad psicofísica que constituye el ser humano, invitó a reflexionar sobre si ¿creemos que los fenómenos que se experimentan a nivel mental pueden reducirse a un conjunto más o menos extenso de información codificable y descifrable por algoritmos de complejos sistemas de Inteligencia Artificial? Todo ello, en un contexto, donde fueron presentadas distintas propuestas para proteger tanto los datos que provienen del cerebro como la integridad y la vulnerabilidad mental ante los avances de los sistemas de Inteligencia Artificial, las neurociencias, las nanotecnologías, las ciencias de los materiales... tanto en los ámbitos clínicos, de investigación como en el mercado de consumo dirigido al ocio, entretenimiento y bienestar.

  • ¿Puede la regulación de la IA proteger a los más vulnerables?

    Autores: Carmen Muñoz García y William Lúligo Monsalve Subproyecto 1.1 – AI Governance para Poryecto cAIre Google.orgOdiseIA Blog ¿Puede la regulación de la IA proteger a los más vulnerables? La inteligencia artificial generativa —la cara más visible de los modelos de IA de uso general—, se ha incorporado a nuestra vida cotidiana. Desde una perspectiva positiva y genérica mejora nuestra vida, contribuye a nuestra forma de trabajar, estudiar y comunicarnos. Sin embargo, desde una perspectiva negativa desafía los derechos, principios y valores del Derecho debidamente asentados a nivel de la Unión y en otros muchos Estados democráticos. Este desafío negativo amplifica los riesgos para los más vulnerables frente a una tecnología disruptiva: menores, mayores, personas con discapacidad, migrantes, personas con problemas de salud o en situación de pobreza. El reto no es frenar la innovación, sino encauzarla con normas claras y unas prácticas responsables para que nadie se quede atrás. ¿Por qué poner ahora el foco en la protección en la era de la IA? En los últimos años, hemos visto casos preocupantes: adolescentes que, tras interactuar con ChatBot, han tomado decisiones trágicas; adultos que, influidos por respuestas de IA, han sufrido consecuencias graves. Estos ejemplos reales han encendido las alarmas en Europa y el mundo. La IA generativa no solo responde preguntas o crea contenido en distintos formatos y para múltiples fines, sino que ahora también puede tomar decisiones, ejecutar tareas complejas e, incluso, en algunos casos, influir en la salud mental o la seguridad de las personas. Por este motivo, la Unión Europea, con el firme propósito de innovar de manera ética, segura y fiable, y también para garantizar los derechos de las personas, ha dado un paso adelante con el Reglamento de Inteligencia Artificial (RIA), que busca proteger especialmente a los colectivos más vulnerables. ¿Cuáles son algunas de las señales de alerta para las personas y, especialmente, para los vulnerables? Ante los múltiples riesgos de la IA, especialmente para las personas y colectivos vulnerables, es preciso identificar las posibles amenazas que se presentan y los riesgos ciertos que ya se han producido, sin que por ello la lista sea exhaustiva:  • Difusión de información falsa convincente (deepfakes) que afecta a la reputación, incita al odio o pone en riesgo la seguridad personal o colectiva. • Sesgos algorítmicos que excluyen en decisiones de alto impacto (como el acceso a la vivienda, empleo, crédito, a la administración pública o la atención sanitaria). • Interacciones automatizadas que refuerzan pensamientos autodestructivos o conductas de riesgo, especialmente en personas con vulnerabilidades emocionales o psicológicas. • Falta de transparencia sobre cómo funciona la IA, qué datos utiliza y qué limitaciones tiene, lo que impide una evaluación informada por parte del usuario. • Automatizaciones de servicios sin canales de ayuda humana claros y accesibles. • Exposición desproporcionada a publicidad personalizada o manipulación emocional, especialmente en menores, personas mayores o con baja alfabetización digital. • Acceso desigual a tecnologías de calidad, donde colectivos vulnerables quedan relegados a sistemas menos seguros, menos precisos o más invasivos. ¿Cómo regula Europa la IA? El RIA clasifica los sistemas de IA según el riesgo que representan: Riesgo inaceptable : prohibidos por suponer una amena para “la salud, la seguridad o los derechos fundamentales” (por ejemplo, IA que manipule a menores). Alto riesgo : por suponer un riesgo elevado para lo antedicho en el párrafo anterior, estará bajo una supervisión estricta (IA en sanidad, educación, justicia). Riesgo limitado o mínimo : para estos, se imponen pbligaciones de transparencia y buenas prácticas. Los modelos de IA de uso general, como los grandes chatbots, tienen reglas específicas. Si un modelo puede causar daños a gran escala (por ejemplo, desinformación masiva o “deepfakes” difíciles de detectar), se le exige cumplir requisitos adicionales: evaluaciones de riesgo, notificación de incidentes y medidas de ciberseguridad. Además, la UE ha creado códigos de buenas prácticas para que los proveedores de IA demuestren que cumplen la ley y protegen a los usuarios. Exigencias regulatorias en términos cotidianos  • Documentación y trazabilidad: saber cómo se entrenó el modelo, con qué datos y para qué sirve. • Transparencia y advertencias: explicar límites y riesgos de uso; marcar contenido sintético. • Supervisión humana: que exista intervención y recursos accesibles cuando haga falta. • Ciberseguridad y pruebas: evaluar, mitigar y volver a evaluar ante fallos o abusos. • Notificación de incidentes: comunicar y corregir incidentes graves con rapidez. • Códigos de buenas prácticas: una vía para demostrar cumplimiento de forma uniforme. Guía breve para su implementación  Para administraciones y empresas • Inventario de sistemas de IA y clasificación por riesgo. • Evaluación de impacto sobre derechos (especial foco en colectivos vulnerables). • Controles sobre los datos: calidad, sesgo, privacidad y accesibilidad del contenido. • Canales de apoyo humano y mecanismos de reclamación fáciles de usar. • Pruebas de robustez y planes de respuesta ante incidentes. • Uso de model cards y documentación técnica compartible con proveedores posteriores. Para escuelas, ONGs y ciudadanía • Formación básica para reconocer desinformación y contenido sintético. • Normas de seguridad: no compartir datos sensibles, contrastar fuentes, reportar abusos. • Uso de herramientas con buenas prácticas verificables y sellos de confianza. • Exigir explicaciones claras y accesibles sobre cómo funciona un asistente de IA. ¿El Reglamento de IA es suficiente para proteger a los vulnerables? La regulación europea es pionera y necesaria, pero no es infalible. La tecnología avanza rápido y los riesgos cambian. Por eso, además de leyes, principios y valores, necesitamos vigilancia, educación y una sociedad atenta a los nuevos desafíos. La clave está en combinar normas claras, supervisión activa y una cultura de cumplimiento y de responsabilidad. Solo así la IA podrá ser una aliada, y no una amenaza, para quienes más protección necesitan. El objetivo puede parecer simple, pero no lo es: ante una IA tecnológicamente ilimitada, son necesarios límites éticos y normativos, así como actuaciones globales. De ahí que podamos afirmar: progreso sí, pero con garantías .

  • Más Allá de la Euforia: Fomentando el Sentido Común en la Inteligencia Artificial de las Empresas

    Frank Escandell For the original English version: https://www.linkedin.com/pulse/beyond-hype-fostering-artificial-intelligence-common-sense-escandell-dcqcf   Portada Original de la presentación de robrt Blumofe (EmTech AI 2025) En la conferencia EmTech AI 2025 del MIT Technology Review al que asistió una representación de OdiseIA en el mes de mayo, el Dr. Robert Blumofe, vicepresidente ejecutivo y CTO de Akamai Technologies, ofreció una crítica contundente de las estrategias contemporáneas de adopción de inteligencia artificial en entornos empresariales. Desde el MIT Media Lab, Blumofe abordó el fenómeno del 'teatro del éxito de la IA' y sus consecuencias en cascada para la implementación empresarial. Su presentación articuló un marco para distinguir las capacidades auténticas de la IA de las afirmaciones exageradas, ofreciendo orientación pragmática para cultivar una alfabetización genuina en IA. Basándose en el viaje de Akamai con las tecnologías de inteligencia artificial, enfatizó el imperativo de desarrollar competencias integrales en IA en lugar de fijarse exclusivamente en los modelos de lenguaje de gran tamaño, abogando por enfoques centrados en problemas. La presentación surgió en un discurso más amplio sobre el impacto de la IA en la dinámica laboral. Según datos de Pew Research citados durante la conferencia, aproximadamente uno de cada seis trabajadores americanos utiliza herramientas de IA, sin embargo, el 63% permanece desconectado de la integración de IA en contextos laborales. Esta disparidad subraya la urgencia del mensaje de Blumofe: las organizaciones requieren enfoques sistemáticos para la adopción de IA que trasciendan el compromiso superficial con tecnologías de moda. Principales conclusiones e imperativos estratégicos El teatro del éxito de la IA crea una reacción en cadena que conduce del bombo al FOMO (siglas de ‘temor de perdérselo’) y al fracaso organizacional, requiriendo marcos de evaluación crítica para distinguir capacidades auténticas. Las organizaciones deben evitar convertirse en 'caballos de un solo truco' desarrollando competencia en todo el espectro de tecnologías de IA, particularmente modelos especializados más pequeños. Los enfoques de integración vertical que comienzan con problemas específicos superan las soluciones horizontales que dependen únicamente de modelos de lenguaje de propósito general. La alfabetización en IA representa el fundamento crítico para romper el ciclo de fracasos impulsados por el bombo y permitir expectativas realistas sobre capacidades y limitaciones. La estrategia empresarial de IA requiere educación, coordinación estratégica y construcción de herramientas internas, ejemplificado por Akam.AI  y el sandbox AI360 de Akamai. La “crisis del teatro del éxito” de la IA La crítica de Blumofe comenzó con la 'reacción en cadena' que aflige la adopción empresarial de IA. Esta secuencia comienza con la exposición a relatos sensacionalistas de capacidades de IA que constituyen 'teatro del éxito' en lugar de logros sustantivos. El problema fundamental radica en la incapacidad de las partes interesadas para diferenciar entre el éxito tecnológico genuino y las demostraciones diseñadas para generar entusiasmo sin ofrecer soluciones fiables y escalables. Este fenómeno crea vulnerabilidades sistémicas, ya que los responsables de decisiones carecen de la profundidad técnica necesaria para evaluar la veracidad de las afirmaciones sobre capacidades de IA. La etapa subsiguiente implica la aparición del FOMO (‘temor a perdérselo’) organizacional cuando los ejecutivos perciben que los competidores obtienen ventajas mediante el despliegue de IA y se sienten obligados a responder sin comprensión adecuada de las tecnologías subyacentes. Esta postura reactiva conduce a fracasos de implementación: recursos desperdiciados en soluciones inapropiadas, expectativas decepcionadas, vulnerabilidades de seguridad y cinismo organizacional. Arthur C. Clarke, el maestro de la ciencia ficción, observó que 'cualquier tecnología suficientemente avanzada es indistinguible de la magia', y Blumofe invocó este principio para explicar por qué los sistemas de IA plantean desafíos particulares para la evaluación organizacional. Desarrollo de la alfabetización organizacional en IA Blumofe identificó la alfabetización en IA como la contramedida esencial al ciclo de fracaso impulsado por el bombo, citando a la profesora Cynthia Breazeal del MIT Media Lab, quien observa que la alfabetización digital se ha vuelto insuficiente. La ubicuidad de la IA requiere una alfabetización específica sobre sus capacidades, limitaciones y aplicaciones apropiadas. La metáfora del 'genio fuera de la botella' reconoce que las tecnologías de IA no pueden ‘desinventarse’; las organizaciones deben desarrollar competencias para navegar un entorno donde la IA influye decisiones críticas y procesos operativos. Esta alfabetización debe extenderse a ejecutivos, gestores y trabajadores del conocimiento, no solo al personal técnico. El primer pilar del marco de alfabetización de Blumofe rechaza el pensamiento de 'caballo de un solo truco de LLM': la reducción de la inteligencia artificial a modelos como ChatGPT. Empleando la metáfora de un iceberg, ilustró cómo la atención visible se concentra en LLM masivos mientras que el valor empresarial de la IA deriva de 'una miríada de modelos mucho más pequeños de los que nunca has oído hablar'. Estos modelos especializados requieren mucha menos infraestructura computacional mientras ofrecen rendimiento superior dentro de sus dominios. En lugar de entrenar empleados en 'ingeniería de prompts ' —lo que Blumofe denominó 'un concepto realmente extraño'— las empresas deben cultivar comprensión de diversos enfoques algorítmicos y sus fortalezas y limitaciones. Marcos estratégicos para la adopción de IA El segundo principio de Blumofe enfatiza el pensamiento centrado en el problema en lugar de centrado en la tecnología. Relató encontrar frecuentemente mandatos organizacionales para 'descubrir cómo usar LLM', caracterizando este enfoque como fundamentalmente al revés. La metodología apropiada invierte esta secuencia: comenzar con definición rigurosa del problema, analizar características y requisitos de posibles soluciones, luego seleccionar tecnologías apropiadas —que pueden o no involucrar IA, y si la IA está indicada, pueden ser modelos especializados en lugar de LLM de propósito general. La distinción entre estrategias verticales y horizontales resulta crítica. Los enfoques horizontales tratan los LLM como solucionadores universales, enfocándose en elaborar prompts ingeniosos. Si bien este enfoque puede producir resultados aceptables, sufre limitaciones de fiabilidad: los LLM poseen vastos conocimientos irrelevantes para contextos organizacionales específicos mientras carecen de información específica del dominio. Las estrategias verticales comienzan con análisis de problemas específicos y ensamblan conjuntos de tecnologías adaptadas: LLM como componentes dentro de sistemas que también emplean modelos especializados, lógica basada en reglas y algoritmos tradicionales. Sin embargo, la integración vertical exige competencia sustancialmente mayor. Blumofe señaló que usar un LLM para resolver un problema abordable mediante regresión logística podría aumentar los costes por un factor de aproximadamente un millón, ilustrando las implicaciones económicas de la falta de alfabetización en IA. El viaje de tres épocas de Akamai Blumofe contextualizó la evolución de Akamai mediante un marco de tres épocas. La 'Época Cero' caracterizó un período cuando las tecnologías de IA ofrecían madurez insuficiente para los dominios de Akamai. La 'Época Uno' comenzó alrededor de 2015 con la maduración del aprendizaje profundo. Las capacidades de las redes neuronales profundas para distinguir patrones normales de anómalos, identificar tráfico malicioso y diferenciar humanos de bots  se alinearon precisamente con los desafíos de ciberseguridad de Akamai. Las tecnologías ganaron adopción basándose en valor demostrable para desafíos definidos, no en potencial abstracto. La 'Época Dos' —la 'explosión cámbrica de la IA'— comenzó con ChatGPT en noviembre de 2022, transformando las implicaciones organizacionales de la IA. La versatilidad de los modelos de lenguaje sugirió relevancia potencial en prácticamente todas las funciones organizacionales. Esta democratización creó oportunidades, pero también desafíos: la alfabetización requerida ya no podría permanecer concentrada entre ingenieros especialistas. El marco de Blumofe sugiere que esta explosión necesita respuestas sistemáticas —educación, coordinación, desarrollo de herramientas— en lugar de experimentación orgánica no estructurada. Implementación de infraestructura empresarial de IA La respuesta de Akamai se centró en tres iniciativas: educación, coordinación y recursos. El componente educativo se manifestó en Akam.AI , una plataforma interna que proporciona tutoriales, documentos estratégicos y marcos de políticas. La participación personal de Blumofe en crear tutoriales refleja el reconocimiento de que la alfabetización en IA requiere inversión educativa intencional. El pilar de coordinación se materializó mediante la Junta de Innovación Técnica de IA, que opera bajo el modelo de 'propiedad distribuida con habilitación centralizada'. Esta estructura equilibra la experimentación generalizada con la dirección estratégica coherente, estándares de seguridad y asignación de recursos. El sandbox AI360 combina recursos de hardware —evitando infraestructura GPU costosa a favor de alternativas económicas suficientes para modelos especializados más pequeños— con software que proporciona acceso a diversas tecnologías de IA. Críticamente, incorpora soporte de experiencia humana, reconociendo que la infraestructura técnica por sí sola resulta insuficiente. Las aplicaciones prácticas emergentes ilustran la integración vertical en acción: Akamai desarrolló un LLM pequeño con funcionalidad personalizada para crear un chatbot  interactivo que aborda preguntas de migración de clientes. Esta solución ejemplifica la aplicación apropiada de LLM: dominio de conocimiento acotado, interfaz de lenguaje natural ventajosa y escala de modelo rentable. Confrontación de estrategias alternativas Blumofe se involucró con enfoques alternativos, particularmente mandatos de empresas como Shopify y Duolingo que requieren demostrar que la IA no puede cumplir roles humanos propuestos antes de autorizar contrataciones. Blumofe caracterizó estas políticas 'primero IA' como 'al revés', argumentando que la carga de la prueba debe favorecer el juicio humano sobre soluciones apropiadas. Esta perspectiva refleja que las organizaciones deben seleccionar tecnologías basadas en requisitos de problemas en lugar de moda tecnológica, y que mandatar la utilización de IA arriesga perpetuar el ciclo del ‘teatro del éxito’. Las preocupaciones sobre calidad del código generado por IA, mantenibilidad y vulnerabilidades de seguridad impregnaron las discusiones. Blumofe expresó escepticismo sobre afirmaciones de que tales herramientas permiten a individuos sin competencia en programación desarrollar aplicaciones de calidad de producción. El fenómeno de 'slopSquatting' (Bibliotecas falsas creadas por hackers maliciosos) ilustra riesgos específicos: cuando los asistentes de codificación alucinan bibliotecas inexistentes, actores maliciosos pueden crear paquetes con esos nombres conteniendo código comprometido. La evaluación de Blumofe de que el jurado permanece fuera sobre si los asistentes de codificación representan éxito genuino o teatro del éxito refleja su compromiso con la evaluación basada en evidencia. La distinción entre mejorar la productividad de programadores experimentados y permitir a novatos generar código fiable encapsula preguntas fundamentales sobre la capacidad de la IA. A lo largo de la presentación, Blumofe volvió consistentemente a la importancia fundamental de la alfabetización organizacional. La alfabetización requerida se extiende más allá de la comprensión técnica para abarcar marcos estratégicos para análisis de problemas, evaluación de costes-beneficios, evaluación de riesgos y establecimiento de expectativas realistas. El enfoque de tres pilares de Akamai representa una instanciación de cómo las empresas podrían cultivar sistemáticamente esta alfabetización. Sin embargo, los principios subyacentes trascienden estructuras particulares: la integración exitosa de IA requiere inversión intencional en competencias que permiten evaluación crítica de capacidades, emparejamiento reflexivo de problemas con soluciones, y compromiso sostenido con enfoques de integración vertical. El mensaje de Blumofe aboga por rigor intelectual y metodología disciplinada como antídotos a la euforia que caracteriza la adopción empresarial de IA en numerosas industrias y contextos organizacionales.

  • OdiseIA se une al Global CSO and Academic Network on AI Ethics and Policy de la UNESCO

    Madrid, octubre de 2025. El Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) se ha unido a los grupos de trabajo del Global CSO and Academic Network on AI Ethics and Policy , impulsado por la UNESCO, una red internacional que reúne a organizaciones de la sociedad civil y del ámbito académico comprometidas con la promoción de un desarrollo ético y responsable de la inteligencia artificial. La presidenta de OdiseIA, Idoia Salazar, junto con un amplio equipo de socios de la organización, participa en este espacio global de reflexión y acción. Desde su incorporación, fruto del trabajo del CEO de OdiseIA Richard Benjamins; este observatorio contribuye al diseño de estrategias que fomenten una inteligencia artificial centrada en las personas, respetuosa con los derechos humanos y alineada con los valores de transparencia, sostenibilidad y equidad. Los grupos de trabajo de la red abordan temas clave para el futuro de la gobernanza de la IA. Entre ellos se incluyen el empoderamiento ciudadano y el papel de la sociedad civil en la toma de decisiones sobre la tecnología ; la relación entre inteligencia artificial, medio ambiente y sostenibilidad; la identificación de riesgos inaceptables y la definición de líneas rojas éticas y jurídicas; la aplicación responsable de la IA en el sector público; y los desafíos culturales y de propiedad intelectual derivados del uso de sistemas generativos y creativos. La participación de OdiseIA en estos ámbitos refleja su vocación de contribuir al debate internacional con una perspectiva multidisciplinar y rigurosa. Sus socios, provenientes de distintos campos del derecho, la ética, la tecnología, la comunicación y la cultura, colaboran para fortalecer las bases de una inteligencia artificial confiable, transparente y orientada al bien común. Entre los socios de OdiseIA que participan en los grupos de trabajo del Network se encuentran: Idoia Salazar, presidenta de OdiseIA; Inés Cano, Bernardo Corona Domínguez, José Carlos Navarro Palomino, Juan de la Cruz Berlanga, Patri Acebes Tamargo, David Tejedor Rodríguez, Pablo Sáez Hurtado, Begoña González Otero, Ramón Baradat Marí, William Lúligo Monsalve, Patricia Llaque, María Luisa González Tapia, Frank Escandell, Cristina de Santiago, Nicole Marie Suárez Uribe, Dolores Abuin, Myriam Frutos Amador y Alberto González Pulido. Con esta participación, OdiseIA refuerza su papel como referente en la promoción de una inteligencia artificial ética, abierta y humanista, contribuyendo al diálogo internacional impulsado por la UNESCO para construir un futuro tecnológico más justo, sostenible y centrado en las personas.

  • Protección de Menores Migrantes: ¿Puede la Inteligencia Artificial Prevenir Devoluciones Ilegales?

    Introducción La regulación de la inteligencia artificial (IA) en Europa, especialmente a través del AI Act , marca un hito a nivel global en cuanto pone el foco en el desarrollo tecnológico en beneficio de todos, y a la vez, supone enormes riesgos y desafíos para la protección de las personas, de ahí que, tiene por finalidad proteger principalmente: la salud, la seguridad y los derechos fundamentales.   Por lo que este reglamento establece un marco de gobernanza orientado a mitigar los riesgos asociados a los sistemas de IA, con especial atención a las personas en situación de vulnerabilidad. La protección de menores, migrantes, personas con discapacidad o individuos socialmente excluidos se encuentra implícita en varias disposiciones del texto legal. No obstante, la experiencia demuestra que la mera existencia de un marco normativo no es garantía suficiente de justicia ni de protección real, particularmente en contextos complejos como el de la devolución de menores migrantes, donde convergen factores políticos, tecnológicos y éticos. Desde una perspectiva bioética y humanista, ampliamente compartida en los marcos regulatorios europeos, la centralidad de la persona —especialmente del más vulnerable— debe ser un principio rector del diseño, implementación y evaluación de sistemas de IA. Este enfoque coincide con una tradición espiritual profundamente arraigada en la cultura occidental: la enseñanza de Jesús de Nazaret, quien colocó en el centro de su mensaje a los pobres, a los marginados, y a los “pequeños” del mundo. Si revisamos este pasaje bíblico Mateo (25:40) 1 , nos damos cuenta de que esta declaración no solo refleja una ética de la compasión, sino también un principio operativo de inclusión: las acciones políticas o tecnológicas deben ser evaluadas en función de su impacto en los más vulnerables. Este enfoque teológico es coherente con el principio de “non-maleficencia” y el de “justicia distributiva” en bioética, y debería estar explícitamente incorporado en el diseño de políticas públicas como el AI Act . La gestión migratoria en Europa enfrenta retos crecientes, especialmente en lo que respecta a la protección de menores no acompañados. En mayo de 2021, durante la crisis en la frontera de Ceuta, España repatrió decenas de niños migrantes sin aplicar evaluaciones individualizadas ni garantizar el cumplimiento del interés superior del menor. Estos hechos, posteriormente declarados ilegales por el Tribunal Supremo, revelaron las debilidades institucionales para garantizar derechos fundamentales en situaciones de presión política y operativa. En paralelo, la Unión Europea ha avanzado con la creación del AI Act , el primer marco legal integral que regula el uso de la inteligencia artificial según niveles de riesgo para el ser humano, así, principalmente, para la salud, la seguridad y los derechos fundamentales. Este reglamento busca evitar abusos, garantizar derechos y fomentar un uso responsable de las tecnologías emergentes en sectores críticos, incluida la gestión fronteriza. Sin embargo, un análisis transversal de la normativa sugiere la conveniencia de reforzar el artículo 9 del AI Act  (relativo a la gestión de riesgos en relación con los sistemas de alto riesgo) con una cláusula que exija una evaluación diferenciada del impacto sobre personas vulnerables, incluyendo la participación efectiva de estas comunidades en los procesos de evaluación ética (¡Atención! En el apartado 9 del artículo 9 se hace alusión a que los proveedores “prestarán especial atención a si, en vista de su finalidad prevista, es probable que el sistema de IA de alto riesgo afecte negativamente a las personas menores de dieciocho años y, en su caso, a otros colectivos vulnerables”. Esta participación sería una expresión práctica del principio de equidad. La inclusión no debe ser entendida como un resultado deseado, sino como una condición estructural del proceso. En este contexto, surge una pregunta clave: ¿puede la inteligencia artificial convertirse en una herramienta para proteger, y no vulnerar, los derechos de los menores migrantes? . Este artículo propone una lectura crítica y propositiva del AI Act , desde la perspectiva de la protección de menores migrantes en contextos de alta vulnerabilidad: demostrar que, si se aplica con un enfoque ético y legal, la IA puede fortalecer los procesos migratorios, reducir errores humanos y actuar como una barrera preventiva frente a decisiones arbitrarias o apresuradas. A través de un modelo conceptual inspirado en el AI Act y principios de derechos humanos, exploramos cómo tecnologías como la identificación biométrica supervisada, la evaluación algorítmica de riesgos individuales y los sistemas de trazabilidad pueden integrarse en los protocolos migratorios para asegurar que los derechos de la infancia sean siempre respetados. 1  Evangelio según Mateo (25:35-40), Jesús declara: “ Porque tuve hambre, y me disteis de comer; tuve sed, y me disteis de beber […] En verdad os digo que en cuanto lo hicisteis a uno de estos mis hermanos más pequeños, a mí lo hicisteis”. Jesús no solo ratifica estas enseñanzas humanitarias, son que las trasciende y radicaliza al introducir una ética basada no el cumplimiento de leyes, sino en el amor incondicional, situándolo como principio fundamental de la vida moral. La crisis de Ceuta y la vulneración de derechos Entre el 17 y el 19 de mayo de 2021, más de 8.000 personas cruzaron la frontera hacia Ceuta tras la relajación del control fronterizo por parte de Marruecos 1 . De ellas, aproximadamente 1.500 eran menores no acompañados. En agosto, el Ministerio del Interior español, bajo presión política y diplomática, procedió a devolver a 55 de estos menores a Marruecos sin una evaluación individualizada de sus casos, en clara contradicción con la Ley de Extranjería, la Convención sobre los Derechos del Niño y el principio del interés superior del menor. A pesar de la existencia de un acuerdo bilateral con Marruecos (2007), ninguna disposición legal puede justificar una repatriación que no garantice que el menor será protegido en su país de origen ni que haya sido escuchado adecuadamente. Las actuaciones y decisiones humanas fueron objeto de duras críticas y finalmente, la sentencia del Tribunal Supremo de 22 de enero de 2024 (Sala Tercera) dejó claro que se trató de una actuación ilegal y desprovista de garantías.  El AI Act , clasifica los sistemas de inteligencia artificial en función de su nivel de riesgo 2 . Los sistemas utilizados en contextos migratorios —como los de evaluación de riesgos o reconocimiento biométrico— están clasificados como “de alto riesgo”, lo que exige: Evaluaciones de impacto en derechos fundamentales. Transparencia algorítmica. Supervisión humana constante. Registro y trazabilidad de decisiones automatizadas. Aunque el AI Act  no obliga a utilizar IA, sí establece un marco riguroso para su uso ético y seguro. Este reglamento puede servir como palanca para exigir que las decisiones administrativas que afecten a menores estén respaldadas por sistemas auditables, objetivos y trazables. 2  Clasificación RIA: (63) «Modelo de IA de uso general: un modelo de IA, también uno entrenado con un gran volumen de datos utilizando auto supervisión a gran escala, que presenta un grado considerable de generalidad significativa y es capaz de realizar de manera competente una gran variedad de tareas distintas, independientemente de la manera en que el modelo se introduzca en el mercado, y que puede integrarse en diversos sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o creación de prototipos antes de su introducción en el mercado».  (66) «Sistema de IA de uso general: un sistema de IA basado en un modelo de IA de uso general y que puede servir a diversos fines, tanto para su uso directo como para su integración en otros sistemas de IA». Un modelo Ético de IA para Proteger a los Menores Se propone un modelo conceptual de aplicación ética de la IA en procesos migratorios que contemple cuatro fases clave: Identificación Segura Uso de tecnologías biométricas no invasivas para estimar la edad o verificar identidad, siempre con validación humana. Esto puede evitar errores como confundir menores con adultos. Relación con el Artículo 9 Identificación y análisis de riesgos (9.3.a) : El uso de tecnologías biométricas debe considerar riesgos como la  falsa clasificación de menores como adultos (sesgos en los datos de entrenamiento) , lo que puede vulnerar derechos fundamentales. Supervisión humana (9.6) : La validación humana obligatoria responde al principio de  mitigación de riesgos mediante intervención humana , especialmente en decisiones sensibles como la edad o identidad. Contexto de uso (9.7) : Se debe tener en cuenta que los menores migrantes pueden no tener documentos o estar en situaciones de estrés, lo que afecta la precisión de los sistemas.  Evaluación Individual Automatizada Sistemas de IA pueden organizar y cruzar datos para priorizar casos vulnerables. Algoritmos entrenados con criterios éticos pueden ayudar a identificar riesgos de explotación, trata o abandono. Relación con el Artículo 9: Evaluación de riesgos previsibles (9.3.b) : Los algoritmos deben prever el riesgo de  discriminación algorítmica  o sesgos que invisibilicen casos de vulnerabilidad. Diseño ético y mitigación (9.4 y 9.5) : El entrenamiento con criterios éticos y datos representativos es una medida estructural para reducir riesgos sistémicos. Riesgos residuales aceptables (9.6) : Solo si los riesgos no pueden eliminarse completamente, deben ser justificados y comunicados claramente a los operadores del sistema. Protección y Trazabilidad La IA puede gestionar con eficiencia la distribución de menores a servicios de acogida, asegurar su seguimiento, y generar alertas si no se cumple el protocolo legal. Relación con el Artículo 9: Gestión de riesgos durante todo el ciclo de vida (9.2) : La trazabilidad y seguimiento continuo permiten detectar fallos o incumplimientos en tiempo real. Medidas específicas (9.3.d) : Alertas automáticas ante desviaciones del protocolo son una forma activa de mitigación. Interacción entre requisitos (9.5) : La trazabilidad debe integrarse con otros requisitos como la transparencia (art. 13) y la supervisión humana. Repatriación Responsable En caso de retorno, un sistema puede verificar las condiciones del país de origen, la existencia de una red familiar segura y la legalidad de cada paso, dejando un rastro digital completo y auditable. Relación con el Artículo 9: Evaluación de riesgos adicionales (9.3.c) : Antes de repatriar, el sistema debe evaluar nuevos riesgos en el país de origen, como violencia o ausencia de red familiar. Aceptación de riesgos residuales (9.6) : La repatriación solo debe proceder si los riesgos han sido mitigados y se garantiza la legalidad y seguridad del proceso. Documentación y trazabilidad (9.6.c) : El rastro digital auditable es clave para garantizar la rendición de cuentas y la protección de derechos. Garantías Éticas y Límites Necesarios Todo sistema de IA aplicado en este contexto debe regirse por principios fundamentales: Proporcionalidad:  solo se justifica si mejora la protección del menor. Supervisión humana:  ninguna decisión debe ser completamente automatizada. Evitar sesgos:  los algoritmos deben ser entrenados y auditados regularmente para evitar discriminación. Acceso a recursos:  los menores y sus representantes deben poder recurrir cualquier decisión tomada con apoyo tecnológico. Conclusión                                                                  La crisis migratoria de Ceuta en 2021 dejó en evidencia una profunda falla institucional: la incapacidad de proteger adecuadamente a menores no acompañados frente a decisiones políticas apresuradas. El uso de inteligencia artificial, bien regulada y aplicada con criterios éticos pudo haber cambiado el curso de los acontecimientos.  El AI Act,  la nueva legislación europea sobre inteligencia artificial ofrece un marco sólido para garantizar que toda tecnología utilizada en frontera respete los derechos fundamentales, especialmente cuando se trata de niños. Desde sistemas biométricos con supervisión humana hasta algoritmos que alertan sobre riesgos de vulneración, la IA puede convertirse en aliada de la infancia si se diseña para proteger y no solo para controlar. Este artículo propone un modelo conceptual que integra tecnología, derecho y ética para evitar que errores como los de Ceuta se repitan. Porque proteger a los menores migrantes no es una opción: es una obligación legal, moral y humana.

  • El Valor Normativo de las Directrices Éticas en la Gobernanza de la IA Generativa

    Introducción La inteligencia artificial (IA) está transformando todos los ámbitos de nuestra sociedad, desde la salud y la educación hasta la justicia y la economía. En particular, la IA generativa, que puede crear textos, imágenes, música y muchas otras formas de contenido, ha abierto nuevas posibilidades pero también ha generado enormes desafíos éticos y sociales. Frente a estos desafíos, los gobiernos, organismos internacionales, instituciones académicas y empresas tecnológicas han desarrollado una serie de directrices éticas que pretenden orientar el desarrollo y uso responsable de la IA. Sin embargo, surge una pregunta crucial: ¿qué valor normativo tienen estas directrices? ¿Son simplemente recomendaciones, o realmente constituyen un marco de obligaciones éticas y legales que deben ser respetadas y promovidas? Esta ponencia  busca analizar el valor normativo de las directrices éticas, con foco en los principales marcos internacionales, en especial las directrices del Reglamento Europeo de IA (2019) y los principios promovidos por la OCDE, en un contexto de gobernanza global de la IA generativa. La naturaleza de las directrices éticas: ¿normas, recomendaciones o principios? 1.  es fundamental entender qué son exactamente estas directrices. Generalmente, las directrices éticas en IA funcionan en la categoría de principios rectores o normas de comportamiento. Su carácter legal, en muchos casos, es flexible, pero eso no implica que carezcan de peso o valor normativo.       2.2 Son obligatorias o voluntarias? En el caso del Reglamento Europeo de IA (2019), las directrices se enmarcan como obligaciones no vinculantes (soft law), aunque con fuerte impacto en la futura legislación y en la regulación sectorial. La OCDE y otros marcos internacionales emiten recomendaciones y principios que, si bien no son de cumplimiento obligatorio, ejercen un poder normativo mediante la influencia en políticas públicas, estándares técnicos y buenas prácticas. Este carácter dual —de recomendaciones que pueden convertirse en obligaciones— refuerza el valor normativo de estas directrices, ya sea como marco de referencia ético-legal o como compromiso político internacional. Valor normativo: una cuestión de legitimidad y obligatoriedad Lo que diferencia a las directrices éticas de las simples buenas intenciones es su capacidad de influir en el diseño, desarrollo y regulación de la IA. Estas directrices adquieren un valor normativo cuando: Son adoptadas formalmente por gobiernos o instituciones internacionales. Se convierten en referencia obligatoria en licitaciones, contratos o proyectos. Existen mecanismos de supervisión y sanción por incumplimiento. Por tanto, su valor normativo radica en su capacidad de establecer deberes y obligaciones en los actores que desarrollan y despliegan IA. El valor normativo de las directrices éticas en los principales marcos internacionales: 1. El Reglamento Europeo de IA (2019) El Considerando 27 del RIA, aunque no es una norma vinculante en sí misma, establece un** marco ético** que busca que los sistemas de IA sean responsables, transparentes y alineados con derechos fundamentales. La Comisión Europea ya ha avanzado en propuestas de regulación que hacen obligatorio el cumplimiento de ciertos principios, como la explicabilidad, la transparencia y el control humano. Este marco refleja un valor normativo que, en el futuro, puede convertirse en obligaciones legales obligatorias para todos los desarrolladores y usuarios en la Unión Europea, consolidando la ética en la ley. 2. La OCDE y su Marco de Principios sobre la IA (2019) La OCDE establece cuatro principios fundamentales: 1.Inclusión y equidad 2.Transparencia y explicabilidad 3.Seguridad y protección contra riesgos 4. Responsabilidad Estos principios, aunque inicialmente voluntarios, se han adoptado como referencia por más de 50 países y por organizaciones internacionales. La OCDE ha trabajado activamente para que estos principios se implementen en marcos regulatorios nacionales, de manera que su influencia transforma estos principios en obligaciones de facto. 3. Otros estándares internacionales: Directrices de la Comisión Europea para la IA Confiable (2020): Estas directrices refuerzan la naturaleza normativa de los principios éticos mediante requisitos específicos que las organizaciones deben cumplir, como la gobernanza de los datos, la evaluación de riesgos y la supervisión humana. La adopción de estas directrices en el sector privado y público otorga un fuerte valor normativo que puede traducirse en regulaciones vinculantes en el futuro cercanoLa Declaración de la UNESCO sobre la Ética de la IA (2021): Un marco normativo global Contexto y objetivos La UNESCO, como organismo de las Naciones Unidas dedicado a la ciencia y la cultura, reconoce que la inteligencia artificial tiene un potencial transformador, pero también plantea riesgos significativos si no se regula de manera adecuada. La Declaración busca promover una gobernanza ética de la IA que sea universal, inclusiva y respetuosa de los derechos humanos, fortaleciendo la cooperación internacional. La Declaración establece temas clave y principios que deben guiar el desarrollo y la implementación de la IA, entre ellos: -Beneficencia y no maleficencia: La IA debe promover el bienestar, reducir riesgos y evitar daños. -Justicia y equidad: Asegurar que los beneficios de la IA se distribuyan de manera equitativa, evitando sesgos discriminatorios. -Respeto por la dignidad y los derechos humanos: La IA debe respetar derechos fundamentales, incluyendo la privacidad, la libertad y la igualdad. -Responsabilidad y rendición de cuentas: Los desarrolladores, usuarios y responsables deben rendir cuentas por los efectos y decisiones de la IA. -Transparencia y explicabilidad: La tecnología debe ser comprensible y explicable para todos los actores involucrados. Inclusión y participación: Implicar a todos los sectores de la sociedad en la formulación de políticas sobre IA para garantizar que se reflejen diversas voces y necesidades. -Valor normativo y su relación con otros marcos -La principal contribución de la Declaración de la UNESCO es su carácter universal y moral, ya que establece principios éticos que deben guiar la acción de todos los países. Esto aporta un valor normativo global, que, aunque no tiene fuerza jurídica vinculante, establece un pacto ético internacional. En relación con la OCDE y el Reglamento Europeo, la Declaración complementa y refuerza estos marcos: -Similitudes: Todos enfatizan la importancia de la transparencia, responsabilidad, equidad y el respeto a los derechos humanos. -Diferencias: La Declaración incluye aspectos culturales, sociales y éticos más amplios, promoviendo el necesario diálogo intercultural y participación ciudadana en la gobernanza de la IA. Un ejemplo relevante es la referencia que hacen algunas políticas nacionales y organizaciones internacionales a la Declaración como marco ético de referencia para diseñar regulaciones nacionales que sean coherentes con los principios internacionales. Por ejemplo, países como Canadá, Francia y Argentina han mencionado que alinearán sus políticas con los principios de la Declaración de la UNESCO en sus marcos regulatorios. La Declaración sobre la Ética de la IA de la UNESCO (2021) cumple una función crucial en el escenario global, puesto que: Establece valores universales que orientan el desarrollo de la IA hacia el bien común. Potencia la cooperación internacional y la armonización de principios éticos en distintos marcos regulatorios. Refuerza el valor normativo de las directrices éticas, aún cuando no sea jurídicamente vinculante, en tanto que fomenta una responsabilidad compartida de todos los actores sociales, políticos, académicos y económicos. Para futuros profesionales del derecho, la tecnología y la gobernanza, entender y promover estos principios ayudará a construir una regulación ética y efectiva, que garantice que la IA sirva a los valores humanos y sociales, en línea con los desafíos y oportunidades de la era digital. Principios de la AAAS (2019): La American Association for the Advancement of Science promovió principios relacionados con la beneficencia, justicia, autonomía y responsabilidad, orientados a fortalecer la confianza pública en la IA. Aunque de carácter moral, estos principios se convierten en un referente necesario para el diseño de políticas públicas y normativas nacionales. La fuerza del valor normativo: de recomendaciones a obligaciones La transición de la ética recomendada a la normativa obligatoria es una tendencia clara en la gobernanza internacional de la IA. Como abogados, académicos y responsables en innovación, debemos comprender las implicancias de este proceso: legitimidad y confianza: Las directrices éticas se tornan obligatorias en la medida en que son aceptadas, monetizadas en políticas públicas y adoptadas por actores económicos y sociales. Mecanismos de cumplimiento: La existencia de auditorías, certificaciones y supervisión pública refuerzan su carácter vinculante. Innovación responsable: La incorporación temprana de los principios en el diseño del sistema de IA favorece la innovación sostenible, fomentando la confianza y promoviendo la aceptación social. Ejemplo de éxito: La regulación del sector financiero en la UE, que obliga la transparencia en algoritmos de crédito y mecanismos de responsabilidad, muestra cómo los principios éticos pueden formalizarse en un marco legal efectivo que fomenta la innovación segura. La IA generativa, por sus características de autonomía y creatividad, plantea desafíos éticos y jurídicos específicos, como la responsabilidad por contenido generado, derechos de autor, sesgos en datos, y riesgos de desinformación. Para establecer los límites ético-legales en la creación y uso de contenido generado automáticamente. Para definir responsabilidades claras en casos de daños o uso indebido. Para promover prácticas que aseguren transparencia y explicabilidad en estos sistemas. El éxito en la gobernanza de la IA generativa dependerá, en buena medida, de cómo las directrices éticas se conviertan en principios obligatorios y sean operacionalizadas en regulaciones y estándares técnicos. A pesar de los avances, existen desafíos importantes para consolidar el valor normativo de las directrices éticas: -Globalización: La multiplicidad de marcos reguladores puede generar incoherencias, por lo que la cooperación internacional es clave. -Tecnologías emergentes: La rápida innovación en IA requiere que las directrices sean revisadas periódicamente y adaptadas a nuevas realidades. -Cuestiones de cumplimiento: Es necesario fortalecer los mecanismos de supervisión, auditoría y sanción para dar peso legal a estas directrices. Es fundamental que académicos, legisladores y actores tecnológicos trabajen conjuntamente para convertir estos principios en un verdadero estándar de regulación y control que asegure el desarrollo responsable de la IA. Conclusión Las directrices éticas en IA, en particular aquellas promovidas por el Reglamento Europeo y la OCDE, poseen un enorme valor normativo. No solo actúan como principios rectores, sino que gradualmente están configurando un marco legal y regulatorio que obliga a los actores a actuar de manera responsable. En la era de la IA generativa, donde la innovación avanza a pasos agigantados, el valor normativo de estas directrices proporciona una base sólida para garantizar que la tecnología sirva al bien común, respetando los derechos humanos y promoviendo una sociedad más inclusiva, segura y justa. Para los jóvenes abogados, tecnólogos y académicos, comprender y promover la vigencia y estricta aplicación de estos principios no solo es un deber ético, sino la clave para construir un futuro en el que la IA genere valor real y sostenible. REFERENCIAS, Bibliografia. Reglamento (UE) 2019, RIA (Reglamento de IA) OCDE, Principios sobre IA (2019) Comisión Europea, Directrices para la IA confiable (2020) UNESCO, Declaración sobre la Ética de la IA (2021) ‎ Maria Gabriela Busellini Abogada. Poder judicial. Investigadora.

  • Uso de la Inteligencia Artificial de manera responsable en la gestión de RRHH

    Este estudio ha sido realizado por OdiseIA en el marco del proyecto Google cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Google Caire - OdiseIA . Este blog es una síntesis de la primera versión del entregable principal del subproyecto "Uso de la Inteligencia Artificial de manera responsable en la gestión de RRHH", cuyo informe definitivo estará disponible en 2025. ¿Qué es la Inteligencia Artificial responsable y por qué es necesaria en RRHH? La inteligencia artificial se ha convertido en una tecnología transformadora que marca un antes y un después en la gestión del capital humano. A diferencia de innovaciones tecnológicas anteriores, la IA representa un cambio paradigmático en cómo la tecnología interactúa y complementa las capacidades humanas en el entorno laboral. Una IA responsable en recursos humanos previene activamente impactos negativos éticos y sociales. No es la tecnología en sí misma la que es responsable o no, sino el uso que hacemos de ella. Un uso ético implica que el resultado fomenta el bien y evita el daño, yendo más allá del mero cumplimiento legal. La necesidad de una IA responsable se hace evidente cuando analizamos casos problemáticos documentados. Por ejemplo, el sistema de contratación de Amazon reveló cómo un sistema de IA discriminaba sistemáticamente candidaturas femeninas, aprendiendo a penalizar currículos que incluían referencias al género femenino. Este y otros casos demuestran que las consecuencias negativas pueden ocurrir por diversas razones: los sistemas aprenden de datos históricos con sesgos preexistentes, la precisión nunca alcanza el 100%, y los algoritmos modernos son estructuras complejas difícilmente interpretables. ¿Cómo se manifiesta la IA en la gestión del talento humano? La IA se manifiesta en diversos procesos de recursos humanos, generando impactos significativos en tres ámbitos principales: reclutamiento y selección, experiencia del empleado, y clima laboral. En el reclutamiento, los sistemas actuales utilizan algoritmos avanzados para analizar candidaturas y gestionar entrevistas. Unilever, por ejemplo, ha implementado un sistema de análisis de entrevistas que examina contenido verbal y no verbal, logrando reducir el tiempo de contratación en un 75%. Para la experiencia del empleado, IBM ha adoptado sistemas predictivos que identifican áreas de mejora y sugieren planes de formación personalizados, efectivos para reducir la rotación no deseada al proporcionar oportunidades de desarrollo más precisas y relevantes. En cuanto al clima laboral, la IA permite analizar patrones de comportamiento organizacional y detectar riesgos, aunque este ámbito presenta mayores desafíos en términos de precisión y consideraciones éticas. ¿Cuáles son los beneficios concretos de la IA en recursos humanos? La implementación de IA en RRHH está generando beneficios sustanciales en múltiples dimensiones. La evidencia empírica demuestra que una aplicación adecuada de estas tecnologías puede mejorar significativamente la eficiencia operativa y contribuir a crear entornos laborales más equitativos. Un estudio realizado por Deloitte en 2023 encontró que las organizaciones que han implementado soluciones de IA en sus procesos de RRHH han logrado reducir el tiempo dedicado a tareas administrativas en un 40%, permitiendo que sus equipos se centren en iniciativas estratégicas como el desarrollo de talento. En el ámbito de la selección de personal, los sistemas de IA bien diseñados pueden ayudar a reducir los sesgos inconscientes. Un estudio publicado en el Journal of Applied Psychology demostró que los sistemas de selección asistidos por IA pueden aumentar la diversidad en la contratación en hasta un 35% mientras mantienen o mejoran la calidad de las contrataciones. Casos como el de PepsiCo, que implementó un sistema de IA para la gestión integral del talento, muestran resultados notables: la tasa de promoción interna aumentó en un 30% en el primer año, la satisfacción de los empleados con su desarrollo profesional se incrementó en un 45%, y la diversidad en posiciones de liderazgo creció un 28%. ¿Qué riesgos plantea la IA en la gestión del capital humano? Una consulta pública realizada por la Comisión Europea en 2020 arrojó datos reveladores: el 90% de los encuestados expresó preocupación sobre la capacidad de la IA para atentar contra los derechos fundamentales, el 87% manifestó temores sobre resultados discriminatorios, el 78% alertó sobre la opacidad en la toma de decisiones, y el 70% cuestionó la precisión de estos sistemas. Estos riesgos no son meramente teóricos. El caso de Amazon en 2015 se ha convertido en un ejemplo paradigmático de cómo los sesgos pueden infiltrarse en los sistemas. La compañía desarrolló una herramienta de IA para automatizar la selección de candidatos, pero el sistema comenzó a mostrar un sesgo sistemático contra las mujeres candidatas. En 2022, una empresa de servicios financieros implementó un sistema de monitorización basado en IA para evaluar la productividad de empleados remotos, provocando estrés significativo en los trabajadores y llevando a despidos basados únicamente en métricas automatizadas, sin considerar factores contextuales. ¿Cómo regula Europa los sistemas de IA en recursos humanos? El Reglamento Europeo de Inteligencia Artificial reconoce la naturaleza crítica de estos sistemas al categorizarlos como "de alto riesgo", una clasificación que responde al impacto profundo que pueden tener en la vida profesional y el bienestar de las personas. El Anexo III del Reglamento identifica con precisión los escenarios en el ámbito laboral que requieren atención especial: procesos de selección y contratación, sistemas utilizados en evaluación y promoción profesional, y sistemas de monitoreo y evaluación de trabajadores. Para garantizar una implementación responsable, el Reglamento establece un marco integral de requisitos específicos. Se requiere supervisión humana significativa en decisiones críticas, documentación detallada de sistemas y procesos, evaluación y gestión continua de riesgos, transparencia hacia los afectados, así como robustez y precisión demostrable en los sistemas implementados. ¿Qué principios éticos deben guiar la implementación de IA en recursos humanos? Los principios éticos que deben guiar el desarrollo e implementación de la inteligencia artificial en la gestión del talento emergen de diversas fuentes normativas y recomendaciones internacionales. La aplicación en el ámbito laboral resulta especialmente crítica por su impacto directo en las oportunidades y el desarrollo profesional de las personas. Un framework de principios éticos incluye aspectos como la privacidad y gobierno de datos, donde los sistemas procesan información especialmente sensible sobre capacidades, desempeño y desarrollo profesional, por lo que se requiere un estricto control y protección. También es fundamental la seguridad y protección, entendida desde la seguridad en el funcionamiento interno de soluciones IA y su capacidad para resistir ante amenazas externas. La transparencia y explicabilidad son esenciales para que las personas afectadas puedan comprender cómo y por qué se toman determinadas decisiones que afectan su vida laboral. La justicia en los sistemas debe evitar sesgos y promover la inclusión y diversidad, garantizando un trato equitativo, mientras que el control y vigilancia humana asegura que exista supervisión significativa en el proceso de toma de decisiones automatizadas. Adicionalmente, los sistemas deben promover valores y derechos humanos, dirigiendo el desarrollo y uso de la IA al beneficio y bienestar de la sociedad, sin olvidar la sostenibilidad ambiental para que las infraestructuras creadas economicen recursos energéticos. ¿Cómo difieren la adopción de IA entre empresas públicas y privadas? La implementación de IA en RRHH presenta patrones diferenciados pero complementarios entre sectores. Las empresas privadas tienden a adoptar estas tecnologías con mayor rapidez, beneficiándose de su flexibilidad organizativa y capacidad de inversión, mientras que las entidades públicas siguen un proceso más estructurado, condicionado por marcos regulatorios específicos. Mientras las organizaciones privadas han capitalizado la tecnología para optimizar indicadores de rendimiento económico y eficiencia operativa, el sector público ha orientado estas herramientas hacia la materialización de principios como la igualdad de acceso y la transparencia administrativa. Esta divergencia refleja diferencias en sus estructuras de incentivos, marcos regulatorios y compromisos sociales, aunque ambos sectores convergen en la necesidad de equilibrar innovación tecnológica con responsabilidad ética en la gestión del talento. ¿Qué recomendaciones existen para una implementación responsable de IA en recursos humanos? Las conclusiones de especialistas en la aplicación ética y responsable de IA en recursos humanos señalan las ventajas que supone contemplar principios de transparencia y justicia, con la consiguiente creación de entornos de trabajo más positivos y trabajadores más involucrados. Se destaca la importancia de mantener la interacción humana como elemento clave para garantizar relaciones laborales que solo los humanos pueden proporcionar. Nuestra capacidad para entender matices en asuntos sensibles que afectan al bienestar en el lugar de trabajo sigue siendo insustituible. La IA debe ser comprendida como un soporte o una ayuda, no como un sustituto cuando se requiere tomar decisiones informadas en el contexto de la gestión de personas. Los beneficios de estas tecnologías se materializan de manera más efectiva cuando forman parte de una estrategia integral que considera tanto los aspectos técnicos como los humanos. La experiencia acumulada hasta ahora sugiere que estamos apenas comenzando a comprender el potencial transformador de la IA en recursos humanos. A medida que la tecnología continúa evolucionando y las organizaciones adquieren más experiencia en su implementación, es probable que emerjan nuevas aplicaciones y beneficios. Lo fundamental será mantener un enfoque centrado en el ser humano, donde la tecnología sirva para potenciar, no para reemplazar, las capacidades humanas que hacen únicas a las organizaciones. Autores del entregable: Juan Manuel Belloto, Rafael González, Guillermo Hidalgo, Borja Llonín y Enrique Martín Realizado en el marco del proyecto Google Caire por OdiseIA. Versión definitiva disponible en 2025.

  • ¿Sobre qué ovejas eléctricas está soñando la IAGen?: El Dilema de la Propiedad Intelectual

    Por Frank Escandell El segundo día del evento EmTech AI 2025 de  MIT Technology Review  en las instalaciones del  MIT Media Lab , hubo una presentación que podría haber sido considerada como encore : dos expertos legales, mano a mano, discutiendo uno de los temas más controvertidos respecto a la disrupción de la IA: el dilema de los derechos de autor y la propiedad intelectual. Ellos eran  Tyler Chou , CEO de  Tyler Chou Law for Creators , y  Amir Ghavi , Socio en el bufete de abogados  Paul Hastings . Como este autor tiene un gusto para esto, la ciencia ficción —esa brújula perenne para las ansiedades de la civilización sobre el cambio tecnológico— nunca se ha sentido más cercana al reportaje que hoy en día. En la era de la Inteligencia Artificial Generativa (IAGen), la realidad supera incluso las visiones más imaginativas. Si George Orwell escenificó los peligros de la vigilancia en "1984", y "Blade Runner" interrogó las fronteras entre lo auténtico y lo sintético, el debate actual sobre la propiedad intelectual nos sumerge en una tormenta legal, ética y creativa que ni el cine ni la novela se atrevieron a prever. Como tecnólogo dedicado a evitar a menudo la peroratoria locuacidad, pero eso sí a avanzar en la practicidad de la filosofía de la tecnociencia, propongo trazar un camino a través de este territorio traicionero pero emocionante—con el testimonio de los expertos, la propia provocación juiciosa y analogías dignas de un sueño febril de Philip K. Dick. La IAGen asombra con su facilidad para generar texto, música, imágenes y código—sin embargo, debajo de este torrente de creación yace una vasta fundación construida sobre el trabajo y la artesanía de creadores humanos. ¿Quién, entonces, posee estas nuevas manufacturas de producción digital? ¿Quién se beneficia, y a qué costo? La pregunta no es meramente "¿sobre qué ovejas eléctricas está soñando la IAGen?" sino si nuestra imaginación colectiva puede seguir siendo un activo común, o convertirse en un cercado para imperios corporativos. Conclusiones Principales: Pausa, Reflexiona, Reenmarca Cinco ideas principales que resumen este contenido (original): Entrenar la IAGen con obras protegidas por derechos de autor amenaza tanto los derechos como la remuneración justa de los creadores—un peligro que tanto Tyler Chou como Amir Ghavi reconocen como urgente. Los marcos legales existentes están mal preparados para abordar cuestiones de autoría y originalidad en el contexto de la IA—un raro punto de consenso entre estos expertos interlocutores mencionados anteriormente. El riesgo de daño al mercado y pérdida de medios de subsistencia para creadores humanos está destinado a dominar los debates legales y económicos futuros, como coinciden tanto juristas como tecnólogos. Ningún futuro viable reside en una defensa absoluta de la innovación tecnológica a expensas del trabajo creativo, ni en una resistencia total al progreso: el terreno a encontrar es necesariamente negociado y negociable. Los mecanismos de licencias y nuevos marcos están destinados a convertirse en los motores de una cultura digital equilibrada y sostenible—una posición respaldada tanto por fuerzas empíricas del mercado como por testimonio experto. Sombras del Gran Hermano: Vigilancia, Raspado y Poder Estructural Nuestro escenario en este asunto se lee como un remix no autorizado del "1984" de Orwell. Imagina cada novela, cada pintura, cada canción fugaz o garabato digital, predestinado a vivir como un punto de datos en un archivo secreto y automatizado. Los modelos de IAGen, con una voracidad sin precedentes en la historia tecnológica, ingieren o han ingerido efectivamente datos protegidos por derechos de autor a escala colosal, a menudo sin el permiso del creador. Tyler Chou, distinguida consejera para creadores digitales, es inequívoca: " El 90% de la propiedad intelectual ya ha sido usada para entrenamiento. Ha sido raspada (scrape). Ha sido robada de los creadores ." Incluso Amir Ghavi—arquitecto legal para grandes compañías tecnológicas—admite que la ley de derechos de autor, originalmente forjada durante la Ilustración, está espectacularmente mal adaptada a esta nueva época. Ambos expertos reconocen que los instrumentos legales actuales nunca fueron diseñados para regular una era en la que cada acto de creatividad—tuyo, mío, o del resto de la sociedad—podría ser absorbido sin detección en modelos algorítmicos. Juntos, hacen sonar la alarma: es impactante los obsoletas que están las reglas del juego. El Replicante Digital: Autoría y el Espejismo de la Originalidad Aquí la analogía se vuelve más enrevesada, recordando "Blade Runner", donde la memoria, identidad y autoría se difuminan. En la era de la IAGen, la producción supuestamente "original" es, de hecho, recombinante: un tapiz espectral tejido del ADN cultural de innumerables fuentes humanas. Tanto Chou como Ghavi reflexionan sobre este enigma. Si un modelo es entrenado con todo las creaciones artísticas del mundo, ¿quién, si alguien, debe ser llamado autor? Ghavi enfatiza la jurisprudencia de la transformación: si la creación de la IA reimagina fundamentalmente el original, puede calificar como un uso justo. Chou, por contraste (pero no contradicción), insiste en que la pregunta es menos sobre metamorfosis que sobre desplazamiento económico: cuando las producciones de la IAGen sumergen el mercado para trabajo humano, el resultado no es homenaje alguno sino una amenaza existencial a las profesiones creativas. Aquí, incluso los tribunales están inquietos—recientemente un juez federal en los Estados Unidos ha admitido  que, si la IAGen puede generar un libro "sustancialmente similar" al original, el mercado del autor puede ser "obliterado" o destruido. Laberintos Legales: El Futuro en Juicio La ley, la ciencia ficción más antigua, ahora es llamada a arbitrar realidades que habrían asombrado a sus fundadores. Emergen cuatro dilemas clave: Uso Justo : Como Ghavi afirma, la doctrina del uso justo es esencial para la creatividad y crítica, pero ¿hasta dónde puede estirarse para dar cobertura al análisis automatizado a escala planetaria? Chou argumenta—y los tribunales coinciden cada vez más—que los motivos comerciales y el desplazamiento generalizado socavan cualquier reclamo de que los usos de la IAGen son simplemente "transformativos." Autoría Humana : Ambos expertos destacan un cisma creciente. La protección de derechos de autor se basa legalmente en el trabajo creativo humano; las producciones sintéticas de la IAGen violan tanto la letra como el espíritu de esta tradición. Daño al Mercado : Aquí, el acuerdo de los expertos es inequívoco: si la IAGen destruye la base económica de las profesiones creativas, el sistema legal debe intervenir. Seguridad y Defensa : Ghavi denota una defensa emergente: el argumento de que el liderazgo global en IA supera y abarca todo. Sin embargo, incluso Chou, defendiendo firmemente los derechos de los creadores, reconoce la Realpolitik  subyacente a esta afirmación, advirtiendo que los gobiernos pueden intervenir para proteger la preeminencia tecnológica nacional a expensas de los intereses de los creadores. Futuros Post-Autoría: ¿Quién Crea y Quién Firma? Si "The Matrix" nos enseñó a desconfiar de lo simulado, la IAGen nos invita a dudar incluso de nuestras propias firmas. Sí, podrías potencialmente desconfiar de este artículo mismo, pero te aseguro que no hay razón para ello. Cuando le dices a una máquina: "Escribe un soneto como Shakespeare," y lo hace, ¿quién es el poeta—el que da la instrucción, el constructor del modelo, el corpus fantasmal de la obra de Shakespeare, o la máquina misma? Ni Ghavi ni Chou encuentran respuestas adecuadas en la ley actual. Emerge un régimen de "autoría por comité", cuyo estatus legal aún está indeterminado y cuya posición ética es repetidamente contestada. La Biblioteca de Todo: la IAGen y el Refrito Infinito Crucemos ahora el umbral ficticio hacia la "Biblioteca de Babel" de Jorge Luis Borges—una estructura laberíntica que contiene cada texto concebido alguna vez. En cierto sentido, un modelo de lenguaje grande (LLM) es tal biblioteca, y la IAGen su bibliotecario maestro. Para algunos, esto anuncia una democratización sin precedentes: todos pueden crear sinfonías, pinturas, manifiestos y juegos con sólo presionar un botón. Para otros (tanto Chou como Ghavi entre ellos), esta escala señala una especie de evento de extinción cultural, con los medios de subsistencia de los creadores profesionales arrasados por una inundación de obras derivadas. Las apuestas son inmediatas. Escritores en huelga, músicos agraviados y artistas asediados ahora confrontan un horizonte incierto, mientras el contenido generado por IA prolifera en progresión geométrica y amenaza los medios tradicionales de captura de valor. Más Allá del Monolito: Licencias como Estrategia de Supervivencia Aquí, en medio del tumulto competitivo, tanto Chou como Ghavi vislumbran una solución audaz—si no inevitable aún. Chou nota que $10 mil millones en acuerdos de licencias de IA ya han sido firmados, con la cifra proyectada a incrementarse rápidamente. Ghavi, siempre pragmático, reconoce que las fuerzas del mercado están impulsando a las compañías hacia licencias transparentes y robustas de contenido de alto valor. La lógica mutuamente reforzante es irresistible: los modelos de IA requieren entrada de alta calidad para minimizar errores; los creadores demandan recompensa justa por el uso de su trabajo. Tanto Chou como Ghavi—parte adversarios, parte aliados—reconocen que regímenes de licencias amplios y claros pueden ser el delicado rayo de esperanza en este cielo por lo demás tormentoso. Las prácticas transparentes de datos sirven no sólo a la justicia, sino al progreso tecnológico mismo. Trabajos de Creación Ghavi, con su candor característico, remarca el tema: el verdadero campo de batalla no es la propiedad intelectual, sino el trabajo. El desafío es la integración—cómo orientar mejor el progreso tecnológico para no eliminar el trabajo social, económico y cultural del cual es parasitario. Chou, firme en su defensa de los creadores, concuerda: reconocimiento, compensación y permiso deben sustentar cualquier futuro estable. Ambos rechazan los binarios distópicos de sus modelos literarios y cinematográficos. El camino hacia adelante, sugieren, debe ser uno de negociación—una tregua permanente y evolutiva entre el ingenio humano y la augmentación mediante máquinas. Una Solución Win-Win: Hacia un Futuro Equilibrado Basándose en este raro consenso entre expertos, emerge el esquema de una solución win-win: Licencias Integrales : Acuerdos de licencias a nivel de industria, negociados por colectivos de creadores y firmas de IA, aseguran que aquellos cuyas obras alimentan la IAGen sean compensados proporcionalmente a su contribución. Transparencia de Datos : Cada conjunto de datos es auditable, con la clara atribución respecto a derechos, orígenes y permisos—empoderando tanto a creadores como a desarrolladores de modelos. Participación Colectiva : Los creadores, a través de sindicatos o cooperativas, se sientan a la mesa para establecer términos, hacer cumplir la conformidad y compartir en las ganancias de la nueva economía de la IA. Reforma Legal Adaptativa : Legisladores y tribunales recalibran las doctrinas de autoría, originalidad y daño al mercado—reconociendo formas híbridas de creatividad y remuneración. Coordinación Internacional : En lugar de una carrera ruinosa hacia la desregulación, las jurisdicciones líderes colaboran en estándares básicos equilibrando innovación con sostenibilidad creativa. Tal pacto, forjado en los fuegos de la controversia presente, podría generar un renacimiento digital tan audaz como cualquiera imaginado por la ciencia ficción. En tal mundo, tanto inteligencias humanas como artificiales encontrarían espacio—no para dominación o desplazamiento, sino para coexistencia creativa. Qué inmenso privilegio haber presenciado este encuentro entre Chou y Ghavi. Así como el canon de ciencia ficción siempre nos ha instado, la pregunta no es si la tecnología prevalecerá, sino si la justicia, el ingenio y la esperanza darán forma a los términos de su victoria.

bottom of page