top of page

Search Results

182 resultados encontrados

Productos (24)

Ver todas

Eventos (34)

Ver todas

Entradas del blog (101)

  • Bootstrapping, perspectiva y revolución cognitiva: la trinchera real de la IA europea

    Por Alexandra Díaz, fundadora de Woowii. Un contexto necesario: El reto del talento invisible  Si bien cada vez hablamos más de IA responsable, talento diverso y empleo inclusivo, la realidad del ecosistema europeo es que sigue dejando fuera a muchas personas cuya trayectoria no encaja en los moldes tradicionales: seniors, mujeres, migrantes, jóvenes “sin etiquetas”, personas con discapacidad o personas que deciden cambiar de sector en la mitad de su carrera laboral y emprender. Esa fue la motivación que llevó a Woowii  a presentarse al Hackathon AI4Good 2025 organizado por OdiseIA. El reto estaba claro: ¿cómo crear un sistema de IA que entienda a las personas más allá de un currículo o un prompt, y que pueda ayudar a revelar el potencial de quienes hoy son sistemáticamente invisibilizados en los procesos de selección? Un origen poco habitual en el ecosistema de las deeptech Woowii no nació en el confort de un despacho, de una ronda de Family, Friends and Fools (categoría de inversión en fases iniciales), ni en un laboratorio bien financiado. Su origen es una herida compartida: mobbing, edadismo, listas negras, burnout y multitud de puertas cerradas al talento diverso. Como fundadora de Woowii, con décadas de experiencia llevando al éxito a empresas en sectores diversos a nivel mundial, decidí desafiar el algoritmo social y técnico que perpetúa ese sesgo y construir desde cero, una IA ética que ve a las personas completas, no solo una serie de palabras clave en sus currículos. En un ecosistema europeo que reivindica la ética, la soberanía tecnológica y el cumplimiento del AI Act, la realidad del emprendimiento deeptech  sigue mostrando brechas importantes. La inversión temprana suele inclinarse hacia soluciones basadas en wrappers  de modelos fundacionales (rápidas de prototipar y alineadas con el hype, con buzzwords  y en muchos casos, con MVPs inflados), frente a tecnologías genuinas, propias, auditables y diferenciales, que requieren más tiempo, más validación y mayor esfuerzo científico, pero que proporcionan mayores beneficios a medio-largo plazo y que son seguras y confiables.  Esta dinámica no afecta a todos por igual. Numerosos estudios sobre inversión tecnológica en Europa, señalan que los proyectos liderados por mujeres o por equipos que innovan fuera de los patrones de éxito más reconocibles, afrontan ciclos de evaluación más exigentes y mayores barreras de entrada. En resumen, si eres mujer, innovas a contracorriente y no tienes el “status” de unicornio, lo tienes muy difícil. En este contexto, avanzar en tecnología auditable, soberana y con impacto social real suele implicar un bootstrapping extremo , que obliga a los equipos a sostener la innovación y la resiliencia en condiciones que ponen a prueba tanto el ritmo de desarrollo como el bienestar de quienes la impulsamos. La propuesta de Woowii: reescribiendo el significado de IA aplicada al talento Frente al hype de la IA generativa y los chatbots desechables, Woowii  apuesta por lo radical: una arquitectura neuro-simbólica propia (INSA-W™). Mientras más del 90 % de proyectos HRTech en Europa son wrappers de LLM (dependientes de OpenAI, Google o Anthropic, con sesgos y opacidad por defecto), Woowii construye una base completamente nueva: Datos soberanos y humanos:  historias reales, assessments y competencias transversales, sin depender de texto plano, datos extraídos (escrapeados) de LinkedIn, Infojobs o perfiles automatizados. Ontología evolutiva:  un grafo semántico propietario alimentado por interacciones genuinas, centrado en valor, propósito y cultura. Matching cognitivo:  Woowii no predice probabilísticamente; comprende, razona sobre significados y se ajusta en tiempo real con cada interacción. Esto nos permitirá mejorar radicalmente el fit cultural, disminuir la rotación y dar visibilidad al talento invisible: mujeres, seniors, jóvenes sin “etiqueta”, migrantes, personas con discapacidad o con condiciones crónicas. Validación y meritocracia reales:  badges, reputación trazable, gamificación y evaluación bidireccional. Cada logro, sea badges, historias validadas, roleplays o tests técnicos, es un activo científico y social, no solo una línea en un algoritmo. Un futuro más allá del hype: hacia una revolución cognitiva europea Woowii  propone lo siguiente: ser el antibiótico frente a la fiebre de wrappers y automatismos sin alma. A medida que grandes proveedores consideren desplegar sus propios portales de empleo y servicios verticales, muchas startups de HR basadas exclusivamente en modelos de LLM de terceros afrontarán dificultades reales para diferenciarse y sostener su propuesta de valor. Nuestro objetivo es anticipar ese escenario estando listos por diseño y así contribuir a una IA europea más robusta y autónoma. ¿Por qué Woowii sobrevivirá (y lo liderará)? Tecnología propia e inmune:  arquitectura que “aprende a aprender”, 10x más barata de entrenar y sin gasto excesivo de GPU, con criterio semántico y capacidad de expandirse a cualquier sector. Fit cultural, reputacional y circular:  el matching abandona la estadística ciega y se transforma en razonamiento sobre valores, propósito y dinámica organizacional. El sistema de Woowii aprende de sus errores, crea un gemelo cognitivo de cada usuario, que evoluciona con cada paso. Infraestructura social y económica:  Europa no necesita más plataformas. Necesita sistemas que permitan validar competencias, analizar datos de manera científica, integrar talento vulnerable y orientar políticas públicas de empleabilidad, diversidad e inclusión. ¿Cómo se logra esto sin capital? La incoherencia del sistema Construir una IA neuro-simbólica, con infraestructura y datos propios, validación real, soporte a colectivos vulnerables y trazabilidad alineada con el AI Act, con cero inversión externa, ¡es prácticamente imposible y muy lento! Eso es una hazaña de ciencia ficción. Y también resulta insostenible si Europa realmente quiere alcanzar la soberanía tecnológica que pretende.  El bootstrapping extremo: Penaliza la velocidad, la salud y la capacidad de iterar rápido de los equipos pequeños. Hace del acceso a corporates y de la validación una carrera de fondo desigual (“el vuelve en seis meses” puede matar al mejor deeptech  de impacto). Expone el sesgo sistémico: si eres mujer, innovas en sistemas calificados regulatoriamente como de alto riesgo y estás fuera del radar de los fondos, la doble (o cuádruple) validación es la norma. El mayor reto en nuestro  caso no es solo el acceso a capital, es también para la validación del mercado, tener acceso real a pruebas piloto grandes y datos públicos para no solo crecer y sobrevivir, sino sobre todo poder escalar una tecnología realmente  transformadora y con impacto. El “wow” técnico y el FOMO institucional INSA-W™ , nuestro motor, no genera texto ni filtra currículos. Entiende narrativa, propósito, liderazgo, habilidades, soft y hard skills y las representa en grafos con semántica propia, auditables, alineados con la ética europea. Seremos capaces de: Razonar sobre qué hace única a una persona, una historia o una cultura en tiempo real. Ofrecer a empresas, instituciones y gobiernos dashboards  de inteligencia simbólica: desde el índice de inclusión real hasta el mapeo de sesgos o el impacto de la diversidad. Certificar el camino profesional de colectivos vulnerables y ayudar a las empresas a cumplir y potenciar sus cuotas legales de integración, validando el fit e impulsando la rentabilidad y el propósito social. Nuestro motor permite hacer realidad un futuro laboral en el que la historia, retos personales y potencial de la persona no desaparecen a golpe de filtro de currículo, sino que se convierten en ventaja y puente para dejar de ser invisible . Donde los algoritmos no sólo detectan, sino que comprenden la diferencia y el “ match ” es una ciencia ética y dinámica, no una lotería. ¿Por qué Woowii es la verdadera innovación? Woowii  no compite por repetir, sino por crear criterio. Mientras otros automatizan y amplifican lo que ya está roto, Woowii redefine cómo se mide, se entiende y se relaciona el talento humano. Desde la trinchera, sin recursos, hemos demostrado que el mercado quiere profundidad y verdad, no humo ni anuncios vacíos. Somos el Google Maps del empleo con cerebro y corazón. La primera infraestructura cognitiva auditable para el trabajo europeo. Un FOMO para el ecosistema europeo Si Woowii  hubiera nacido en Silicon Valley, estaría sobrecapitalizada. Si fuéramos un wrapper, abundarían las subvenciones, la visibilidad y el entusiasmo que suelen acompañar a las soluciones de moda. Pero nuestra disrupción nace de otro lugar: de nuestro dolor, de vivencias reales de exclusión laboral, de la necesidad de justicia algorítmica y social de la convicción de que el talento invisible, merece ser reconocido y puesto en valor. Y eso, aunque transformador, no siempre coincide con lo que el mercado denomina “sexy” o inmediatamente rentable.Europa está ante una oportunidad histórica: apostar por deeptech  creado por quienes han quedado fuera de los circuitos tradicionales, por tecnologías que no solo automatizan, sino que comprenden; que no reproducen sesgos, sino que los desactivan, que no buscan volumen, sino impacto real. Eso requiere más que discursos de política pública. Exige inversión temprana, pilotos reales, acceso a datos del sector público de calidad y mecanismos de validación que midan efectos en empleabilidad, inclusión, diversidad y competitividad, no solo la estética de una presentación. Un reto para quienes desean anticipar el futuro del trabajo. Woowii  ya existe. La pregunta es si serás tú, tu organización o tu fondo quien quiera anticiparse y formar parte de este cambio, o si permitiremos que Europa siga apostando por lo superficial mientras deja pasar la oportunidad de crear la infraestructura europea que de verdad hace falta. Si has llegado hasta aquí, quizás este sea tu “ wow moment ”: ese instante que necesitabas para solicitar más información, para conectar con nosotros o para apostar por la siguiente generación de IA europea: la que entiende, cuida y transforma a las personas y devuelve la esperanza a todo ese colectivo invisibilizado por el sistema . La era de la Cognición  empieza hoy. Y esta vez no será liderada por los de siempre. Te invitamos a elegir de qué forma quieres acompañarnos 🫶 alex@woowiihr.com

  • Conferencia magistral de Daron Acemoğlu - Premio Nobel de Economía 2024 - “El progreso en un punto de inflexión: Tecnología, poder y los desafíos globales”

    Autor: Dolores Abuin, en colaboración con los miembros del grupo del Proyecto cAIre-Google.org , Ricardo Palomo (Coordinador), Jorge Cerqueiro, Frank Escandell y José Javier Sesma.   Este artículo ha sido realizado por OdiseIA en el marco del proyecto Google cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Google Caire - OdiseIA Aprovechando la ponencia del profesor Daron Acemoglu durante la celebración del Vigo Global Summit 2025 , hemos tenido la oportunidad única de atender el evento y de establecer una productiva comparativa con nuestro trabajo ya publicado en la web del Proyecto cAIre, dentro de Google.org   Digital Futures Project . Como profesor en el MIT Sloan School of Economics, el análisis de Acemoglu nos permite establecer puntos de convergencia significativos con nuestras conclusiones del subproyecto 2.1 "Profesiones del Futuro: Nuevas Oportunidades y Requerimientos”, a la vez que introduce una divergencia fundamental en el diagnóstico de la transformación laboral. Puntos de convergencia La primera convergencia es la visión dual. Acemoglu articula la encrucijada entre el camino de Alan Turing (reemplazo) y el de Norbert Wiener (aumento). Esto mismo recogimos en nuestro entregable en el apartado de la "Percepción dual: riesgos y oportunidades" que algunos expertos identificaron como el núcleo del debate. La segunda convergencia reside en las habilidades del futuro. La conclusión de Acemoglu se centra en "aprender a aprender". Esta idea se refuerza en nuestro estudio, tanto a través de las encuestas al público en general, como en las realizadas a los expertos, quienes identificaron el "pensamiento crítico" y la "adaptabilidad y aprendizaje continuo" como las habilidades más cruciales, por encima de las puramente técnicas, y algunos hicieron hincapié en el carácter ‘multitareas’ del profesional del futuro inmediato. Ambos análisis concluyen que el valor humano que se traduce en el mercado reside en las habilidades, no en la simple ejecución técnica. Y la tercera convergencia se refiere a la regulación. La advertencia de Acemoglu sobre el poder de las "Big Tech" y la necesidad de una elección "social y política" se alinea perfectamente con nuestro apartado sobre "Gobernanza, regulación y ética aplicada", que identificamos como una de las principales generadoras de nuevas profesiones. Muchos de los futuros perfiles profesionales que proponemos en nuestro estudio lidiarán con la rehumanización en el despliegue de estas tecnologías. El ‘Performed by Humans’ podría llegar a ser todo un nicho de mercado. Puntos de divergencia Aquí es donde la tesis de Acemoglu ofrece su mayor valor a nuestro trabajo.  Nuestro informe, basado en las opiniones de expertos y del público, concluye que el impacto de la IA es una "transformación inevitable" y se enfoca en las estrategias de adaptación (como el reskilling  o aprendizaje horizontal y la creación de nuevos roles).      Acemoglu desafía radicalmente esta premisa. Él argumenta que la trayectoria tecnológica actual (el camino de Turing) no es en absoluto inevitable, sino una elección. El problema no es la IA, sino que es su dirección. Mientras nuestro informe analiza el "impacto" de la IA, Acemoglu nos obliga a preguntar por qué la IA tiene ese impacto. Su diagnóstico de los tres obstáculos (concentración económica, ideología de Hollywood y geopolítica) sugiere que el reskilling  por sí solo es insuficiente si no se cambia la dirección de la innovación tecnológica.   La solución de Acemoglu es la "IA Pro-Trabajador" (el "electricista aumentado"). Nos ofrece una nueva visión del futuro laboral que completa nuestro informe. El listado de "nuevas profesiones" de nuestro entregable (como "Auditor de algoritmos", "Arquitecto de soluciones IA", "Curadores de datos") corre el riesgo de crear una nueva élite tecnológica. Acemoglu nos recuerda que la verdadera oportunidad no es solo crear nuevos roles técnicos, sino usar la IA para aumentar la productividad, el valor y el salario de millones de empleos existentes. 1. La llegada de la IA En su conferencia, el premio Nobel Daron Acemoglu presenta su tesis sobre el camino de la Inteligencia Artificial como una elección social, económica e ideológica. Es una elección que, según él, nos está llevando por la senda equivocada, con graves consecuencias para la desigualdad, la prosperidad compartida y la propia democracia. Turing contra Wiener Acemoglu sostiene que, desde sus inicios, la informática ha albergado dos filosofías opuestas sobre la relación entre humanos y máquinas. Alan Turing (la automatización). Ésta es la visión dominante hoy en día. Se basa en la idea de que la mente humana es una "máquina de computación", una visión también compartida por Marvin Minsky y John McCarthy, los impulsores de la Conferencia de Dartmouth en 1956. El objetivo, por tanto, es crear máquinas que imiten, compitan y, finalmente, reemplacen a los humanos en sus tareas. El éxito se podría medir por la paridad. ¿Puede la IA hacer el trabajo de un humano igual o mejor? Norbert Wiener (el aumento). La otra visión alternativa, se basa en que las máquinas deben ser herramientas que hagan cosas que los humanos no pueden hacer. Fue por esto que Wiener fundó la Cibernética, que es contrapuesta a la Inteligencia Artificial Simbólica. El objetivo no es reemplazar, sino aumentar y complementar la capacidad humana. El éxito se mide por la ampliación de nuestras habilidades (como lo hicieron el ratón,el hipertexto o la interfaz gráfica de usuario). La industria tecnológica, influenciada por factores muy diversos, ha apostado casi en su totalidad por el camino de Turing, generando lo que Acemoglu llama la "automatización descontrolada". 2. Las consecuencias sociales (desigualdad y crisis democrática) El resultado de elegir el camino de Turing es claro para Acemoglu. Nos llevará a un enorme aumento de la desigualdad. Esta brecha económica, argumenta, es el combustible directo de la crisis de la democracia que vemos hoy. Cuando la democracia no puede cumplir con su promesa de prosperidad, surgen el populismo, la desinformación y la pérdida de confianza en las instituciones. 3. La solución es la "IA Pro-Trabajador"  Acemoglu propone una alternativa, la "IA Pro-Trabajador". Su ejemplo clave no es un radiólogo, sino un electricista. Un electricista que acaba de comenzar a trabajar, no puede resolver problemas complejos que uno experimentado sí. La IA de "automatización" (Turing) intentará reemplazar a ambos. La "IA pro-trabajador" (Wiener) sería una herramienta (quizás en un dispositivo portátil) que proporciona al principiante información en tiempo real basada en datos, permitiéndole realizar tareas más sofisticadas y aprender en el proceso. Esta IA no reemplaza, sino que aumenta la productividad del trabajador. Es el "antídoto perfecto" a la desigualdad, porque un trabajador más productivo y capaz de nuevas tareas justifica un salario más alto. Es la verdadera promesa de la IA, no es una Inteligencia Artificial General (IAG) que nos reemplace, sino herramientas que dupliquen la productividad de médicos, enfermeros, profesores, fontaneros y obreros. 4. ¿Por qué no tenemos esta IA? Si la "IA Pro-Trabajador" es técnicamente más fácil y económicamente superior para la sociedad, ¿por qué no la vemos en todas partes?Acemoglu señala tres obstáculos que evitan la aparición directa de esa IA. El obstáculo económico (concentración). A diferencia de la esquematización efectuada por Amy Webb, profesora en NYU Stern School of Business, sobre la M.A.F.I.A.G. en Estados Unidos y la B.A.T. en China, para Acemoglu el mercado está dominado por seis o siete "Big Tech". El modelo de negocio de Meta o Microsoft no es "crear herramientas para electricistas en PYMES". Sus modelos se basan en la Inteligencia Artificial Generativa (IAGen), la venta de software a grandes corporaciones y la publicidad, lo que incentiva la automatización a gran escala. El obstáculo ideológico (Hollywood). Estamos culturalmente obsesionados con la idea de la IA que compite con los humanos ("robots que nos matan"), gracias a la ciencia ficción. Esta ideología atrae el talento y la financiación hacia el camino de Turing, en lugar del camino más "aburrido" pero útil de Wiener. Irónicamente, éste ha sido el mismo camino por el cual la industria del cine ya está claramente amenazada. El obstáculo geopolítico (arma política). La IA se ha convertido en una "arma política" en una carrera de "suma cero" contra China. La narrativa "quien domine la IA, dominará el mundo" justifica una inversión ilimitada en el camino de la automatización, beneficiando a las "Big Tech" que la promueven. El advenimiento del Proyecto Stargate por parte de la Administración Trump a inicios de 2025, siendo inicialmente una billonaria iniciativa propulsada por OpenAI, Softbank y Oracle, recibió un fugaz ataque comercial chino con la disrupción del modelo DeepSeek, poco después. La carrera por la supremacía de la IA no es un nuevo ‘Proyecto Manhattan' sino una nueva ‘Misión Apolo’. 5. Conclusión Acemoglu concluye con una seria advertencia sobre la educación. Acemoğlu critica que herramientas como ChatGPT fomentan la obtención de "respuestas de experto" sin el esfuerzo del proceso, lo que amenaza la habilidad más importante del futuro, "aprender a aprender". El futuro de la IA, por tanto, no debe dejarse en manos de pocas empresas que la controlan. El argumento de Daron Acemoglu es que la "profesión del futuro" no es un destino tecnológico que debamos predecir, sino una elección política, económica y social que debemos asumir activamente. El gran desafío no es técnico, sino que es cívico.

  • IA con propósito: cuando la innovación social se enfrenta a las estructuras

    Por Alicia Romero, Cenit Equipo Hackathon 2025: DiloClaro Estamos a las puertas de una era en la que las máquinas nos escuchan, nos responden y hasta nos traducen con una precisión que parecía imposible hace una década. Y, sin embargo, seguimos enfrentándonos a un documento administrativo como si fuera un texto cifrado. Asimov  soñó con leyes que protegieran a las personas de las máquinas; hoy las necesitamos para que nos protejan de nuestra propia complejidad. Pero también estamos en el momento más prometedor de todos: nunca habíamos tenido tanta tecnología al servicio de la empatía. Por primera vez, podemos usar la inteligencia artificial no solo para automatizar, sino para acercar.  Quienes hemos pasado buena parte de nuestra carrera acompañando a administraciones públicas en procesos de transformación digital, hemos visto cómo algunas de las mejores ideas, las más humanas, las más justas se quedaban atascadas entre la fase piloto y la realidad. Proyectos que nacen para hacer la vida más comprensible, accesible o equitativa, como DiloClaro , terminan chocando con un muro de inercias, normativas desfasadas y estructuras de financiación que no están pensadas para sostener la innovación y menos aún la innovación social. No es que la tecnología no funcionara, sino que el sistema no estaba preparado para sostenerla. Por tanto, la pregunta no es si podemos hacerlo. La pregunta es qué debe cambiar para que la tecnología con propósito no se agote en un laboratorio de innovación, sino que se consolide. De la innovación a la política pública estructural En el sector público, la innovación suele llegar en forma de proyectos piloto, impulsados por el entusiasmo de unos pocos equipos y la financiación puntual de una convocatoria. Pero cuando el proyecto acaba, lo hace también la oportunidad de consolidarlo. Necesitamos marcos de adopción estructural que permitan que las innovaciones con propósito pasen de la prueba de concepto a la política pública. Eso implica financiación plurianual e integración normativa. Por lo que estas iniciativas y sus proyectos no deberían depender de fondos ocasionales: su lugar está en el núcleo de la estrategia digital de las administraciones.  La transformación real no vendrá de la tecnología, sino de nuestra capacidad para usarla con propósito. Solo así cuestiones como la accesibilidad cognitiva dejará de ser un “plus” para convertirse en una obligación institucional. Cultura social y responsabilidad compartida A menudo hablamos de accesibilidad como si fuera una concesión. Pero no lo es: es una deuda. La tecnología actual nos permite simplificar, traducir y anticipar, pero seguimos mirando a los colectivos vulnerables como si el problema fuera suyo, cuando en realidad es de una sociedad que comunica sin empatía. Una sociedad verdaderamente digital no es la que automatiza trámites, sino la que los hace comprensibles para todos y todas.  La IA responsable amplifica nuestra capacidad de cuidar, pero solo si la acompañamos de una pedagogía social que promueva empatía digital y equidad comunicativa.Facilitar la vida a los demás es más sencillo que nunca. Lo difícil sigue siendo querer hacerlo como prioridad. Financiación y retorno de la inversión con propósito Uno de los principales bloqueos estructurales está en cómo entendemos el retorno.En la administración, el ROI se traduce en ahorro, eficiencia o reducción de tiempos. Pero el valor social también tiene métricas: una notificación entendida, un trámite completado sin ayuda, una persona mayor que no renuncia a un derecho porque el lenguaje era incomprensible. Necesitamos modelos híbridos de evaluación, donde los beneficios sociales, éticos y de confianza se integren en los indicadores de éxito.Invertir en accesibilidad cognitiva, por ejemplo, es invertir en eficiencia ciudadana: menos errores, menos repetición de trámites, más autonomía. El retorno no solo es económico, es social y democrático. Ecosistemas de innovación inclusivos y realistas Los ecosistemas de innovación pública suelen estar poblados de tecnólogos, universidades y administraciones, pero raramente de las personas a las que esas innovaciones quieren servir. La IA con propósito necesita ecosistemas cívicos, donde las asociaciones, fundaciones y colectivos vulnerables participen desde el diseño y no solo en la fase de validación. Esa participación no puede ser simbólica. Debe traducirse en procesos de co-creación que integren la voz de quienes experimentan las brechas de comprensión o acceso.  En el caso de DiloClaro, esa validación participativa garantiza que el lenguaje claro y la lectura fácil respondan a necesidades reales, no a suposiciones técnicas. El verdadero salto de calidad ocurre cuando el impacto social se diseña desde el principio, no cuando se mide al final. De la accesibilidad técnica a la accesibilidad cognitiva Desde hace años, las normas europeas y españolas obligan a que los portales públicos cumplan los estándares de accesibilidad web ( WCAG ). Eso permite que cualquier persona pueda entrar en la página, pero no asegura que pueda entender lo que allí se dice. Ha llegado el momento de ampliar el concepto: la accesibilidad cognitiva debe reconocerse como un derecho ciudadano, vinculado al derecho a la información y a la igualdad. No basta con que las interfaces sean navegables; deben ser comprensibles. Así como hoy se exige que los sitios sean técnicamente accesibles, deberíamos exigir que la información pública esté redactada en lenguaje claro y lectura fácil.  La ONU y la UNESCO llevan tiempo recordando que el acceso a la información solo es real cuando las personas pueden comprenderla y utilizarla. La Convención sobre los Derechos de las Personas con Discapacidad (artículos 9 y 21) insta a los Estados a garantizar no solo la accesibilidad física y digital, sino también la accesibilidad en la comunicación y la información, en formatos que sean claros, legibles y adaptados a la diversidad cognitiva. España ha dado un paso importante en esta dirección al incorporar la accesibilidad cognitiva  en su legislación (Ley 6/2022), reconociéndola como condición necesaria para la inclusión social. Aun así, queda mucho por hacer: las normas técnicas aseguran que un sitio web funcione correctamente, pero no garantizan que un ciudadano entienda lo que la administración le está comunicando. Así como hoy exigimos que los sitios sean técnicamente accesibles, deberíamos exigir también que la información pública esté redactada en lenguaje claro y lectura fácil. Comprender lo que leemos no es un lujo: es parte esencial del derecho a participar plenamente en la vida democrática. Además, una normativa de claridad y comprensión no solo mejoraría la experiencia ciudadana, sino que también abriría un nuevo espacio de innovación y colaboración entre administraciones y empresas tecnológicas responsables. La administración no solo asegura el acceso: también marca el rumbo del sector TIC. Y en ese rumbo debería estar, por ejemplo, la obligación de comunicar de forma que todas las personas puedan entender lo que se les dice. De hecho, ya existen pasos normativos importantes que apuntan en esa dirección. En Andalucía, por ejemplo, el Decreto-ley 3/2024, de 6 de febrero , por el que se adoptan medidas de simplificación y racionalización administrativa para la mejora de las relacionesde los ciudadanos con la Administración de la Junta de Andalucía y el impulsode la actividad económica en Andalucía. Sin embargo, la aplicación práctica de estas normas sigue siendo desigual y carece de una estrategia digital que las traslade al ámbito de la inteligencia artificial y la automatización de servicios públicos. Gobernanza ética de la IA con propósito Como conclusión, queda claro que los proyectos de inteligencia artificial, con propósito, no fracasan por falta de talento o de tecnología, sino por exceso de fricción. Fricción normativa, institucional, cultural. Si realmente queremos que la IA responsable se consolide en el sector público, necesitamos alinear tres dimensiones: la política pública, que impulse y financie; la capacidad técnica, que acompañe y supervise; y la cultura social, que comprenda y sostenga. Solo cuando esas tres capas se alineen, la tecnología con propósito dejará de ser una promesa para convertirse en una política pública transformadora.  Pero, además, es fundamental recordar que la IA Responsable no es un atributo del modelo, sino del sistema que la gobierna. Su madurez no depende solo del cumplimiento normativo, sino de la capacidad institucional de garantizar principios como la transparencia, la equidad, la explicabilidad y la supervisión humana en todo el ciclo de vida de la tecnología. El AI Act  europeo abre precisamente esa puerta, estableciendo obligaciones diferenciadas según el riesgo y reconociendo el papel clave de la gobernanza ética en la administración pública. La cuestión es si sabremos traducir esos marcos a políticas nacionales y regionales que no se limiten a regular, sino que impulsen la innovación con propósito. Porque la inteligencia artificial más responsable no será la más avanzada, sino la que consiga alinear ética, impacto y estructura.

Ver todas

Otras páginas (23)

  • Iniciativas de OdiseIA

    Descrubre cuáles son las iniciativas de nuestra asociación para lograr una IA ética y responsable. Iniciativas Trabajamos activamente para impulsar el uso de la inteligencia artificial, facilitando el balance con la ética, responsabilidad y legislación vigente. Buscamos soluciones prácticas para conseguir este objetivo. brAIngym: entrenar nuestras capacidades cognitivas en la era de la IAgen 5 de diciembre de 2025 brAIngym es un proyecto de investigación interdisciplinar que analiza cómo el uso cotidiano de la inteligencia artificial generativa (IAgen) puede transformar la forma en que pensamos, sentimos, recordamos, aprendemos y decidimos. Queremos generar conciencia social sobre el impacto de la IAg en el cerebro humano y en las capacidades cognitivas, y desarrollar un prototipo inicial que ayude a las personas a comprender, reflexionar y entrenar sus capacidades cognitivas, emocionales, éticas y de agencia. El proyecto forma parte de cAIre que se enfoca en la gobernanza de IA y su impacto en el futuro del trabajo, siempre desde la perspectiva de grupos vulnerables. En este sentido, el brAIngym pretende aumentar la conciencia de la población y los ‘policymakers’ para anticipar una posible nueva gobernanza. Esto es sobre todo importante porque todos las profesiones del futuro estarán impactadas por la IAg y para evitar la existencia de un “nuevo” grupo vulnerable, es clave el trabajo innovador que pretende hacer el brAIngym. Ver web del proyecto OdiseIA lanza un nuevo proyecto con el apoyo de Google.org 1 de marzo de 2024 - 1 marzo de 2026 OdiseIA lanza un nuevo proyecto con el apoyo de Google.org, la filantropía de Google. Esta iniciativa forma parte del Digital Futures Project de Google.org, un fondo de 20 millones de dólares dedicado a apoyar a investigadores, facilitar debates y fomentar el desarrollo de soluciones políticas responsables en materia de IA. El proyecto de OdiseIA se centra en tres áreas clave: 1) Investigar iniciativas de gobernanza de la IA, como normativas y recomendaciones, centrando la atención en los grupos vulnerables, la sociedad y explorando las oportunidades de la IA en su beneficio. 2) Analizar el futuro de la IA, haciendo hincapié en cómo afectará al empleo y las competencias, prestando especial atención a los grupos vulnerables, a través de la investigación, los eventos y la educación. 3) Fomentar la colaboración paneuropea entre los receptores europeos del proyecto Futuros Digitales compartiendo conocimientos y liderazgo de pensamiento a través de debates, publicaciones y eventos. Ver web del proyecto Comunidades de práctica para impulsar la igualdad en el entorno digital (COPID) 1 de octubre de 2024 - 1 octubre de 2026 OdiseIA se enorgullece de formar parte del proyecto Comunidades de Práctica para impulsar la igualdad en el entorno digital (COPID), una iniciativa colaborativa junto a Fundación ONCE y el Instituto Gregorio Peces-Barba de la Universidad Carlos III de Madrid, en colaboración con Red.es. Este proyecto pionero busca promover la aplicación de la Carta de Derechos Digitales de España, enfocándose en asegurar que los derechos de igualdad se respeten y desarrollen en el entorno digital. A través de este esfuerzo conjunto, trabajamos para construir un entorno más inclusivo y equitativo para todos. El enfoque de COPID se basa en la creación de cinco Comunidades de Práctica (CoP), cada una dedicada a un derecho clave relacionado con la igualdad digital, como el derecho a la igualdad y a la no discriminación en el entorno digital, el derecho de acceso a internet, la protección de niños, niñas y adolescentes en el entorno digital, accesibilidad universal en el entorno digital, y brechas de acceso al entorno digital. Estas comunidades, compuestas por expertos y organizaciones representantes de las partes interesadas, permiten compartir conocimientos, generar nuevas ideas y desarrollar recomendaciones concretas para impulsar cambios tanto legislativos como no legislativos. En OdiseIA, creemos en el poder del trabajo colaborativo y del intercambio de experiencias para abordar los desafíos actuales de la igualdad digital. Nuestra participación en COPID refuerza nuestro compromiso con una inteligencia artificial ética y responsable, enfocada en mejorar la calidad de vida de las personas. Invitamos a todos los interesados a sumarse a esta iniciativa y a contribuir al avance de los derechos digitales. Juntos, podemos construir una sociedad digital que no solo respete la igualdad, sino que también la promueva de manera activa, asegurando que nadie quede excluido de los beneficios del entorno digital. Ver web del proyecto Certificación ética SEDIA 22 septiembre de 2023 - 1 diciembre de 2025 OdiseIA, en colaboración con Deloitte, desarrollará una certificación para la Secretaría de Estado de Inteligencia Artificial en forma de sello para garantizar que la implementación de algoritmos de inteligencia artificial (IA) por empresas y entidades sea ética, robusta y confiable. Este proyecto incluye la ejecución de un piloto regulatorio de IA en España para obtenerexperiancia práctica con el reglamento europeo de IA antes de su entrada en vigor en 2026. El trabajo implica el seguimiento y evaluación de empresas, y la creación de guías detalladas basadas en el feedback del piloto. Contacto Proyecto COMMANDs 1 de enero de 2023 - 31 de diciembre de 2024 El proyecto colaborativo entre OdiseIA y SENER se enfocará en la evaluación de sistemas inteligentes para aplicaciones militar. El proyecto COMMANDS está financiado por la “European Defense Agency ”. El rol de OdiseIA es la introducción del pensamiento ético cuando se usa la IA en casos de usos concretos. Este proyecto tiene como objetivos: Analizar el estado del arte en las implicaciones éticas de los sistemas inteligentes en el ámbito militar. Desarrollar un framework para el uso ético de la IA en casos de usos militares relacionados con vehícules autónomos, y la aplicación del framework a las aplicaciones concretas del proyecto COMMANDS. Asegurar que dentro de los desarrollos de tecnología militar avanzada se consideren los aspectos éticos del uso de la inteligencia artificial. Contacto Informe conjunto INDESIA 29 de mayo 2023 IndesIA y OdiseIA, en su informe "El uso responsable de la inteligencia artificial en el sector industrial", buscan fomentar el uso ético de datos e IA en la industria. El documento ofrece guías y casos prácticos para implementar la IA de manera ética y responsable en organizaciones. Descargar informe Los objetivos son promover el uso ético de los datos y la inteligencia artificial en distintos sectores de las industrias representadas por los socios promotores de IndesIA, y garantizar que la implementación de la IA sea realizada de manera ética y responsable. El informe “El uso responsable de la inteligencia artificial en el sector industrial” elaborado por ambas entidades, proporciona guías actualizadas y casos de uso para asistir a las organizaciones en la implementación ética de la IA en sus procesos. El proyecto enfatiza la importancia de una IA que contribuya a construir una sociedad mejor y más sostenible. Contacto Curso de ChatGPT para profesores de bachillerato Junio 2023 - 2024 OdiseIA, en colaboración con las Fundaciones Telefónica y Profuturo, ha desarrollado un curso de ChatGPT para que los profesores de Bachillerato puedan ver la IA Generativa como una oportunidad de mejora en vez de verlo como una amenaza al sistema educativo. El curso gratuito estará disponible en la plataforma de Profuturo. Video presentación . Contacto Proyecto Google Pryecto SEDIA Proyecto Commands Proyecto INDESIA Proyecto Curso ChatGPT

  • Eventos de OdiseIA

    ¡Súmate a los eventos OdiseIA! Regístrate y participa en nuestros seminarios, para siempre estar al día de las ultimas tendencias, avances, y conversaciones relevantes sobre la inteligencia artificial promoviendo un uso ético y responsable. Eventos ¡Súmate a los eventos OdiseIA! Regístrate y participa en nuestros seminarios, para siempre estar al día de las ultimas tendencias, avances, y conversaciones relevantes sobre la inteligencia artificial promoviendo un uso ético y responsable. No hay eventos en este momento Calendario diciembre de 2025 Hoy lun mar mié jue vie sáb dom 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 1 2 3 4 5 6 7 8 9 10 11 Eventos anteriores jue, 30 oct I Think Tech Alicante Summit – Liderar con IA, Escalar con Datos / Alicante (Alacant) Detalles 30 oct 2025, 9:00 – 14:30 Alicante (Alacant), Finca Torre Juana, Av. Pintor Pérez Gil, 16, 03540 Alicante (Alacant), Alicante, España @Odiseia se hace presente en un acto de nuestro socio institucional @Cámara Alicante. @Frank Escandell, nuestro director de Socios Institucionales, moderará la mesa "Transformar sectores tradicionales con IA: retos y oportunidades" Ver todos mié, 09 jul Inteligencia artificial responsable para una sociedad inclusiva y equitativa / Madrid Detalles 09 jul 2025, 9:00 – 13:00 Madrid, C. de Almagro, 9, Chamberí, 28010 Madrid, España Evento del proyecto cAIre + 3 más lun, 30 jun III Encuentro sobre Liderazgo Cívico. “La responsabilidad cívica de los líderes empresariales tecnológicos” Convocatoria / Santander Detalles 30 jun 2025, 10:00 – 02 jul 2025, 17:00 Santander, Av. de la Magdalena, 1, 39005 Santander, Cantabria, España Curso de verano de la UIMP en responsabilidad cívica aplicada a la Inteligencia Artificial para líderes empresariales mar, 06 may Evento — 'II Jornada de Inteligencia Artificial: transformando el presente, creando el futuro' / Ubicación no determinada Detalles 06 may 2025, 10:00 – 14:00 Ubicación no determinada elDiario.es ha celebrado el pasado 30 de abril la ‘II Jornada de Inteligencia Artificial: transformando el presente, creando el futuro’ en el Colegio Oficial de Arquitectos de Madrid (COAM). lun, 07 abr Jornadas Máster Universitario en Dirección Estratégica en Tecnologías de la Información / Talavera de la Reina Detalles 07 abr 2025, 11:30 – 12:30 Talavera de la Reina, Av. Real Fábrica de Sedas, 45600 Talavera de la Reina, Toledo, España Richard Benjamins participará en las Jornadas Máster Universitario en Dirección Estratégica en Tecnologías de la Información. vie, 20 dic Debate abierto: ¿Es posible que tu empresa cumpla con el Reglamento de inteligencia artificial y no muera en el intento? / Madrid Detalles 20 dic 2024, 12:30 – 14:30 Madrid, Pl. Pablo Ruiz Picasso, 1, Tetuán, 28020 Madrid, España OdiseIA-Deloitte, Viernes 20 diciembre, 12:30h, lugar: Deloitte-Torre Picasso, también posible online (se recomienda la presencia dada la naturaleza del evento. Se remitirán datos conexión a los inscritos). + 1 más vie, 29 nov Patricia Llaque participará en la jornada "Innovación y ciberseguridad en organizaciones sociales" / Madrid Detalles 29 nov 2024, 10:00 – 14:00 Madrid, C. de Fray Luis de León, 11, Arganzuela, 28012 Madrid, España La importancia de la innovación en ciberseguridad para las organizaciones del Tercer Sector de Acción Social. mar, 19 nov TAI Granada / Granada Detalles 19 nov 2024, 9:00 – 13:30 Granada, P.º del Violón, Zaidín, 18006 Granada, España Rosa Romero impartirá la ponencia "OdiseIA: Centinelas de la IA Responsable" mar, 22 oct Ángel Gómez de Ágreda participa en la mesa redonda sobre IA y seguridad del III Forum Europeo de Inteligencia Artificial / Alacant Detalles 22 oct 2024, 12:00 – 18:00 Alacant, Av. de Jijona, 5, 03012 Alacant, Alicante, España Ver todos vie, 11 oct OdiseIA presenta su participación en el Proyecto COPID: Impulsando la Igualdad en el entorno digital / Madrid Detalles 11 oct 2024, 10:00 – 14:30 Madrid, C. de Sebastián Herrera, 15, Arganzuela, 28012 Madrid, España jue, 10 oct Participación en DTScredo / Berlín Detalles 10 oct 2024, 10:00 – 11 oct 2024, 17:00 Berlín, Berlín, Alemania Richard Benjamins participará en el evento de transformación digital de Berlin jue, 11 jul Claves prácticas del Reglamento Europeo de Inteligencia Artificial / Webminar Detalles 11 jul 2024, 16:00 – 18:00 Webminar Wolters Kluwer Legal Software presenta la segunda sesión de la 3ª Ed. de los "Legal Innovation Days" (2024-2025), de la mano de Idoia Salazar y Richard Benjamins, cofundadores y Presidente y CEO respectivamente del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) + 9 más mar, 02 jul Acto Inaugural de la Escuela Complutense de Verano, Oportunidades de la IA / Madrid Detalles 02 jul 2024, 19:00 – 23:00 Madrid, Pl. de Ramón y Cajal, s/n, Moncloa - Aravaca, 28040 Madrid, España 43 cursos de 75 horas de duración, 10 sedes, 658 estudiantes, 29 países, 278 becas de matrícula, 200 becas de alojamiento. Son las cifras de la vigésimo tercera edición de la Escuela Complutense de Verano (ECV), que, del 1 al 19 de julio. mar, 11 jun Digital Enterprise Show 2024 / Málaga Detalles 11 jun 2024, 10:00 – 13 jun 2024, 19:00 Málaga, Av. de José Ortega y Gasset, 201, Cruz de Humilladero, 29006 Málaga, España Idoia Salazar, presidenta y fundadora de OdiseIA participará en el Digital Enterprise Show de Málaga. jue, 06 jun La IA en la gestión de Riesgos Globales / Málaga Detalles 06 jun 2024, 12:40 – 13:30 Málaga, Av. de José Ortega y Gasset, 201, Cruz de Humilladero, 29006 Málaga, España Mesa redonda en MAPFRE Global Risks Ver todos lun, 03 jun Humanismo e inteligencia artificial, a debate en el Congreso Internacional EBEN / Cáceres Detalles 03 jun 2024, 8:00 – 04 jun 2024, 16:30 Cáceres, Cáceres, España El XXXI Congreso Internacional EBEN, que se desarrolla los días 3 y 4 de junio en Cáceres con la asistencia de más de 250 participantes de 5 países, abre sus inscripciones al público hasta el 31 de mayo vie, 31 may Nuevos contextos competitivos y la aprobación del Reglamento europeo de Inteligencia Artificial / Madrid Detalles 31 may 2024, 9:30 – 13:30 Madrid, C. del Tutor, 35, Moncloa - Aravaca, 28008 Madrid, España DEBATES 2030 DÉCADADIGITAL: COMUNICACIONES ELECTRÓNICAS, SERVICIOS DIGITALES Y SECTOR AUDIOVISUAL mié, 29 may Regulación en la Unión Europea sobre Inteligencia Artificial y panorama mundial / Webminar Detalles 29 may 2024, 12:30 – 14:00 Webminar Únete a nosotros para una conferencia única sobre la regulación de la Inteligencia Artificial en Europa y a nivel global. Presentamos a Lorenzo Cotino Hueso, reconocido experto, quien guiará la discusión sobre los desafíos y oportunidades que enfrenta la regulación de la IA. Ver todos Cargar más

  • Comunicación | OdiseIA

    Si eres un medio de comunicación y estás interesado en contactar con los expertos de OdiseIA, por favor ponte en contacto con nuestros responsables de prensa. Comunicación Si eres un medio de comunicación y estás interesado en contactar con los expertos de OdiseIA, por favor ponte en contacto con nosotros a través del siguiente correo electrónico: contacto@odiseia.org Podcast Voces de OdiseIA Podcast OdiseIA Reproducir video Reproducir video 28:37 Ep1: Origen, Misión y Visión de OdiseIA, con Richard Benjamins En nuestro primer episodio, conoceremos más del origen, misión y visión de OdiseIA con Richard Benjamins, nuestro CEO. Para descargar GuIA de forma gratuita: https://www.pwc.es/es/publicaciones/tecnologia/assets/guia-buenas-practicas-uso-inteligencia-artificial-pwc-odiseia.pdf Escúchalo también en Spotify: https://open.spotify.com/episode/6S9ZED2mjG2lGFgyuWBprJ?si=asqScupXTYCzjTA6Cbil1Q Reproducir video Reproducir video 26:31 EP2 LA PRIVACIDAD Y LA ETICA EN LA ERA DE LA IA En este segundo episodio de Voces de OdiseIA, hablamos con Guillermo Hidalgo Viedma, Asociado Senior del Área de Tecnología de Cremades & Calvo-Sotelo, sobre dos de los principales valores éticos en que se debe basar toda inteligencia artificial ética: Privacidad y Transparencia. 00:00 Intro por Frank Escandell 02:00 ¿Quién es Guillermo Hidalgo? 04:10 Principios éticos en el desarrollo de la inteligencia artificial 06:30 ¿Es el RGPD adecuado? 09:35 El diseño de sistemas de inteligencia artificial 11:25 Mitigación de sesgos y riesgos 14:25 Sobre el análisis predictivo de la conducta humana 17:40 ¿Por qué a “Paqui” debería importarle? 20:20 Tim Berners-Lee y una respuesta híbrida 23:22 ¿Por qué eres miembro de OdiseIA? Para conocer a Guillermo Hidalgo: https://www.linkedin.com/in/guillermo-hidalgo-viedma-30b3ab140/ Proyecto Solid de Tim Berners-Lee: https://solidproject.org/ Reproducir video Reproducir video 30:19 EP3 JAIME CASTELLO IA GENERATIVA Y MARKETING En este tercer episodio de Voces de OdiseIA, hablamos con Jaime Castello, profesor y MIM en Advantere School, socio institucional de OdiseIA, sobre un fascinante artículo publicado en Harvard Deusto Review sobre el impacto ético de la IA Generativa en márketing Para conocer Advantere School, visita https://advantere.org Para descargar gratuitamente el artículo de Jaime Castello, pulsa este enlace: https://drive.google.com/file/d/1NWmdBB5ltEsn23VePxaUxptekobvd466/view 00:00 Intro por Frank Escandell 02:20 Presentación de Advantere School, socio de OdiseIA 05:32 Artículo de Jaime Castello en Harvard Deusto Review 06:24 Sobre la garantía de la privacidad de datos de clientes 08:19 Los sonados casos de IA Gen en las marcas KFC y Levi’s 10:26 Sobre políticas de implementación para derechos de autor 13:15 Sobre el “viaje emocional del cliente” 15:38 Gemini y el caso de los “Soldados Nazis” 19:18 ¿Se podría regular la IA Gen en marketing? 22:08 Cultura, empleo, percepción social 26:08 Cómo reaccionan los jóvenes estudiantes ante la IA Ética 29:14 Despedida 29:55 Créditos Reproducir video Reproducir video 40:10 EP4 PROFESIONES DEL FUTURO, GRUPO 2.1 PROYECTO GOOGLE cAIre En el cuarto episodio de Voces de OdiseIA, Frank Escandell conversa con miembros del Grupo 2.1 Profesiones del Futuro: Nuevas Oportunidades y Requisitos, del proyecto Google cAIre OdiseIA. Ellos son Ricardo Palomo (director), Jorge Cerqueiro, Dolores Abuin, José Javier Sesma y Frank Escandell. Para conocer el proyecto desde OdiseIA, visita odiseia.org/proyecto-google-charity Para conocer todo el proyecto de Google.org (Charity) Digital Futures Project: https://blog.google/outreach-initiatives/google-org/launching-the-digital-futures-project-to-support-responsible-ai/ 00:00 Intro por Frank Escandell 01:37 Presentación de los miembros del equipo de trabajo 2.1 04:53 El Futuro y Los Supersónicos 09:56 ¿Quiénes responden al futuro del trabajo? 12:35 Los siguientes pasos de la investigación 17:16 ¿Por qué debería importarnos? 22:10 Datos sorprendentes sobre las entrevistas 27:00 Lo nuevos vulnerables de Yubal Harari 36:52 Una frase para el mundo 38:32 Despedida 39:40 Créditos Reproducir video Reproducir video 24:36 EP5 RESPONSABILIDAD ETICA IA SALUD EP5 La Inteligencia Artificial y su Impacto en la Atención Sanitaria En este episodio exploramos la intersección de la tecnología, la ética y la medicina. Hoy abordamos un tema crucial que nos pone frente a un dilema contemporáneo: la inteligencia artificial y su impacto en la atención sanitaria. Recientemente, salió a la luz un caso alarmante en el que un chatbot de United Healthcare, diseñado para procesar solicitudes de cobertura médica, denegó servicios necesarios a varios clientes, destacando los riesgos de delegar decisiones sensibles en manos de algoritmos. Asimismo, analizaremos cómo estas herramientas están transformando la práctica médica, tanto en su capacidad para automatizar procesos como en los retos que presentan para la equidad, la ética y la confianza del paciente. Nos plantearemos preguntas fundamentales sobre cómo garantizar que estas tecnologías sean herramientas de apoyo y no barreras para el acceso al cuidado de la salud. Así que, ajusten sus auriculares y prepárense para un diálogo que va más allá de la tecnología, hacia los valores humanos que deben guiar su uso. Hoy, el doctor Javier Mendoza, en VDO" Para conocer el trabajo de Javier Mendoza: javiermendozamd.com 00:00 Intro por Frank Escandell 01:03 Presentación Dr. Javier Mendoza 03:20 El caso de United Health 09:20 La IA en la toma de decisiones en la atención sanitaria 11:20 El rol de los médicos en el diseño e implementación de IA 13:00 Estrategias efectivas para la equidad 14:44 Transparencia, claridad y formación 16:20 Sobre normativas y estándares éticos 19:05 ¿Por qué debería importarnos? 21:10 Garantía de sensibilidad humana 23:38 Despedida 24:00 Créditos Escúchalo también en Spotify: https://spotifycreators-web.app.link/e/Rk89nq2dkPb Reproducir video Reproducir video 31:03 EP6 GRUPO 1.4 GOOGLE CAIRE En un mundo donde la inteligencia artificial no solo predice nuestras elecciones, sino que puede influir en nuestras decisiones más íntimas, debemos preguntarnos: ¿somos conscientes de los riesgos? La vulnerabilidad humana, una constante inherente y contextual, está siendo puesta a prueba por tecnologías que amplían tanto nuestras posibilidades como nuestras desigualdades. Hoy exploraremos cómo teorías clave redefinen este concepto, y por qué es urgente replantear nuestras estructuras éticas y jurídicas frente al impacto de la IA. Es un desafío que exige reflexión, acción y un nuevo marco de responsabilidad global. ¿Aceptamos el reto? En este subgrupo de investigación también participan Andrea Stechina y Hugo Ramallo Para leer el artículo de Begoña G. Otero, visita: https://www.odiseia.org/post/ai-for-good-la-idea-de-la-vulnerabilidad-humana-en-tela-de-juicio-1 Para conocer el Proyecto google cAIre OdiseIA: https://www.odiseia.org/proyecto-google-charity Escúchalo también en Spotify: https://open.spotify.com/episode/3tJnSvRCpZyhANKpmN5ZxV?si=gv-4AD6kS32QSjebGefnWg 00:00 Intro por Frank Escandell 01:01 Presentación de Begoña Otero 01:50 ¿Qué es la vulnerabilidad? 06:45 La Teoría de Capas de Florencia Luna 11:23 Instancias jurídicas 14:40 Asimetría y exacerbación de la vulnerabilidad 18:10 ¿Por qué debería importarnos? 21:22 La perspectiva de Nina Kohn 24:20 Un taxonomía para el uso de IA 26:54 Desempleabilidad como vulnerabilidad 28:50 Despedida 30:00 Créditos Reproducir video Reproducir video 26:02 EP7 GRUPO DE TRABAJO MOEVE ODISEIA GREEN AI Bienvenidos a este séptimo episodio, donde exploramos una faceta del fascinante mundo de la inteligencia artificial sostenible. Hoy hablamos de tres conceptos clave: Green AI, Green By AI y Green In AI. Green AI se centra en desarrollar modelos más eficientes, reduciendo su impacto ambiental durante el entrenamiento y la ejecución. Con investigaciones innovadoras, buscamos hacer que la IA sea más verde desde su núcleo. Por otro lado, Green By AI explora cómo la IA puede ayudarnos a diseñar soluciones sostenibles: optimizar redes energéticas, mejorar la gestión de recursos naturales, y mucho más. Finalmente, Green In AI apunta a incorporar principios ecológicos en las mismas herramientas y procesos que usan los investigadores de IA, promoviendo una conciencia ambiental en cada paso. Acompáñanos en este viaje para entender cómo la IA puede ser una aliada en la lucha contra la emisión de gases invernadero. ¡Comenzamos! 00:00 Intro por Frank Escandell 01:40 Presentación de Jesús Oliva 02:38 De CEPSA a Moeve: El comercial en los medios de comunicación 04:40 El Grupo de trabajo de Moeve-OdiseIA Green AI 07:55 Green by AI versus Green in AI 12:20 El estándar ético más importante 16:20 ¿Por qué debería importarnos? 18:50 Mitigando el impacto de la transparencia 20:25 Políticas y regulaciones globales 24:00 El primer entregable del grupo de trabajo 25:23 Despedida y créditos Escúchalo también en Spotify: https://spotifycreators-web.app.link/e/BRzMQyjiFPb Reproducir video Reproducir video 35:16 EP8 INTELIGENCIA ARTIFICIAL ÉTICA UNA VISIÓN MACRO En este emocionante octavo episodio de la primera temporada, despedimos el año 2024 entrevistando a nuestra presidenta, Idoia Salazar, una de las voces más destacadas en inteligencia artificial ética. Junto a Frank Escandell, exploramos una visión macro sobre los desafíos actuales y futuros de la IA para el 2025. 00:00 Intro por Frank Escandell 00:48 Presentación de Idoia Salazar 01:45 La experiencia de fundar OdiseIA y la internacionalización de su mensaje 04:50 El riesgo de la IA sobre algunos derechos humanos y la responsabilidad individual 11:38 Métodos específicos para evitar los sesgos 16:02 Ejemplo actual del problema de los sesgos 21:30 Normativa y regulación efectiva para la IA ética 25:53 ¿Por qué debería importarle la Ley Europea de IA a “Juani”? 28:03 Evolución de los marcos regulatorios internacionales de la IA 34:10 Despedida 34:38 Créditos ¡Acompáñanos en esta conversación que marca el cierre de un año lleno de avances y retos en el mundo de la inteligencia artificial! 🔗 No olvides suscribirte y activar las notificaciones para no perderte más contenido sobre IA ética y su impacto en nuestras vidas. 🎧 Escúchalo también en Spotify: https://creators.spotify.com/pod/show/frank-escandell/episodes/Ep8-Inteligencia-Artificial-tica-Una-Visin-Macro-e2t8s62/a-abnh34l Reproducir video Reproducir video 33:45 EP9 ODISEIA4GOOD AI HACKATHON Empezamos el 2025 con un episodio muy especial de Voces de OdiseIA. 🎙️ En este noveno episodio, entrevistamos a nuestro CEO, Richard Benjamins, y al director de OdiseIA4Good, Fabián García Pastor, para presentar el primer hackathon internacional de IA para Colectivos Vulnerables, con el apoyo de Google.org. 🌍🤖 🔗 Regístrate en el hackathon o conócenos: https://odiseia4good.org 🎶 Tema musical de la segunda temporada: “Fading” de Aim To Head 🎧 Escúchalo también en Spotify: https://spotify.com No olvides suscribirte, dejar tu comentario y compartir este episodio. ¡Te esperamos! 🚀 Cargar más Webinars OdiseIA Webminars Reproducir video Reproducir video 01:07:01 Presente y Futuro: Seguridad e Inteligencia Artificial En este evento hemos contado con la colaboración de Lorenzo Cotino , Catedrático de Derecho Constitucional de la Universidad de Valencia. Coordinador de la Red www.derechotics.com Andrea G Rodriguez analista de Seguridad y tecnologías emergentes y Raquel Jorge, Fullbright Fellow, experta en políticas tecnológicas y de seguridad. Con ellos hablamos de sobre seguridad del individuo y su relación con la IA. Reproducir video Reproducir video 01:02:36 Hackeando sesgos con inteligencia artificial Charla virtual con Mónica Villas, directora de formación de OdiseIA, y Cristina Aranda, de desarrollo de negocio para Europa en Taiger.Cristina Aranda cuenta con más de 18 años de experiencia en marketing, innovación y transformación digital trabaja en Taiger empresa de Inteligencia Artificial especializada en el procesamiento del lenguaje natural para la digitalización y automatización de procesos, asistentes virtuales y buscadores especializados. Mónica es cofundadora de OdiseIA y es directora de formación. Es ingeniera y ex-ejecutiva de IBM. Lider de conocimiento de IA en el institute Immune y docente en distintas escuelas de negocio. Con ellas hablamos de sesgos en Inteligencia artificial. Reproducir video Reproducir video 59:49 Sumando fuerzas venceremos al virus con IA Nuestros ponentes Nuria Oliver y Richard Benjamin nos hablan de como usar la IA para ayudar la pandemia. Dra. Nuria Oliver Data scientist del año 2019. Doctora en Inteligencia Artificial por Massachusetts Institute of Technology (MIT). Cofundadora y miembro del board de la Red europea de excelencia de investigación en IA ELLIS (Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes), y directora del futuro centro de investigación en IA ELLIS Alicante. Co-directora del área de investigación de OdiseIA. Dr. Richard Benjamins Chief AI and Data Strategist de Telefónica. Cofundador y Vicepresidente de OdiseIA. Co director del Área de Ética y Responsabilidad de OdiseIA. Entre las 100 personas más influyentes en el mundo de los negocios basados en Big Data. Reproducir video Reproducir video 59:49 Sumando fuerzas venceremos al virus con IA Nuestros ponentes Nuria Oliver y Richard Benjamin nos hablan de como usar la IA para ayudar la pandemia. Dra. Nuria Oliver Data scientist del año 2019. Doctora en Inteligencia Artificial por Massachusetts Institute of Technology (MIT). Cofundadora y miembro del board de la Red europea de excelencia de investigación en IA ELLIS (Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes), y directora del futuro centro de investigación en IA ELLIS Alicante. Co-directora del área de investigación de OdiseIA. Dr. Richard Benjamins Chief AI and Data Strategist de Telefónica. Cofundador y Vicepresidente de OdiseIA. Co director del Área de Ética y Responsabilidad de OdiseIA. Entre las 100 personas más influyentes en el mundo de los negocios basados en Big Data. Reproducir video Reproducir video 02:21:46 Privacidad 360 - Un curso para entender y actuar sobre los riesgos y oportunidades de la privacidad Descubre las claves para gestionar con éxito la privacidad de los datos de tu organización de la mano de profesionales expertos de OdiseIA. 00:00 Introducción 06:12 La Esencia de la Privacidad - Fabián García Pastor 22:31Los Fundamentos de la Protección de Datos - Lorenzo Cotino 41:53 La Privacidad, la Inteligencia Artificial y la Ética - Juan Manuel Belloto 58:41 El Impacto de la Privacidad en los Robots - Ignacio G.R. Gavilán 1:10:33 Pitches sobre proyectos de Creación de Empresas de Privacidad 1:27:06 La Ingeniería de la Privacidad - Fabián García Pastor 1:38:44 El impacto de la protección de datos en la IA y en la Ética - Lorenzo Cotino 1:51:34 Principales recomendaciones sobre la Privacidad de Google, Microsoft, IBM y Telefónica - Juan Manuel Belloto 2:06:30 La aplicación de la Privacidad en el sector Telco - Ignacio G.R. Gavilán 2:20:34 Cierre de Privacidad 360 ¿Cumple tu organización con la normativa sobre privacidad de los datos? ¿Te gustaría poder explotar eficazmente los datos para mejorar el negocio de tu organización? Privacidad 360 proporciona una visión de 360° sobre el impacto de la privacidad en toda tu organización. Durante el curso... • se revisará el estado actual y las tendencias de futuro sobre privacidad. • Se presentarán las principales metodologías y herramientas que están siendo utilizadas por las compañías líderes. • Se presentarán casos reales que han sucedido y situaciones de futuro que pueden producirse. El enfoque es tanto en riesgos como en oportunidades. Congresos y Podcasts Colaboraciones en Podcasts Reproducir video Reproducir video 34:56 Cultivating the right culture in the era of AI Richard Benjamins, CEO & Founder, OdiseIA Reproducir video Reproducir video 00:58 PIONEROSFORLIFE 19 y 20 Juanma Ortega y Richard Benjamins #etica #inteligenciaartificial #Podcast Reproducir video Reproducir video 36:18 The UnwAIred - The Journey to Responsible AI Welcome to another episode of 'The unwAIred' podcast, where your host Frankie Carrero from VASS engages in a dynamic conversation with Richard Benjamins, Chief Responsible AI Officer at Telefonica, and Co-Founder at OdiseIA. In this episode, Richard, and Frankie, explore the concept of Responsible AI, breaking down its definition and role in companies, and sharing successful examples across industries. Richard provides exclusive insights into their role as a Chief Responsible AI Officer, discussing the challenges of balancing innovation and ethics in the ever-evolving landscape of technology and data. Join us for a concise yet insightful discussion on the critical aspects of Responsible AI. Reproducir video Reproducir video 02:02:04 II Congreso Internacional de Educación Inclusiva - Día 24 | SANTILLANA LATINOAMÉRICA II Congreso Internacional de Educación Inclusiva ➡️ Explorando el potencial de la IA 📆 Los días 24 y 25 de Abril 💻 Inscripciones en: educacioninclusiva.santillana.com #IASantillanaInclusiva Reproducir video Reproducir video 53:17 SI2024 | Mesa: Impactos sociales y éticos de la IA Mesa de debate de la II Jornada de la Semana Informática, con Idoia Salazar, presidenta de OdiseIA y profesora en Universidad CEU San Pablo, y Agustín Domingo, catedrático de Filosofía Moral y Política de la Universidad de Valencia. Moderada por Juan Pablo Peñarrubia, vicepresidente 1º del CCII. Reproducir video Reproducir video 37:57 (Audio Version) Richard Benjamins: A Multi-Year Journey Toward Responsible Enterprise AI In this episode, Professor Kevin Werbach and Dr. Richard Benjamins, former Chief Responsible AI Officer at Telefónica, discuss Telefónica's journey towards responsible AI, corporate strategies to address these challenges, and Benjamins' views on generative AI and the European AI Act. They explore the role of the Responsible AI Champion in embedding ethical practices across business functions and discuss the dynamics of AI ethics committees, which vary from permission-based to problem-based frameworks. Their conversation highlights the scarcity of AI ethics expertise and the diverse requirements for ethical oversight depending on a company's AI integration level. Benjamins' insights significantly enhance understanding of the global AI regulatory landscape and its future implications. Dr. Richard Benjamins is a leading expert in responsible AI, previously serving as Chief Responsible AI Officer and Chief AI and Data Strategist at Telefónica. Recognized among the top 100 influential figures in data-driven business, he co-founded OdiseIA, an observatory focused on the ethical and social impacts of AI. His career highlights include being the Group Chief Data Officer at AXA and holding key roles at Telefónica, contributing extensively to Big Data and Analytics. Dr. Benjamins founded Telefónica's Big Data for Social Good department, showcasing his commitment to leveraging data for societal benefits. With an academic background in Cognitive Science and Artificial Intelligence, he has also been involved in academia and research across the globe. His advisory role at BigML underscores his dedication to making machine learning more accessible. His projects have ranged from environmental efforts like air quality measurement in Madrid to healthcare advancements during the pandemic, embodying his advocacy for responsible use of AI to address both current and future challenges in the field. The AI Way in Telefónica (https://articles.unesco.org/sites/default/files/medias/fichiers/2023/10/ai_skilling_telefonica_unesco.pdf) UNESCO Ethics of Artificial Intelligence (https://www.unesco.org/en/artificial-intelligence/recommendation-ethics) Telefónica's Approach to the Use of Responsible AI (https://www.telefonica.com/es/wp-content/uploads/sites/4/2021/06/ia-responsible-governance.pdf) From AI Principles to Responsible AI: Challenges (https://www.telefonica.com/en/communication-room/blog/from-ai-principles-to-responsible-ai-challenges/) EU AI Act (https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf) Apariciones en prensa Trabajamos activamente para impulsar el uso de la inteligencia artificial, facilitando el balance con la ética, responsabilidad y legislación vigente. Buscamos soluciones prácticas para conseguir este objetivo. Un foro clave sobre IA y empleo en la Universidad Complutense El pasado martes 13 de mayo, la Facultad de Derecho de la Universidad Complutense de Madrid fue escenario de un encuentro crucial sobre el impacto de la inteligencia artificial (IA) en el mercado laboral. Organizado por el subgrupo 2.7 del proyecto cAIre de OdiseIA, con el respaldo de Google.org, el focus group reunió a expertos de diversos sectores para debatir estrategias que mitiguen el riesgo de desplazamiento laboral debido a la automatización. Lorenzo Cotino: "Hoy día no hay seguridad de datos ni ciberseguridad sin IA" Entrevistamos a Lorenzo Cotino con ocasión de la reciente celebración del I Insight del Club del DPD AEC 2024 del que ha sido ponente. Entrevista realizada por Rosario Fernández, Paula Fernández y José Ramón Moratalla, Redacción de la sección Derecho TIC, del portal www.elderecho.com The chatbot that will monitor that virtual assistants The Aragonese company Balusian and Itainnova are developing an evaluator of quality, reliability and ethics in virtual assistants. The idea is that another artificial intelligence is responsible for preventing chatbots from learning and issuing immoral or inappropriate responses. The peer-evaluating chatbot will bombard them with questions to verify that they are operating ethically. What will a world in which humans and robots coexist? In 'La Noche de Arjona' we propose to enter the exciting world of robots; We look towards that not-so-distant future that will make - and is already making a reality - what previously seemed like science fiction to us. To talk about how a robot is designed and manufactured, the coordinator of the Master in Connected Industry at the Pontifical University of Comillas, Jaime Boal, came to the program. OdiseIA presents the first Guia document OdiseIA, PwC, Google, Microsoft, IBM and Telefónica publish a document to learn about the best practices in the matter. The work will be adapted to the different economic sectors OdiseIA presents the first Guia document Idoia Salazar and Mónica Villas ODISEIA: the implications and possibilities of AI. Lung cancer. Theatre: 'We have come to give everything' Opacity is the main ethical challenge of artificial intelligence The new technologies associated with artificial intelligence (AI) represent an opportunity for companies and individuals, as they make it possible to streamline and increase the speed of processes, but they also pose an ethical and social challenge. These are the impacts that the Observatory of the Social and Ethical Impact of Artificial Intelligence (OdiseIA) aims to analyze, which was presented this Tuesday at Google for Startups Campus. The Observatory of the Social and Ethical Impact of AI is born Technological development is presenting us with challenges for which our systems—economic, legal and even ethical—do not seem to be sufficiently prepared. Now, an "independent" observatory promises to work to encourage its use "for social good." Announcement of the AI capabilities map in Spain At least this has been announced by Rafael Rodrigo Montero, general secretary of Scientific Policy Coordination of the Ministry of Science, in the presentation of the Observatory of the Social and Ethical Impact of Artificial Intelligence, ODISEA. An Observatory of the Social and Ethical Impact of AI is created This non-profit association has the support of universities and companies in the sector and seeks to promote the positive social impact of this technology.

Ver todas
bottom of page