top of page

Search Results

94 resultados encontrados

  • Libro Blanco sobre el impacto, regulación y garantías ante el uso de la IA por el empleador respecto de sus trabajadores

    Resumen del estudio sobre el impacto y las garantías ante el uso de la inteligencia artificial por los empleadores, realizado por OdiseIA en el marco del proyecto cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Caire - OdiseIA . Esta es la primera versión del entregable principal del subproyecto, cuya versión definitiva estará disponible a finales de 2025. A continuación, se ofrece un resumen en formato de preguntas y respuestas que destaca los aspectos más relevantes e innovadores del Libro Blanco. ¿Qué cambios introduce la IA en el ámbito laboral? La inteligencia artificial está modificando de manera profunda el mercado de trabajo. Automatiza procesos rutinarios, transforma la selección y evaluación del personal y redefine la experiencia de los trabajadores dentro de las empresas. Su impacto es cada vez más evidente, como muestran los datos del INE, que indican que en 2024 el 12,4% de las empresas en España ya utilizaban alguna herramienta de IA. Esta tendencia es promovida desde las administraciones públicas mediante estrategias gubernamentales, como el Kit Consulting, que facilitan su implantación. ¿Cuáles son los principales casos de uso de la IA por los empleadores? Las empresas están incorporando la inteligencia artificial en distintos ámbitos de su operativa. En la selección de personal, herramientas como HireVue o LinkedIn Talent Solutions permiten gestionar grandes volúmenes de candidaturas en tiempos reducidos. Aunque optimizan los procesos, pueden generar sesgos que afectan la equidad en el acceso al empleo. En la gestión administrativa, soluciones como Workday y UiPath mejoran la eficiencia en la administración de nóminas, permisos y beneficios, reduciendo errores y optimizando recursos. En la monitorización del desempeño, sistemas como ActivTrak y Microsoft Viva analizan patrones de trabajo en tiempo real, facilitando la toma de decisiones basada en datos. La formación de empleados también se beneficia de estas herramientas, con plataformas como Coursera for Business y Degreed, que personalizan planes de aprendizaje según las necesidades de cada trabajador. Además, en la mejora de la experiencia del empleado, los chatbots como IBM Watson Assistant facilitan la comunicación con los departamentos de recursos humanos, mientras que sistemas como Kronos Workforce Dimensions optimizan la asignación de tareas y turnos. ¿Existen normas aplicables al uso de IA en el ámbito laboral? El uso de la inteligencia artificial en el empleo se encuentra regulado en distintos niveles. En la Unión Europea, el Reglamento Europeo de Inteligencia Artificial clasifica los sistemas en función de su nivel de riesgo, diferenciando entre los de riesgo mínimo, limitado, alto e inaceptable. Esta clasificación permite definir con mayor precisión las obligaciones que deben cumplir empleadores y desarrolladores de sistemas de IA. En España, normativas como el Estatuto de los Trabajadores y la Ley Orgánica de Protección de Datos establecen principios aplicables al uso de IA en el empleo. Además, la Carta de Derechos Digitales introduce una serie de directrices sobre la transparencia y la supervisión en la utilización de estos sistemas. A nivel global, países como Estados Unidos, Canadá y Brasil están avanzando en regulaciones específicas para garantizar un uso responsable de la IA en el entorno laboral. ¿Qué garantías establece el Reglamento Europeo de IA? El Reglamento impone una serie de medidas destinadas a proteger los derechos de los trabajadores frente al uso de la inteligencia artificial en el ámbito laboral. Se prohíben aquellas tecnologías consideradas de riesgo inaceptable, como el reconocimiento de emociones en el trabajo o los sistemas que clasifiquen a los empleados en función de datos biométricos sensibles. Se establecen además obligaciones de transparencia, que requieren que los empleadores informen a sus trabajadores sobre el uso de IA en procesos de toma de decisiones que puedan afectar sus condiciones laborales. También se garantiza la supervisión humana en estos procesos y se exige la realización de evaluaciones de impacto para mitigar los posibles sesgos y discriminaciones. ¿Cómo regula la Directiva europea sobre trabajo en plataformas el uso de la IA en entornos laborales? La recién aprobada Directiva de la Unión Europea sobre trabajo en plataformas (cuya referencia completa es Directiva UE 2024/2831, del Parlamento Europeo y del Consejo) introduce un marco normativo pionero para regular la gestión algorítmica en este sector. Hasta ahora, muchas plataformas digitales han operado con modelos de contratación opacos, donde la toma de decisiones automatizada afecta directamente a las condiciones laborales de los trabajadores sin apenas control humano. La Directiva establece que debe presumirse la existencia de una relación laboral cuando se cumplen ciertas condiciones, como la imposición de tarifas, restricciones en la organización del trabajo o la evaluación del desempeño a través de algoritmos. Esto es un avance clave para evitar el falso trabajo autónomo y garantizar derechos básicos a estos trabajadores. Además, impone obligaciones específicas para las plataformas digitales en cuanto a transparencia y supervisión de la IA. Exige que los trabajadores tengan derecho a ser informados sobre cualquier sistema de IA que influya en su contratación, condiciones de trabajo o despidos. También obliga a las empresas a asegurar que siempre haya intervención y supervisión humana en las decisiones automatizadas y que los trabajadores puedan impugnar decisiones tomadas por algoritmos. Otro aspecto destacado de la pionera Directiva es la protección de los derechos de los trabajadores y sus representantes, lo que incluye la posibilidad de participar en la evaluación de los algoritmos y sus resultados. El derecho a la protección de los datos personales de los trabajadores también ocupa una posición importante, restringiendo la recopilación masiva de información personal y prohibiendo el uso de determinados sistemas de IA que invadan la privacidad o generen discriminación. Esta Directiva representa un cambio estructural en el mercado laboral digital, marcando un antes y un después en la regulación del empleo en plataformas. La implementación efectiva de estas medidas dependerá del desarrollo legislativo en cada país y del control sobre el cumplimiento de estas normas por parte de las plataformas. ¿Cómo afecta la IA a la protección de datos en el ámbito laboral? El Reglamento General de Protección de Datos y el Reglamento de IA establecen normas para proteger la privacidad de los trabajadores. El tratamiento de datos mediante inteligencia artificial debe cumplir con criterios de legitimidad y proporcionalidad. Los empleados tienen derecho a ser informados sobre cómo se utilizan sus datos y en qué medida las decisiones automatizadas pueden influir en su desempeño y trayectoria laboral. La normativa limita el uso de sistemas de IA que tomen decisiones de manera completamente automatizada sin posibilidad de revisión humana, salvo en situaciones en las que el trabajador haya otorgado su consentimiento explícito o exista una base jurídica clara que lo permita. ¿Qué derechos tienen los trabajadores frente a la IA? Los trabajadores tienen derecho a la transparencia en el uso de estos sistemas, pudiendo conocer de qué manera la inteligencia artificial impacta en sus condiciones laborales. La regulación europea también enfatiza la necesidad de garantizar la igualdad en el empleo, evitando sesgos algorítmicos que puedan generar discriminación. Además, se refuerza la obligación de supervisión humana en aquellas decisiones automatizadas que puedan afectar de manera significativa a los empleados. ¿Cómo impacta la IA en colectivos vulnerables? El estudio pone de relieve que la inteligencia artificial puede afectar de manera desproporcionada a determinados colectivos, como personas con discapacidad o en riesgo de exclusión. En algunos casos, los sistemas de IA pueden reforzar desigualdades preexistentes, ya sea por sesgos en los algoritmos o por la falta de accesibilidad en las herramientas digitales. Para mitigar estos riesgos, es necesario diseñar soluciones que sean inclusivas y adoptar medidas que garanticen la equidad en su aplicación. ¿Cómo influyen los convenios colectivos y acuerdos laborales en la regulación de la IA en el empleo? El marco normativo de la IA en el empleo no se limita a regulaciones estatales o europeas, sino que también puede definirse a través de convenios colectivos y acuerdos específicos entre empleadores y trabajadores. La negociación colectiva es un instrumento clave para garantizar que la adopción de IA en el entorno laboral respete los derechos de los trabajadores y se adapte a las particularidades de cada sector. Algunos convenios recientes han comenzado a incluir cláusulas sobre transparencia y control de la IA, estableciendo que las empresas deben informar y negociar con los representantes sindicales antes de implantar sistemas algorítmicos que afecten la contratación, evaluación o despido de empleados. También hay acuerdos que imponen garantías adicionales sobre la supervisión humana en la toma de decisiones automatizadas o que exigen auditorías externas para verificar que los sistemas de IA cumplen con principios de equidad e inclusión. En el trabajo se citan y analizan como ejemplo los convenios colectivos de Telefónica, Renault, Just Eat o Volkswagen, entre otros. Y también las referencias del V Acuerdo para el Empleo y la Negociación Colectiva (AENC) suscrito por las principales organizaciones sindicales y empresariales de España —CCOO, UGT, CEOE y Cepyme—. Otro aspecto en el que los convenios pueden jugar un papel importante es la formación en IA. A medida que la inteligencia artificial se convierte en una herramienta central en muchas empresas, los acuerdos laborales pueden garantizar que los trabajadores reciban capacitación para interactuar con estos sistemas y aprovechar sus beneficios sin que ello implique una precarización de su empleo. ¿Qué papel juegan los acuerdos y buenas prácticas en la regulación de la IA? Además de la regulación obligatoria, existen mecanismos de autorregulación que pueden complementar la normativa vigente. La inclusión de cláusulas sobre el uso de IA en convenios colectivos puede ayudar a establecer garantías adicionales para los trabajadores. Asimismo, el desarrollo de códigos de conducta y principios éticos permite orientar el uso de la IA hacia prácticas más responsables y transparentes. ¿Qué recomendaciones propone el estudio para garantizar un uso responsable de la IA en el empleo? El estudio destaca la importancia de que las empresas desarrollen marcos normativos internos que regulen el uso de la IA en su operativa. También se recomienda la creación de comités de supervisión que velen por el cumplimiento de los principios éticos y regulatorios en la aplicación de estos sistemas. La formación de los empleados en el uso responsable de la IA y la realización de auditorías periódicas para evaluar el impacto de estas tecnologías en el entorno laboral son otros elementos clave para garantizar su correcta implementación. ¿Cuáles son los principales usos de la IA en el sector público y qué retos plantea su implementación? El sector público no es ajeno a la automatización y digitalización impulsadas por la IA. En los últimos años, diferentes administraciones han comenzado a utilizar IA para optimizar procesos burocráticos, mejorar la toma de decisiones y aumentar la eficiencia en la prestación de servicios públicos. Sin embargo, su uso en la gestión del empleo público plantea desafíos específicos que requieren una regulación clara y garantías adecuadas. Uno de los principales ámbitos de aplicación de la IA en el sector público es la gestión de los procesos selectivos. Algunos sistemas de IA ya se utilizan para analizar solicitudes de empleo, evaluar méritos y competencias o incluso realizar pruebas automatizadas en concursos públicos. Aunque estas herramientas pueden hacer que los procesos sean más rápidos y eficientes, también generan preocupaciones sobre la falta de transparencia en los criterios de selección y la posibilidad de sesgos en la evaluación de candidatos. Otra aplicación relevante es la gestión del desempeño de los empleados públicos. Se han implementado herramientas que monitorizan la productividad y el cumplimiento de objetivos en tiempo real, pero esto ha generado debates sobre privacidad, vigilancia laboral y presión excesiva sobre los trabajadores. Además, en algunos países se están utilizando sistemas de IA para detectar irregularidades o malas prácticas en el sector público, analizando grandes volúmenes de datos para identificar patrones sospechosos en contrataciones o gastos administrativos. En este contexto, la regulación es fundamental para establecer límites claros sobre el uso de IA en el empleo público. Se deben garantizar principios de transparencia, asegurando que los empleados sepan qué sistemas se están utilizando y cómo afectan sus condiciones laborales. También es clave la supervisión humana, evitando que decisiones automatizadas puedan afectar de manera injusta la carrera profesional de los empleados públicos. Además, se deben desarrollar programas de formación en IA para que los trabajadores del sector público comprendan y puedan supervisar el uso de estas herramientas en su entorno laboral. A todos los actores involucrados en este inevitable proceso de incorporación de la IA en el empleo, recomendamos la lectura del Libro blanco y de las principales conclusiones y propuestas de acción que en este se formulan.  Autor de la entrada del blog: Pere Simón Castellano. Gráficos e imágenes generadas a partir del contenido de la investigación con napkinAI. Autora del prompt Rosa Cernada Badía.  Autores del entregable: Rosa Cernada Badía, Lorenzo Cotino Hueso, Antonio Merchán Murillo, Adrián Palma Ortigosa y Pere Simón Castellano. Realizado en el marco del proyecto Google Caire por OdiseIA. Versión definitiva disponible en 2025.

  • El presidente del Gobierno presenta el Observatorio de Derechos Digitales

    El presidente del Gobierno presenta el Observatorio de Derechos Digitales como un espacio esencial para un futuro digital inclusivo y parte integrante del proyecto COPID estuvo presente en la jornada. Las Comunidades de Práctica para el impulso de la Igualdad en el entorno Digital (COPID) es el proyecto seleccionado para desarrollar el convenio en el ámbito 2. Su objetivo general es fomentar - de manera conjunta entre Red.es , la Fundación ONCE (FONCE), el INSTITUTO DE DERECHOS HUMANOS ‘GREGORIO PECES-BARBA’ de la Universidad Carlos III de Madrid (UC3M) y el Observatorio del impacto social y ético de la IA (OdiseIA) - las propuestas de medidas legislativas y no legislativas para impulsar la implementación de la Carta de Derechos Digitales en el eje de los Derechos de Igualdad. En este sentido, desde las COPID participamos activamente en garantizar los Derechos en el entorno digital y en la consecución de un equilibrio entre la protección de los ciudadanos  y la innovación tecnológica. Las comunidades están dirigidas a cubrir el Derecho a la igualdad y a la no discriminación en el entorno digital;  el Derecho de acceso a internet; la Protección de las personas menores de edad en el entorno digital; la Accesibilidad universal en el entorno digital; y las Brechas de acceso al entorno digital. Para hacer llegar a la ciudadanía los avances, ventajas y retos en materia de Derechos Digitales el Observatorio de Derechos Digitales ha lanzado también la web    www.derechosdigitales.gob.es  con información de alto valor para fomentar la difusión y promover las buenas prácticas en torno a los derechos digitales.

  • ¿Cómo defender a los Sistemas Inteligentes en nuestra empresa? Taxonomía de amenazas

    ¿Imaginas que tu asistente virtual termine recomendando productos dudosos porque alguien alteró su sistema de entrenamiento? ¿O que un sistema de seguridad basado en IA confunda a un intruso con un empleado fiable? Estos escenarios, que parecerían sacados de una película de ciencia ficción, son cada vez más reales a medida que la inteligencia artificial se extiende a todo tipo de empresas y aplicaciones. Dentro del proyecto cAIre de Google , nos hemos propuesto abordar esta problemática de forma práctica. En esta primera fase, hemos desarrollado: Una taxonomía de amenazas específicas  contra sistemas de IA. Un mapeo de soluciones comerciales  que ya existen y pueden ayudarte a proteger tu negocio frente a estos riesgos. A continuación, te contamos qué hemos hecho, en qué consisten las principales amenazas, cómo defenderse de ellas y cómo puedes sumarte a este esfuerzo para construir herramientas más seguras y confiables . ¿En qué consiste nuestro trabajo? 1. Primera versión de la taxonomía de amenazas Nuestra taxonomía es básicamente un “listado organizado” de los ataques más comunes y peligrosos que sufre la IA empresarial hoy en día. Hemos identificado amenazas como el ataque adversarial , la inversión de modelo , la fuga de datos  o la inyección de prompt , entre otras. Para cada amenaza, describimos de forma sencilla qué es, por qué es peligrosa, ejemplos reales y enlaces de referencia para profundizar. 2. Análisis de soluciones comerciales No basta con conocer el problema; también hay que ver cómo combatirlo. Por ello, mapeamos las principales propuestas en el mercado que ayudan a blindar sistemas de IA. Recopilamos desde firewalls especializados para modelos de lenguaje  (LLM Firewalls) hasta plataformas de Red Teaming  (pentesting automatizado) centradas en IA, pasando por herramientas de observabilidad y monitorización . Por supuesto, no tenemos ningún tipo de relación comercial con este tipo de empresas, sino que hemos realizado un barrido de las principales soluciones del mercado. De hecho, durante la fase de difusión de la webapp, vamos a tratar de añadir el mayor número de nuevas soluciones posibles. Al final, obtuvimos una panorámica de más de 20 empresas y soluciones que protegen cada uno de los frentes que atacan a la IA. 3. WebApp interactiva Para que esta información esté fácilmente disponible (y no se pierda en un PDF estático), hemos construido una aplicación web  que muestra nuestra taxonomía de amenazas, ejemplos de cada ataque y métodos de defensa. Puedes ver la WebApp en el siguiente enlace: https://www.odiseia.org/threat-taxonomy En la WebApp, cada categoría de defensa  (por ejemplo, “LLM Firewall” o “Pentest/Red Team”) se encuentra enlazada con las amenazas  que suele ayudar a mitigar. Además, mostramos un listado de las empresas  que ofrecen soluciones específicas para cada categoría, con enlace a sus páginas oficiales para mayor detalle. Principales amenazas y métodos de defensa A grandes rasgos, algunas de las amenazas más relevantes que cubrimos son: Ataque adversarial : Pequeños cambios “invisibles” que engañan al modelo de IA. Data poisoning : Inyección de datos “tóxicos” en el conjunto de entrenamiento para desviar comportamientos. Model inversion : Extracción de información sensible sobre la base de datos que entrenó el modelo. Model jailbreak : Burlar las restricciones de un modelo (por ejemplo, un chatbot) para lograr respuestas prohibidas. Backdoor attack : Insertar un “gatillo” malicioso en el modelo para que se comporte mal únicamente bajo ciertas condiciones. Y, por supuesto, identificamos sus correspondientes métodos de defensa , que divivimos en categorías como: Observabilidad : Monitorización continua de la IA para detectar anomalías en tiempo real. LLM Firewalls : Barreras especializadas en grandes modelos de lenguaje que filtran prompts, salidas indebidas y fugas de datos. Data Leak Firewalls : Escudos que evitan el escape de información sensible o confidencial. Detection & Response : Herramientas que no solo detectan amenazas, sino que también actúan o alertan inmediatamente. Pentest/Red Team : Equipos o entornos que simulan ataques reales antes de que los “malos” los aprovechen. AI-Powered Threat Hunting : Búsqueda proactiva de patrones maliciosos usando la misma IA, pero en “modo defensor”. ¿Qué muestra la WebApp? En nuestra aplicación web (que puedes ver en el repositorio del proyecto o en la demostración adjunta) encontrarás: Lista de amenazas : Cada ataque tiene su descripción, enlaces a artículos relevantes y ejemplos de noticias reales. Mapa de defensas : Visualización interactiva de las categorías de defensa y qué ataques cubren. Empresas y soluciones : Un directorio de herramientas comerciales clasificadas según el tipo de defensa que ofrecen. La idea es que, navegando por la web, puedas entender de forma intuitiva: Qué tipo de amenazas existen. Qué métodos se recomiendan para protegerse. Qué ofertas concretas hay en el mercado. Además, dejamos abierta la posibilidad de crecer y actualizar  tanto la taxonomía como las soluciones disponibles. ¡Queremos tu ayuda! La ciberseguridad aplicada a la IA  avanza tan rápido como la tecnología misma. Por eso, necesitamos la contribución de más expertos  que nos ayuden a: Ampliar y refinar la taxonomía : ¿Hay amenazas nuevas o específicas de tu sector que no hayamos contemplado? Mejorar la WebApp : Sugiere cambios en la forma de presentar la información, funcionalidades adicionales o cualquier detalle que la haga más útil. Participar en nuestra encuesta : Queremos recopilar datos sobre qué amenazas están encontrando las empresas y los investigadores en la práctica. Tus aportes ayudarán a priorizar las defensas más críticas. ¿Cómo participar? Completa el formulario de esta página: https://forms.gle/n5PLVzYCptRH1rkDA Si trabajas en ciberseguridad, en IA o simplemente te interesa el tema , ¡tus ideas pueden marcar la diferencia para que construyamos sistemas inteligentes más seguros y confiables! Daremos reconocimiento a todos los miembros que participen . Próximos pasos Nuestro trabajo no termina aquí. Queremos seguir actualizando la taxonomía y añadir: Más ejemplos reales  de cada ataque y sus consecuencias. Opciones de herramientas open source  que no sean puramente comerciales. Casos de uso sectoriales  (finanzas, salud, industria, etc.). Generar una Guía de buenas prácticas  adaptadas a las amenazas que más se están registrando según las respuestas a la encuesta a directores y expertos en el sector. Y, por supuesto, compartir los resultados de la encuesta para que toda la comunidad se beneficie de un mejor conocimiento colectivo sobre las amenazas reales que ya se están viendo “en el campo”. En el grupo 2.8 de Ciberseguridad de Sistemas Inteligentes para Empresas (proyecto cAIre de Google), nuestro objetivo es que cada organización pueda adoptar la IA con confianza , sabiendo que existen estrategias y soluciones para enfrentar los ataques más sofisticados. Con la ayuda de la comunidad y de expertos interesados, esperamos mejorar constantemente y proteger mejor nuestras tecnologías del mañana .

  • IA Y VULNERABILIDAD HUMANA: UNA LLAMADA A CONECTAR CON ORGANIZACIONES Y EMPRESAS

    Autores: Begoña González, Juan Jose Escribano, Ramón Baradat, Fabian García, Hugo Ramallo, Andrea Stechina, miembros de los grupos 1.4 y 1.5, Proyecto cAIre de OdiesIA. La vulnerabilidad es una condición intrínseca al ser humano. Como ya señalamos en la entrada de blog « AI for Good: La idea de la vulnerabilidad humana en tela de juicio », todos somos vulnerables, pero las circunstancias sociales, económicas o de salud amplifican esta realidad en ciertos colectivos. Personas mayores, migrantes, víctimas de violencia de género, personas con discapacidad o en exclusión social enfrentan desafíos que la tecnología, específicamente los sistemas de IA, puede ayudar a acentuar o a mitigar. Si nos centramos en el aspecto positivo, la capacidad de mitigación de vulnerabilidades a través del uso de sistemas de IA, el potencial de esta herramienta es inmenso. Pero este impacto positivo solo es posible si quienes trabajan en estas tecnologías adoptan enfoques éticos, sostenibles y centrados en las personas. La inclusión en la IA, como ya hemos apuntado , es cosa de todos. En la búsqueda de conectar con empresas y organizaciones que utilizan sistemas de IA para apoyar a personas vulnerables, encontrarse con obstáculos puede parecer inevitable. Desde la falta de respuesta en la comunicación hasta la falta de claridad en sus misiones, estas barreras reflejan desafíos sistémicos más amplios en lugar de casos aislados. Los conocimientos obtenidos de investigaciones recientes, incluyendo un análisis de los esfuerzos de acercamiento a organizaciones y de sus modelos de negocio, arrojan luz sobre por qué persisten estas dificultades y qué se puede hacer para superarlas. La complejidad de identificar actores en IA y vulnerabilidad En los meses que llevamos trabajando en este proyecto, y a pesar del potencial transformador de la IA, conectar con empresas y organizaciones que realmente desarrollan soluciones enfocadas en la vulnerabilidad humana es sorprendentemente complicado. Un reciente análisis de nuestros esfuerzos por contactar a organizaciones que trabajan con IA para colectivos vulnerables ha puesto de manifiesto varios retos: Mensajes poco claros: Muchas organizaciones utilizan un lenguaje genérico o ambiguo en sus comunicaciones, dificultando la comprensión de sus objetivos y acciones concretas. Falta de respuestas: De casi 300 organizaciones contactadas, menos de un 10% respondió positivamente, mientras que la mayoría no ofreció seguimiento alguno. Desconocimiento del impacto de la IA: En muchos casos, las organizaciones no monitorean y evalúan el impacto real de sus herramientas, lo que genera dudas sobre su compromiso y efectividad​. Estos obstáculos no son insuperables, pero reflejan un ecosistema fragmentado donde aún queda mucho por mejorar, y, por tanto, mucho espacio para la innovación y para emprendedores. Modelos de negocio para el bien social en IA El informe de GSMA Intelligence de 2018 Scaling Big Data for Social Good  ya subrayaba que los modelos de negocio son fundamentales para garantizar la sostenibilidad y el impacto de las iniciativas de IA en el ámbito de la vulnerabilidad​. Analicemos los principales enfoques y cómo generan valor: 1. Modelos filantrópicos y donaciones subsidiadas: Proyectos impulsados por filantropía o subsidios externos suelen ser el punto de partida. Aunque útiles para lanzar iniciativas y ganar confianza, carecen de la sostenibilidad necesaria para un impacto a largo plazo. Por ejemplo, la Cruz Roja  ha integrado tecnologías de big data e IA para mejorar la atención a mujeres víctimas de violencia de género. Mediante el análisis de datos, han optimizado la identificación de perfiles, mejorado la contactabilidad y reducido el desuso de sus servicios, permitiendo una atención más personalizada y efectiva. Valor generado : Acceso gratuito a soluciones innovadoras para colectivos vulnerables, lo que genera confianza inicial y atención a necesidades urgentes. 2. Modelos escalonados: Proporcionan servicios básicos gratuitos y reservan características avanzadas para usuarios que pueden pagar. Un ejemplo lo encontramos en LUP . Fundada por Apurva San Juan y Eneko Calvo, esta empresa ha desarrollado un dispositivo que convierte texto en audio en menos de dos segundos, utilizando IA y visión computacional. Este dispositivo está diseñado para personas con baja visión, dislexia o vista cansada. Ofrecen diferentes modelos a partir de 549 euros, con funciones avanzadas como conexión Bluetooth y traducción en 30 idiomas, permitiendo accesibilidad a diversos segmentos de la población. Valor generado: Democratizan el acceso a la tecnología al tiempo que aseguran la sostenibilidad financiera del proyecto. 3. Modelos colaborativos: Involucran a actores públicos, privados y ONGs en proyectos conjuntos, aprovechando recursos, conocimientos y redes. Un ejemplo es la startup española SocialDiabetes , que lidera el consorcio SmartDiabetes , que ha recibido financiación de la Unión Europea para desarrollar nuevos modelos de asistencia sanitaria basados en valor. Integran una plataforma de terapia digital que utiliza IA para mejorar la autogestión de la diabetes, beneficiando a millones de personas en Europa. Valor generado: Aumentan la escala y eficacia de las soluciones al integrar perspectivas y habilidades diversas. 4. Subsidios cruzados: Empresas destinan parte de sus ingresos de proyectos comerciales para financiar iniciativas sociales. Un ejemplo lo encontramos en ROAM , una startup palentina que ha desarrollado un modelo laboral que retiene talento cualificado en la España vaciada, combinando competitividad con un enfoque humano y sostenible. Aunque no se centra exclusivamente en IA, su modelo de negocio incluye la gestión de servicios esenciales, donde la tecnología juega un papel clave para ofrecer atención personalizada y eficiente. Valor generado: Permiten desarrollar herramientas sociales sin comprometer recursos exclusivamente en un modelo de donación. Generación de valor más allá de lo económico El éxito de estas iniciativas basadas en el uso de sistemas de IA no debe evaluarse únicamente desde una perspectiva financiera, sino por su capacidad para generar valor social y ético. Estas tecnologías pueden transformar vidas al facilitar el acceso a oportunidades de empleo, servicios de salud, educación o recursos básicos, empoderando a las personas vulnerables. Además, el desarrollo de sistemas de IA adaptadas a las necesidades específicas de cada colectivo y libre de sesgos contribuye a reforzar la inclusión y la equidad. Los sistemas de IA también tienen el potencial de generar un impacto sistémico al optimizar recursos y decisiones, desde la prevención de desastres hasta el monitoreo de epidemias, beneficiando a comunidades enteras. Todo esto debe complementarse con un enfoque que priorice la ética y la privacidad, fortaleciendo la confianza tanto de los beneficiarios como de la sociedad en general, y garantizando que estas herramientas se utilicen de manera justa y responsable. Construyendo un futuro más inclusivo A pesar de los desafíos, nuestros grupos de investigación están convencidos de que construir un ecosistema inclusivo y eficaz que aproveche el potencial de la IA para apoyar a personas vulnerables es no solo posible, sino esencial. La clave radica en adoptar enfoques estratégicos que prioricen la transparencia, la sostenibilidad y el impacto social duradero. Aquí algunas estrategias fundamentales para lograrlo: Comunicación clara y accesible : Es fundamental que las empresas y organizaciones comuniquen con claridad cómo sus soluciones de IA están ayudando a las personas vulnerables. Esto incluye explicar sus objetivos, beneficios y posibles riesgos de forma transparente y accesible. Publicar informes de impacto y mantener canales abiertos para el diálogo con la sociedad civil y los beneficiarios es esencial para construir confianza. Por ejemplo, el concepto de “lectura fácil” ( easy read ) es un método de crear documentos que son más fáciles de entender. Los sistemas de IA, como en el caso de ATECA , pueden ayudar a organizaciones y empresas en la redacción de documentación, y luego convertir información compleja en “lectura fácil”. Así no solo se comunica de manera clara y accesible, sino también se ayuda a la ganancia de lectores, incrementando el impacto social. Pilotaje con propósito : Los proyectos piloto deben diseñarse pensando en la sostenibilidad desde el principio. Esto significa definir objetivos claros y medibles, identificar rutas para escalar las soluciones y considerar aspectos como el impacto ambiental y social. No basta con probar una idea; se debe garantizar que tenga un futuro viable y duradero. Por ejemplo, la herramienta RiD , que se ha desarrollado para ayudar al desarrollo de software inclusivo para usuarios con una discapacidad específica, y tiene en cuenta estas necesidades a lo largo de todo el ciclo de vida del producto. Fomento de alianzas intersectoriales : La colaboración entre sectores público y privado, organizaciones no gubernamentales e instituciones académicas permite combinar recursos y conocimientos para abordar problemas complejos de manera más efectiva. Estas alianzas son imprescindibles para desarrollar soluciones robustas y equitativas. Evaluación continua del impacto : implementar mecanismos regulares de evaluación que midan tanto los resultados cuantitativos como el impacto cualitativo de las soluciones. Esto incluye recopilar las experiencias de las personas vulnerables para ajustar y mejorar las estrategias. Por ejemplo, el informe de 2018 explica como en Finlandia, Telia  utiliza sistemas de IA para analizar patrones de movilidad que mejoran la planificación urbana. Evalúan continuamente el impacto social y ajustan sus herramientas para responder a las necesidades de los usuarios y de los responsables de las políticas públicas. Inversión en capacitación y alfabetización digital: Para que las soluciones de IA tengan un impacto inclusivo, es imprescindible capacitar a las personas vulnerables. Esto no solo implica enseñarles a usar la tecnología, sino también a comprender sus implicaciones y a participar activamente en su desarrollo. Involucrar a personas vulnerables desde el principio: Creemos que las soluciones más efectivas son aquellas diseñadas con la participación activa de las personas a las que van dirigidas. Escuchar sus necesidades y contextos garantiza que las herramientas de IA sean útiles, respetuosas y relevantes. Una llamada a conectar Sabemos que hay más organizaciones y empresas comprometidas en desarrollar soluciones innovadoras para colectivos vulnerables, pero muchas veces no logramos establecer contacto. Por eso mismo queremos proponerte dos maneras de conectar: OdiseIA ha lanzado el I Hackaton Internacional de IA para colectivos vulnerables , OdiseIA4Good . A finales de febrero (25, 26 y 27 de febrero, 2025) esperamos convocar a hackers, emprendedores y personas que quieran aportar y enriquecer perspectivas en grupos multidisciplinares en el desarrollo de soluciones basadas en sistemas de IA cuya finalidad sea ayudar a mitigar y solucionar cuestiones de vulnerabilidad humana. Si el Hackaton no encaja bien en tu agenda, ¡queremos conocerte! Escríbenos a bgotero@odiseia.org   o   fabian.garcia@odiseia.org   y cuéntanos tu caso de uso.  Juntos podemos transformar ideas en acción y asegurar que nadie quede atrás.

  • Ventajas y Riesgos de la IA Generativa en las Profesiones Culturales y Creativas

    María de Miguel Molina, Universitat Politecnica de Valencia* Como ya se ha indicado en otros posts dentro del proyecto cAIre de Odiseia , la IA generativa (IAGen) nos hace replantearnos el concepto de vulnerabilidad. Si observamos distintos estudios de nuestro directorio, hay profesiones u ocupaciones que potencialmente se ven más afectadas por esta tecnología disruptiva. Dentro de este Impacto en el Empleo, el subgrupo 2.6 (Ventajas y Riesgos de IA) es el encargado de Identificar beneficios y riesgos de la IA en el mercado laboral, especialmente para grupos vulnerables. Aquí se ha realizado una primera aproximación para analizar cómo la IAGen puede suponer oportunidades y amenazas para algunas profesiones que tienen su base en la propiedad intelectual, los derechos de autor y la creatividad. Para ello, además del estudio de distintos documentos, se ha enviado un cuestionario a profesionales del sector para contrastar su experiencia en el uso de estas herramientas y los interrogantes que plantean. ¿Podemos entender a las Industrias Culturales y Creativas como Grupos Vulnerables? Desde el punto de vista económico, algunas profesiones de las Industrias Culturales y Creativas (ICCs) se sienten amenazadas por estas herramientas cuando se utilizan como sustitutos de su trabajo y no como una ayuda. Además, hay una gran desconfianza sobre el uso de material propio sin consentimiento o sin una compensación por su explotación.  Algunas empresas de AIGen han adquirido los derechos de creadores de contenido o se han adherido a certificados de confianza, pero no siempre se conoce de dónde proviene el material utilizado. Un ejemplo de buena práctica lo encontramos en LifeScore , una empresa británica que, desde 2016, trabaja con los compositores un modelo de negocio basado en las personas ( human-centred approach ), conservando su autoría y centrándose en la calidad del producto. Se han adherido a Fairly Trained , un certificado para cualquier producto o servicio de IA que garantiza no utilizar material protegido sin consentimiento del autor.  En cualquier caso, esta amenaza depende del sector específico de las ICCs al que nos refiramos. Los profesionales del videojuego, ilustración y traducción son los más preocupados por su posible sustitución por herramientas que, por otro lado, no cuentan con un control de calidad de todo el proceso ni generan el mismo valor. Otras profesiones, como la música, arquitectura, diseño o audiovisual, al distinguir su uso sólo en alguna etapa del proceso creativo no se sienten tan relegadas. Y, finalmente, los profesionales de la comunicación son los menos intimidados porque ya las han integrado en su trabajo. ¿Esto significa que las ICC no están utilizando herramientas de IAGen? En pocos casos no se usa ninguna, pero si se usan es de manera distinta. Como podemos observar en la imagen, la gran estrella es ChatGPT. Y ello no porque se utilice en todo el proceso, sino porque se le da un uso más de apoyo, incluso fuera del proceso creativo (como es el caso de los sectores más “vulnerables”). Por ejemplo, se utiliza para buscar información, sugerir por dónde empezar o resumir ideas. Este también sería el caso de Perplexity o Gemini. Otras son herramientas de largo recorrido que han incluido la IA, como Adobe, PhotoShop o Canva. En tercer lugar, tendríamos el grupo de herramientas que son específicas para generar contenidos alternativos, como Davinci, Runway o Midjourney. Algunas herramientas con IAGen utilizadas por profesionales de las ICCs Fuente: Elaboración propia, a partir de los cuestionarios (diciembre 2024-enero 2025) ¿Y qué sucede con los grupos tradicionalmente vulnerables? Los profesionales, además de verse algunos de ellos (económicamante) vulnerables, distinguen dos grupos. Por un lado, los vulnerables tradicionales, especialmente personas mayores para las que ha aumentado la brecha digital con la IA. Frente a ello, hay herramientas de IAGen que sí tienen en cuenta a personas con capacidades especiales. Por ejemplo, DeepL  es una empresa alemana para traducción automática que, en 2018, incorporaron IA y la adaptaron a personas con capacidades especiales junto a Fable , otra empresa especializada en la co-creación  digital con colectivos vulnerables para garantizar la accesibilidad.  A estos grupos vulnerables tradicionales, podríamos añadir las personas que no pueden pagar algunos servicios “extra” de IAGen. Los profesionales coinciden en que, como en muchas aplicaciones, las versiones demo son gratuitas pero las que se utilizan a nivel profesional son de pago. El segundo grupo vulnerable para los profesionales de las ICCs serían aquellos jóvenes que se incorporan al mercado laboral y, o bien carecen de formación en IA, o las tareas por las que empiezan son precisamente aquellas sustituibles por una IAGen. Estos necesitan encontrar su hueco en un entorno nuevo, sin desmotivar su creatividad. En resumen, ¿cuáles son las necesidades actuales y futuras de las ICCs? Las podemos catalogar en tres grupos: Las que dependen de las empresas de IA: transparencia en el proceso, ética en el uso de contenidos, co-creación con los autores y los grupos vulnerables. Las que dependen de los centros educativos: especialmente formación, no sólo en las herramientas sino también en su uso desde el pensamiento crítico y su desarrollo con enfoques basados en las personas. Las que dependen de los policymakers : co-definición de los problemas con los distintos grupos de interés, para desarrollar las políticas públicas adecuadas. Las ICCs han pasado por muchos momentos de adaptación y esa creatividad de la que disponen les hace perfectamente resilientes para seguir adelante, pero el camino para hacerlo con éxito es un trabajo de todo el sistema, con la participación de los grupos de interés. *M. de Miguel ( mademi@omp.upv.es ) trabaja en la Universitat Politecnica de Valencia las políticas y estrategias para las ICCs, junto a los profesores B. de Miguel y D. Catalá.  El subgrupo 2.6 está integrado por: Manuel Ruiz del Corral, Jeremy Mederos, Idoia Salazar y María de Miguel. Las conclusiones del proyecto se publicarán a finales de 2025.

  • 🌍 ¿Sabías que el 70% de los migrantes forzosos carecen de acceso adecuado a herramientas digitales esenciales?

    Nuestro reciente proyecto, "Inteligencia Artificial e Inclusión Inmigrante: Gobernanza Ética y Soluciones desde Italia y el Vaticano" , revela las barreras tecnológicas que enfrentan los migrantes y propone soluciones innovadoras basadas en IA ética y responsable. 🔍  Hallazgos clave: 80% identifica la falta de digitalización como un obstáculo laboral. 45% de los sistemas de IA presentan sesgos que impactan en el empleo y la vivienda. Directrices como el Artificial Intelligence Act  y el Reglamento General de Protección de Datos (RGPD)  son fundamentales para garantizar inclusión y equidad. 💡 Descubre cómo promovemos la equidad laboral, la protección de datos y el acceso digital para todos. Únete a la conversación y construyamos un futuro más inclusivo. 💻🤝 👉  Descarga nuestro plan de trabajo aquí: 👉 Y nuestra infografía explicativa: #IAÉtica #MigraciónDigital #DerechosHumanos #InclusiónTecnológica

  • Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It 1

    Sonsoles de la Lastra Olalquiaga, IE University Dr. Richard Benjamins, Observatory for Social and Ethical Impact of AI In today's tech-driven world, artificial intelligence (AI) holds immense promise for shaping our future. From revolutionizing industries to enhancing everyday experiences, AI has the potential to bring about transformative change. However, amidst the excitement, there are significant societal risks as evidenced by several AI incidents, as highlighted in "Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It" by Sonsoles de la Lastra Olalquiaga and Dr. Richard Benjamins. Through a rigorous analysis of over 750 documented incidents worldwide sourced from the OECD’s AI incidents monitor and the AIAAIC Repository, we open our eyes to the reality that, while AI offers great promise, it also presents risks, particularly for vulnerable communities. Instances of "non-physical harm" account for a striking 96% of these incidents, ranging from algorithmic bias to data privacy breaches and misinformation dissemination. These incidents underscore the need for cautious and responsible deployment of AI technologies. Geographically, AI incidents are concentrated in regions like the United States, the United Kingdom, and Germany, highlighting the global nature of the issue. This geographical insight emphasizes the importance of collaborative efforts and international cooperation in addressing these challenges effectively. By sharing best practices, exchanging knowledge, and establishing common frameworks, stakeholders can work together to mitigate the risks associated with AI deployment and ensure its responsible use across borders. The report also delves into the role of major tech corporations in managing AI's ethical challenges. From ensuring algorithmic transparency to addressing biases in AI systems, these corporations play a crucial role in shaping the future of AI. However, the report underscores the importance of corporate accountability and responsible practices in navigating the ethical complexities of AI development and deployment.   Despite these challenges, there's an opportunity for positive change. Through transparent and ethical AI deployment, we can leverage its potential to address pressing societal issues, from healthcare and education to climate change and social justice. "Another Inconvenient Truth" serves as a call to action, urging policymakers, industry leaders, and researchers to navigate the complexities of AI responsibly.  It's essential to acknowledge the possible negative effects of artificial intelligence on society in order to collaborate toward a future in which AI maximizes its outstanding potential.  The report can be downloaded in the following link:  Title inspired by Al Gore's groundbreaking book, "An Inconvenient Truth: The Planetary Emergency of Global Warming and What We Can Do About It” (2006) https://oecd.ai/en/incidents https://www.aiaaic.org/aiaaic-repository

  • AI for Good: La idea de la vulnerabilidad humana en tela de juicio

    Autora: Dra. Begoña G. Otero, miembro de OdiseIA e investigadora perteneciente al subgrupo «AI for Good», cAIre Research Project. Introducción: La vulnerabilidad humana en tiempos de las tecnologías de IA Vivimos en un mundo en el que los sistemas de IA pueden utilizarse para predecir nuestro próximo movimiento, sugerir productos y servicios que no sabíamos que queríamos o incluso decidir si nos conceden un préstamo o un tratamiento médico. Emocionante, ¿verdad? Sin embargo, he aquí la otra cara de la moneda: ¿y si esta misma tecnología se utiliza para aprovecharse de nuestras debilidades, influye sutilmente en nuestras decisiones, daña nuestra integridad o profundiza las desigualdades sociales? Si estas posibilidades os generan inquietud, no estáis solos. El rápido avance de las tecnologías de IA plantea importantes cuestiones sobre la vulnerabilidad humana. ¿Qué significa ser vulnerable en el contexto de la IA? ¿Cómo podemos garantizar que estas tecnologías nos ayuden en lugar de perjudicarnos? Estos interrogantes no son sólo académicos; nos afectan a todas y a todos en nuestra vida cotidiana. En las siguientes líneas vamos a profundizar en el concepto de vulnerabilidad; a explicar cómo ha evolucionado a lo largo del tiempo, y cómo distintas teorías de diferentes campos del conocimiento pueden ayudarnos a entenderlo mejor en el contexto de la IA. Asimismo, este blogpost proporciona ejemplos concretos que ilustran estas teorías y plantea la pregunta de si la concepción actual de la vulnerabilidad humana es adecuada en el contexto de las tecnologías de la IA. Como investigadora de las aplicaciones de uso positivas de la IA para ayudar a personas vulnerables, es crucial definir qué significa vulnerabilidad en la era de la IA antes de que podamos sacarle todo el partido a su potencial para hacer el bien. La evolución del concepto de vulnerabilidad La idea de vulnerabilidad es tan antigua como la propia humanidad, pero su definición ha evolucionado significativamente con el tiempo. Vamos a hacer un recorrido por su historia para entender cómo se aplica hoy en día, especialmente en el contexto de las tecnologías de IA. Las primeras interpretaciones de la vulnerabilidad Históricamente, la vulnerabilidad se ha considerado a menudo como una condición estática. Por ejemplo, a principios de la década de 1980, el  politólogo Robert Goodin  definió la vulnerabilidad como la «susceptibilidad al daño de los propios intereses». Goodin sostenía que los más vulnerables a nuestras acciones y negligencias son aquellos a los que debemos mayor responsabilidad. Esta perspectiva vinculaba directamente la vulnerabilidad con la responsabilidad y la rendición de cuentas. Pensemos, por ejemplo, en las personas mayores que dependen de cuidadores. La teoría de Goodin sugeriría que la sociedad tiene una mayor responsabilidad de proteger a estas personas porque son más susceptibles de sufrir daños. Un cambio de perspectiva: La vulnerabilidad universal Con el tiempo, los académicos empezaron a considerar la vulnerabilidad tanto una condición de grupos específicos como un aspecto universal de la condición humana. Martha Fineman , una destacada teórica jurídica, introdujo el concepto de «sujeto vulnerable». Sostenía que todos los seres humanos somos intrínsecamente vulnerables debido a nuestro cuerpo físico y a nuestra dependencia de las relaciones sociales y las instituciones. Esta visión desplaza la atención de la protección de grupos específicos al reconocimiento de la vulnerabilidad como un rasgo humano fundamental. La teoría de Fineman ayuda a explicar por qué las personas pueden sentirse vulnerables en distintas etapas de la vida, tales como la infancia, la enfermedad o el envejecimiento. Subraya la necesidad de estructuras sociales que apoyen a todos, no sólo a determinados grupos. La vulnerabilidad contextual y relacional Teorías más recientes subrayan que la vulnerabilidad no es sólo un rasgo humano universal, sino también muy contextual y relacional. La eticista Florencia Luna , por ejemplo, ha propuesto la idea de «capas (no etiquetas) de vulnerabilidad». Según Luna, la vulnerabilidad varía en función de la situación, el momento y el lugar del individuo. Este enfoque por capas permite una comprensión más matizada de cómo los distintos factores contribuyen a la vulnerabilidad de una persona en distintos momentos. Por ejemplo, una mujer embarazada puede experimentar una mayor vulnerabilidad debido a los riesgos para su salud y a las expectativas sociales. Sin embargo, su vulnerabilidad no es estática; cambia con su salud, sus sistemas de apoyo y su situación socioeconómica. Un examen comparativo de estas teorías de la vulnerabilidad más representativas en distintos campos de la ciencia permite extraer una serie de conclusiones. La vulnerabilidad es un aspecto inherente a la humanidad, específico de los seres vivos y relacional. Los desequilibrios de poder ocupan un lugar central en su conceptualización teórica, y existen dos enfoques para abordarla: la reparación de los daños de forma colectiva o el empoderamiento de los individuos. Por último, la ética y el derecho a menudo adoptan un enfoque de etiquetaje de la vulnerabilidad, proporcionando listas de poblaciones vulnerables. Sin embargo, como ha mencionado Luna , la estratificación por capas abre la puerta a un enfoque mucho más interseccional y enfatiza su potencial acumulativo y transitorio. Las teorías vigentes sobre la vulnerabilidad frente a las tecnologías de IA: algunos ejemplos concretos Para comprender mejor el impacto de las tecnologías de IA en la vulnerabilidad humana y si los enfoques existentes sobre este concepto son suficientes, es vital explorar al menos algunas de las teorías más relevantes sobre la vulnerabilidad y sustentarlas con ejemplos del mundo real. Estas teorías nos ofrecen un marco para comprender las distintas dimensiones y contextos de la vulnerabilidad. El modelo de vulnerabilidad de Goodin El modelo de Robert Goodin subraya la idea de que la vulnerabilidad está estrechamente ligada a la dependencia y la responsabilidad. Según Goodin, aquellos que son más vulnerables a nuestras acciones son aquellos de los que somos más responsables. En el contexto de la IA, pensemos en los sistemas automatizados de toma de decisiones en la atención sanitaria. Los pacientes que confían en la IA para su diagnóstico y tratamiento son vulnerables a los errores y sesgos del sistema. Por tanto, los proveedores de asistencia sanitaria deben asumir una gran responsabilidad a la hora de garantizar la exactitud e imparcialidad de estos sistemas de IA para proteger a los pacientes vulnerables. Pero, ¿es éste el mejor camino? La teoría del sujeto vulnerable de Fineman La teoría de Martha Fineman postula que la vulnerabilidad es una condición humana universal. Sostiene que nuestras dependencias físicas y sociales inherentes nos hacen a todos vulnerables, y que la sociedad debe estructurarse para apoyar a todos y no sólo a grupos específicos. Las plataformas de redes sociales que utilizan algoritmos y sistemas de IA para moderar contenidos pueden afectar a todos los usuarios, especialmente cuando los algoritmos no reconocen los matices de la comunicación humana. Esto puede conducir a una censura injusta o a la difusión de contenidos nocivos, afectando a la vulnerabilidad de todos ante la desinformación y el acoso. Sin embargo, ¿hasta qué punto permiten nuestros ordenamientos jurídicos asignar responsabilidades a estas plataformas?  Las capas de vulnerabilidad de Luna El concepto de capas de vulnerabilidad de Florencia Luna sugiere que la vulnerabilidad no es estática, sino que varía en función de las circunstancias del individuo. Este enfoque por capas tiene en cuenta factores como el estatus, el tiempo y la ubicación. Los trabajadores de la economía colaborativa  que utilizan plataformas basadas en IA, como las aplicaciones para compartir desplazamientos ( ride-sharing apps),  pueden experimentar diferentes niveles de vulnerabilidad. Un conductor puede ser más vulnerable durante los turnos nocturnos debido a problemas de seguridad y a la fluctuación de la demanda. Su entorno laboral, su situación económica y el diseño de la plataforma de IA influyen en su vulnerabilidad. Sin embargo, ¿se tienen realmente en cuenta estas capas a la hora de diseñar este tipo de servicios comerciales? ¿Es la vulnerabilidad siquiera un factor que tengan en cuenta los propietarios de estas plataformas? ¿Debería serlo? Las críticas y mejoras de Kohn Nina Kohn  criticó la teoría de Fineman por su potencial para dar lugar a políticas públicas excesivamente paternalistas y estigmatizadoras. Sugirió mejorar dicha teoría para defender mejor las libertades individuales sin dejar de abordar las vulnerabilidades. La autora aboga por un enfoque ponderado que tenga en cuenta tanto la protección como la autonomía. Un ejemplo de su planteamiento sería el caso de los sistemas de vigilancia por IA que se están implantando ampliamente en los espacios públicos con fines de seguridad pública, lo que podría vulnerar los derechos individuales a la intimidad, haciendo que las personas se sientan constantemente vigiladas y pudiendo dar lugar a un uso indebido de los datos. Además, estos sistemas podrían dirigirse de forma desproporcionada a determinadas minorías raciales o étnicas, exacerbando los prejuicios existentes y dando lugar a un trato injusto. La perspectiva de Kohn haría hincapié, entre otras cosas, en la necesidad de (a) implantar obligaciones de transparencia sobre cómo se hace uso de la tecnología, qué datos se recopilan, cómo se almacenan y protegen; (b) establecer mecanismos de supervisión sólidos para garantizar que la vigilancia mediante IA se utiliza de forma ética y legítima; y (c) restringir el ámbito de uso a zonas públicas o situaciones en las que sea realmente necesario por motivos de seguridad pública. Como resultado, la implantación de un sistema de vigilancia por IA en un espacio público podría incluir un rótulo claro que informe a los ciudadanos sobre la vigilancia y el uso de los datos, un sitio web dedicado para el acceso público a información detallada, auditorías independientes periódicas y mecanismos para que las personas puedan dar su opinión o presentar quejas. Este equilibrio entre protección y autonomía es crucial a la hora de diseñar normativas sobre IA que respeten tanto la seguridad como la libertad. Las vulnerabilidades potenciales y ocurrentes de Mackenzie La  filósofa Catriona Mackenzie  introdujo la distinción entre vulnerabilidades potenciales o disposicionales y ocurrentes. Las vulnerabilidades potenciales se refieren a un estado con riesgo de daño, pero tal riesgo no es de momento concreto y tangible. Implica que existen ciertas condiciones que podrían provocar daños, pero que en la actualidad no causan ningún peligro inmediato. Por otro lado, la vulnerabilidad ocurrente es un estado de vulnerabilidad concreto y tangible en el que el riesgo se ha hecho inminente o se está produciendo un daño real. Este tipo de vulnerabilidad requiere una acción inmediata para prevenir o mitigar el daño. Su distinción es significativa porque ayuda a identificar si las vulnerabilidades requieren una intervención inmediata o medidas preventivas para evitar daños futuros. También permite dar respuestas más específicas y eficaces a los distintos tipos de vulnerabilidades. En este sentido, pensemos en los sistemas de IA utilizados en la vigilancia policial predictiva. Las vulnerabilidades potenciales podrían incluir el riesgo de que comunidades específicas sean objeto de ataques injustos basados en IA predictiva entrenada con datos históricos. Las vulnerabilidades ocurrentes tienen lugar cuando las prácticas policiales existentes dan lugar a un exceso de vigilancia y control de estas comunidades, lo que genera desconfianza y perjuicios. Otro ejemplo de vulnerabilidad potencial podría ser un sistema de IA diseñado para procesos de contratación que utilice un conjunto de datos procedentes de datos de entrenamiento que contengan sesgos sutiles, como preferencias históricas por determinados grupos demográficos en detrimento de otros. El uso de un sistema de este tipo puede dar lugar a una vulnerabilidad disposicional al tomar sus usuarios decisiones sesgadas, con el consiguiente potencial de discriminación. En el caso de las vulnerabilidades ocurrentes, se podría considerar un sistema de IA diseñado para gestionar transacciones financieras, que detecte un patrón inusual que indique un ciberataque en curso. Los protocolos de seguridad del sistema se están viendo activamente comprometidos, lo que permite el acceso no autorizado a datos financieros sensibles. Los usuarios de este sistema de IA son en ese momento vulnerables porque el riesgo se ha materializado y necesitan una acción inmediata para mitigar el daño. Implicaciones prácticas de estas teorías Entender estas teorías nos ayuda a reconocer las formas multidimensionales en que las tecnologías de IA pueden afectar a la vulnerabilidad humana. Por ejemplo, la identificación de vulnerabilidades potenciales puede informar el diseño proactivo de sistemas de IA para mitigar los riesgos antes de que se materialicen. Además, reconocer la naturaleza en capas de la vulnerabilidad garantiza que las aplicaciones de IA tengan en cuenta las diversas circunstancias de los distintos grupos de usuarios. Una propuesta de taxonomía para entender la vulnerabilidad en el contexto de las tecnologías de IA Los ejemplos anteriores demuestran que es esencial desarrollar una taxonomía exhaustiva para abordar la naturaleza compleja y polifacética de la vulnerabilidad en el contexto de la IA. Esta taxonomía debería tener en cuenta diversos factores que contribuyen a la vulnerabilidad humana y ofrecer un enfoque estructurado para identificar y mitigar estas vulnerabilidades. Sobre la base de las teorías debatidas y de las ideas extraídas de la literatura, he aquí una serie de factores que, si se tienen en cuenta, pueden ayudar a descubrir mejor la vulnerabilidad humana en el contexto de las tecnologías de IA. Condiciones demográficas y socioeconómicas Las condiciones demográficas y socioeconómicas desempeñan un papel importante a la hora de determinar la vulnerabilidad en el espacio digital. Ciertos grupos pueden ser más susceptibles de sufrir daños debido a su edad, sexo, nivel educativo, ingresos o etnia. Estos factores pueden crear desventajas que se ven exacerbadas por las tecnologías de IA. Los ciudadanos de más edad pueden tener dificultades con los servicios bancarios en línea basados en IA debido a su falta de alfabetización digital, lo que les hace más vulnerables al fraude o a los errores. Aspectos psicosociales Las características psicosociales, como la salud mental, el estado emocional y las capacidades cognitivas, influyen en la forma en que las personas interactúan con los sistemas de IA y pueden afectar a su susceptibilidad a la manipulación o al daño por parte de las tecnologías de IA. Las personas con problemas de salud mental pueden ser más vulnerables a los algoritmos de IA que se dirigen a ellas con anuncios de productos potencialmente nocivos, como el juego o el alcohol. Competencias y alfabetización relacionadas con la IA Los conocimientos y habilidades de un usuario relacionados con la IA pueden influir significativamente en su vulnerabilidad. Las personas con conocimientos limitados sobre el funcionamiento de la IA o sobre cómo navegar por los sistemas basados en IA pueden correr un mayor riesgo de explotación o daño. Los consumidores que necesitan ayuda para entender cómo funcionan los algoritmos de recomendación pueden ser más propensos a caer en sugerencias de productos engañosas o información sesgada. Factores contextuales, relacionales y situacionales El contexto en el que se utilizan las tecnologías de IA puede crear vulnerabilidades situacionales. Estos factores incluyen el entorno, el tiempo y las circunstancias específicas en las que se emplea un sistema de IA. Los trabajadores de la economía colaborativa que utilizan plataformas basadas en IA pueden enfrentarse a vulnerabilidades relacionadas con la seguridad del empleo y las condiciones de trabajo, que pueden variar significativamente en función de la ubicación y la demanda. Desequilibrios de poder y asimetrías de información Los desequilibrios de poder entre desarrolladores y usuarios de IA, así como las asimetrías de información, contribuyen a la vulnerabilidad. A menudo, los usuarios carecen de los conocimientos o los recursos necesarios para comprender plenamente o cuestionar los sistemas de IA, lo que les coloca en desventaja. Las plataformas de redes sociales que utilizan IA para seleccionar contenidos pueden manipular el comportamiento de los usuarios mediante la maximización algorítmica de la participación sin que los usuarios comprendan plenamente el alcance de esta influencia. Factores temporales El momento y la duración de las interacciones con la IA pueden influir en la vulnerabilidad. Algunas vulnerabilidades pueden ser coyunturales y a corto plazo, mientras que otras pueden ser duraderas y crónicas. La vulnerabilidad financiera temporal debida a la pérdida del empleo puede hacer que las personas sean más susceptibles a los servicios de préstamos predatorios controlados por sistemas de IA. Conclusiones: ¿Necesitamos replantearnos qué es la vulnerabilidad humana en el contexto de la IA? La clasificación anterior es un primer intento de abordar de forma estructurada la cuestión de la vulnerabilidad en el contexto de la IA. Está abierta a correcciones y modificaciones en el transcurso de este proyecto de investigación y está abierta a comentarios externos. Aunque es posible que esta taxonomía no resuelva el problema principal de si necesitamos replantearnos el concepto de vulnerabilidad en el contexto de las tecnologías de IA, puede ayudar a identificar nuevas situaciones y proporcionar orientación tanto a emprendedores innovadores como a responsables políticos en términos de diseño inclusivo y evaluación de riesgos. Aun así, queda una pregunta sin respuesta: A la luz de la rápida evolución de las tecnologías de IA, ¿necesitamos revisar la conceptualización jurídica de la vulnerabilidad humana a nivel internacional? Esta cuestión jurídica es objeto de un proyecto de investigación independiente que pronto se materializará en un trabajo de investigación. En resumen... continuará.

  • Habilidades en IA Generativa que buscarán las empresas en 2025

    Hoy en día además de los títulos son muy importantes las skills. Y en el campo de la Inteligencia Artificial (IA), este requerimiento también se cumple. Los reclutadores buscan trabajadores que se desenvuelvan fácilmente en un entorno tan cambiante como es la IA Generativa. Y para eso, es necesario conocer cuáles son esas habilidades (también llamadas “skills”) de IA más relevantes. No necesitas tener conocimientos técnicos para empezar a desarrollar estas habilidades .  Te enseñamos las habilidades más demandadas  que se buscarán y que tú puedes aprender. En este artículo, veremos, Habilidades esenciales de IA Generativa para 2025 Herramientas indispensables para potenciar esas habilidades Habilidades esenciales de IA Generativa para 2025 Lo primero que debemos conocer son las habilidades de IA más Top. No te preocupes si no tienes conocimientos técnicos, estas habilidades podrás adquirirlas aunque no seas un experto. La lista de skills que hoy te presentamos son las siguientes; Prompt engineering Automatizaciones del flujo de trabajo (Workflow automation) Creación de contenido Síntesis de datos (Data summarization) Comprensión ética básica Generación de ideas Personalización 1.Prompt engineering Seguro que has oído hablar del prompt engineering. Puede asustarte un poco la palabra, pero te aseguro que serás capaz de entenderlo. Si no sabes que es el prompt engineering, te lo voy a resumir fácilmente: Es como enseñar a hablar a un niño Si el niño dice: “Yo quiero eso”, puedes no saber qué quiere. Pero si el niño dice:  “Yo quiero ese libro rojo”, tú sabes que libro proporcionarle. Por tanto, el prompt engineering  es encontrar la mejor manera de comunicarse con los modelos de lenguaje (LLMs) para que nos entiendan mejor y hagan exactamente lo que queremos. Aqui te dejo la definición más académica que puedes consultar en la página de recursos de Learnpromting.org Prompt engineering is the process of crafting and refining prompts to improve the performance of generative AI models. It involves providing specific inputs to tools like ChatGPT, Midjourney, or Gemini, guiding the AI to deliver more accurate and contextually relevant outputs.   Learn more about prompt engineering Te muestro un ejemplo de un prompt : Escribe un borrador de correo electrónico tipo para felicitar las navidades a los clientes  2. Automatizaciones del flujo de trabajo (Workflow automation) Estoy segura que en tu día a día, realizarás alguna tarea todos los días . Revisar el correo, leer informes, contestar reclamaciones o cubrir partes. Esa capacidad para detectar esa tarea repetitiva, diaria y automatizarla, es una habilidad muy valorada. Si puedes integrar esa automatización en tu trabajo, tu mejorarás tu carga diaria laboral y mejorará también la eficiencia de tu empresa. ¿Y eso cómo lo hago? Imagina que usas Microsoft Office 365 o Google Workspace. En cualquiera de estos sistemas, podremos aplicar automatizaciones. Algunas herramientas  con las que puedes empezar son Make, Zapier o Power Automate. Una vez encuentres ese flujo de trabajo automatizable, todo mejorará. Te muestro un ejemplo  para ver cómo funciona: Problema : Recibes correos importantes con información que necesitas guardar, como nombres de clientes u otros detalles. Normalmente esa tarea la realizamos manualmente. Solución : Vamos a usar una automatización con Zapier o Make. Resultado : Cada vez que tú recibas un correo con el asunto " Alta cliente", Zapier o Make extraerán el nombre del remitente, la fecha, y el cuerpo del mensaje, y los guardarán como una nueva fila en tu hoja de cálculo. Ejemplo práctico: Un correo con el asunto: "Cliente Nuevo: Juan Pérez"  se convertirá automáticamente en una fila en tu Google Sheets con esta apariencia: 3. Creación de contenido Muchas veces necesitamos generar información  de áreas que no conocemos. Gracias a la GenAI crear contenido ya no será un problema. Si necesitamos crear materiales  para marketing, recursos humanos o atención al cliente, ahora será más rápido y sencillo. Saber manejar herramientas como ChatGPT , Gemini , Claude  o Copilot   para crear contenido será una gran ventaja que las empresas desean que tengamos. Por tanto, si no sabías que se podía ahorrar tiempo en tu trabajo con estas habilidades, te animo a probarla y notar la diferencia. Prompt : Crea un manual de bienvenida a los nuevos empleados del área de logística. 4. Síntesis de datos (Data summarization) Algo tan simple como crear un esquema con los puntos clave de un informe, puede llevarnos horas. Ahora con el uso de estas herramientas de IA Generativa , esa tarea se hará en segundos. ¿Qué podemos resumir?  Muchas tareas que quizá ahora mismo no te percates. Te menciono alguna de ellas: reuniones, llamadas, vídeos, webinars, conferencias. Ese trabajo manual ya no será necesario. Ahora tu trabajo será elegir qué herramienta usar para conseguir que esos resúmenes sean lo mejor posible. Prompt : Recopila todo el feedback de las encuestas realizadas y elabora un informe con las conclusiones. 5. Comprensión ética básica Esta es una habilidad en la que quizá no habías pensado. Quizá sea una de las más relevantes. ¿Qué sucede con los resultados que nos aportan estas herramientas? ¿Siempre son fiables? Lamentablemente la respuesta es negativa. No podemos fiarnos 100% de los resultados. Es aquí donde desarrollar una habilidad centrada en las consideraciones éticas cobra relevancia. Debemos saber que a veces los  resultados que genera la IA pueden contener errores. No solo errores. Alucinaciones, sesgos o incorrecciones. Es ahí donde nosotros somos los protagonistas. Debemos aprender a discriminar la información. Debemos saber que existe esa posibilidad y verificarla. Los reclutadores valoran enormemente que sepamos diferenciar la información y la empresa también lo agradecerá. 6. Generación de ideas ¿Qué sucede cuando te bloqueas y no eres capaz de arrancar con la primera idea para tu trabajo o proyecto ? Pues que puedes pasarte horas o días hasta que surja. Ahora la IA está ahí para ayudarnos. En ese momento, saber cómo nos puede ayudar la IA será importante. Herramientas como ChatGPT, Gemini, Claude o Copilot , pueden ser nuestros ayudantes en esos momentos de bloqueos creativos. Aprender a iterar y colaborar  para consultar el resultado que buscamos será la clave. Además las ideas podrás ser de cualquier campo. Los enfoques diversos y las posibilidades infinitas. Solo tienes que empezar. Prompt : Dame 5 ideas para una campaña de redes sociales sobre sostenibilidad". 7. Personalización Todos somos únicos. Y la experiencia de cliente personalizada  es algo que siempre buscan las empresas. Adaptarse lo máximo posible a las necesidades del cliente. Con la IA esa tarea se vuelve más fácil. Podemos manejar más datos al mismo tiempo  e incluso en tiempo real.  Se abre  un campo enorme de posibilidades . Podremos realizar recomendaciones personalizadas. Ofrecer películas o canciones adaptadas a las preferencias del usuario. Incluso formación personalizada a nuestros alumnos.  Saber qué herramientas de IA utilizar en cada momento será la clave.  Se trata de la habilidad de entender al usuario y usar las herramientas de ia adecuadas para conseguir resultados Herramientas indispensables para potenciar esas habilidades Ahora bien, puedes preguntarte, y ¿cuales son esas herramientas en las que empezar a desarrollar esas habilidades? Te mencionaré algunas de ellas para que puedas empezar.  Algunos seguro que los conocerás, te invito a probar con el resto Aquí te mostramos algunos LLMs  con los que puedes familiarizarte: ChatGPT, Copilot, Gemini, Claude  (Prompt engineering, Creación de contenido, síntesis de datos, Generación de ideas creativas, Personalización) Son LLMs con los que practicar la mayoría de las habilidades que hemos mencionado. Debemos aprender a usar los prompts adecuados en función de los resultados que buscamos. Zapier, Make, HubSpot (Workflow Automation) Una parte importante en los flujos de trabajo diario son las automatizaciones. Para ello, usar alguna de estas herramientas te facilitará esas tareas. Zapier es un herramienta fácil de usar y puede ser tu primera opción para empezar a conocerla. CANVA, Figma, Notion AI Nos pueden ayudar a personalizar ideas y su uso es fácil y sencillo. Estas herramientas disponen de versiones gratuitas para empezar, por que su acceso está garantizado. Conclusiones Como has visto, estas son solo algunas de las skills que podrían cambiar tu rutina diaria. Son fáciles de usar y accesibles. Mejorarán el día a día en tu trabajo y en el de tu empresa. Las empresas buscan a personas proactivas que se adapten al cambio  y aporten nuevas habilidades como estas.  Aprender las AI Skills te ayudarán en tu actual o en tu próximo trabajo.  Los reclutadores buscan perfiles profesionales que integren estas habilidades. Y quizá este sea un buen momento para empezar. ¿Te animas?  No esperes más y empieza ya a desarrollar estas habilidades.

  • Directrices europeas para la identificación de sistemas de IA y prácticas prohibidas

    Tras la publicación del Reglamento Europeo de Inteligencia Artificial  el pasado 12 de julio, comenzó el calendario de progresiva entrada en vigor de sus previsiones, y sobre todo de la  interpretación práctica de sus disposiciones . No solo a nivel jurídico, sino a nivel técnico y organizacional .  Con este objetivo, y de modo acorde a lo previsto en el artículo 96 del reglamento,  la Comisión Europea  está promoviendo diversas iniciativas para elaborar directrices que complementen el reglamento europeo facilitando su interpretación práctica .  El día 12 de diciembre realizamos una contribución de OdiseIA  a la Consulta Europea multi-stakeholder  para la elaboración de las directrices de aplicación del Reglamento Europeo a la definición de los sistemas de IA y las prácticas prohibidas. La elaboración de estas directrices específicas está prevista en el artículo 96 apartado 1. letras b) y f).  (“Artículo 96. Directrices de la Comisión sobre la aplicación del presente Reglamento 1. La Comisión elaborará directrices sobre la aplicación práctica del presente Reglamento y, en particular, sobre: .../… b) las prácticas prohibidas a que se refiere el artículo 5;  .../… f) la aplicación de la definición de sistema de IA que figura en el artículo 3, punto 1.”) Las definiciones y prohibiciones del reglamento europeo serán aplicables seis meses después de su entrada en vigor, es decir a partir del 2 de febrero de 2025 . Con este horizonte la Comisión ha promovido una consulta europea para disponer de un documento de directrices a principios de de 2025.  El objetivo de las directrices es proporcionar una interpretación coherente y orientaciones prácticas para ayudar a las autoridades competentes en sus medidas de ejecución, así como a los proveedores e implantadores sujetos a la Ley de la IA en sus medidas de cumplimiento, con vistas a garantizar una aplicación coherente, eficaz y uniforme de las prohibiciones y la comprensión de lo que constituye un sistema de IA en el ámbito de aplicación de la Ley de la IA. El interés de la Comisión está sobre todo en recabar ejemplos prácticos  con el fin de aportar más claridad sobre los aspectos prácticos y los casos de uso. Sobre la definición de sistema de IA Se espera que las directrices expliquen y clarifiquen los distintos elementos de la definición del sistema de IA con el objetivo esencial de proporcionar características que distingan los sistemas de IA de los “sistemas de software o enfoques de programación tradicionales más sencillos”. Como es sabido uno de los principales cambios en la evolución del borrador del reglamento fue el cambio de la definición europea original hacia un alineamiento con la definición de la OCDE: Definición inicial: ‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with; Definición final: ‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments; Además de aportar diversas consideraciones y ejemplos , en la contribución de OdiseIA, hemos destacado la necesidad de una mayor claridad técnica para evitar la interpretación como sistemas de IA en sistemas informáticos que no lo son . Y de la conveniencia de clarificación de la caracterización de los sistemas de IA respecto al conjunto de los sistemas informáticos, no solo los sistemas algoritmos más o menos complejos, sino los basados en cualquier tecnología (por ejemplo la informática cuántica), o los sistemas integrados (sistemas informáticos que integran múltiple sistemas de diversas tecnologías, incluida la IA) Sobre los usos prohibidos de la IA La segunda parte de la consulta es mucho más extensa, abarcando cada uno de los usos prohibidos establecidos en el artículo 5 del reglamento. Prácticas subliminales, manipuladoras o engañosas Prácticas de explotación de vulnerabilidades  Prácticas de clasificación de personas o colectivos ( social scoring ) Prácticas de evaluación y predicción del riesgo de comisión de un delito por una persona física Prácticas de extracción no selectiva de imágenes faciales Prácticas de reconocimiento de emociones Prácticas de categorización biométrica de personas físicas Prácticas de identificación biométrica remota en tiempo real. Relación con otras normativas legales europeas. En los diferentes epígrafes hemos aportado consideraciones y ejemplos  como los casos de manipulación para influir en procesos electorales, los sistemas de publicidad personalizada, sistemas de reconocimiento de emociones, job scoring, extracción no selectiva de imágenes faciales, etc.  Subrayando la necesidad de establecer unos límites claros  en cada una de las prácticas prohibidas, así como en sus excepciones , por ejemplo en relación a la seguridad ciudadana  o a los cometidos de las fuerzas de seguridad, en relación a los derechos de las personas. También hemos remarcado que además de las directrices correspondientes a cada caso se debería aclarar por qué estas prácticas sólo se prohíben a los sistemas de IA. Es decir, si se permiten este tipo de prácticas  en sistemas algorítmicos (en terminología del reglamento “sistemas de software o enfoques de programación tradicionales más sencillos”) o, en general,  en sistemas de otras tecnologías informáticas . Más info sobre OdiseIA y el Reglamento Europeo de Inteligencia Artificial en el post “ Posicionamiento de Odiseia sobre el Reglamento Europeo de Inteligencia Artificial ” Diciembre de 2024  Contribución a la consulta de la Comisión Europea y post elaborado por Juan Pablo Peñarrubia, Alberto González, Guido Ricca, y Richard Benjamins.

  • ¿PROTEGE EL REGLAMENTO DE IA A LOS VULNERABLES?

    Análisis desde una perspectiva holística y necesaria cohesión con otras normas y derechos consolidados Carmen Muñoz García Subproyecto 1.1. Mapping of AI governance – recommendations and regulation   AI Governance (Project #1)" FOR GOOGLE.org Entregado 14.07.2024 El enfoque a tener en cuenta: el estudio del RIA desde una perspectiva holística El Reglamento de IA de la Unión Europea, hito normativo a nivel mundial, debe considerarse como un todo  para los sistemas de IA y para los modelos de IA de uso general. Y cómo tal, debe tener en cuenta que, cualquier herramienta de IA que se desarrolle y/o use en la UE, salvo excepciones, está sujeta al RIA en su práctica totalidad. De ahí que considere que su estudio debe abordarse desde una perspectiva holística  una vez que, cualquier sistema o modelo de IA sujeto al Reglamento, está vinculado a los objetivos predeterminados por los colegisladores de la Unión. Toda la regulación en su conjunto contribuye de manera sistemática u ordenada a cumplirlos. A saber: (i) se trata de un marco jurídico uniforme para el desarrollo y uso de la IA que promueve una IA centrada en el ser humano, basada en la ética, y que, dirigida a ser segura y fiable debe garantizar derechos y principios consolidados en la UE; (ii) además, cualquier actuación, implementación o desarrollo de sistemas en el mercado interior debe llevarse a efecto a sabiendas de que se pretende -garantizando la seguridad jurídica-, facilitar la inversión y brindar apoyo a la innovación (incluidad PYMEs y startup). No cabe entender este marco regulatorio cómo una suma de sistemas y modelos de IA, con regulación estanco para cada herramienta, con requisitos y obligaciones propias e independientes. La evolución de esta tecnología y la posibilidad de modificación de sus capacidades y riesgos determinan que, cualquier sistema , dadas sus propiedades, su autoaprendizaje, su maleabilidad, la complejidad y opacidad de la herramienta, esté sujeto a cumplir los objetivos de la Unión  (todos los antedichos). Así es, la regulación, en su totalidad, está dirigida a cumplir esos fines, de ahí que se imponga un marco adecuado de vigilancia del mercado, de seguimiento, evaluación y control durante toda la vida de la herramienta. Y que en conexión con todo esto se prevean sistemas adecuados de gobernanza, multas y sanciones en el ámbito del Derecho público. También, una específica regulación de la responsabilidad por daños a perjudicados por los defectos o consecuencias negativas de las herramientas de IA que, estas sí, inciden en la esfera propia del dañado. ¿Regula la protección a las personas? ¿ Y a los vulnerables? Hemos iniciado esta primera parte poniendo el foco el artículo primero del Reglamento  de inteligencia artificial al objeto de poner de relieve, principalmente, que estamos ante un marco regulatorio para la IA . Y es así, como se desprende de este artículo clave por lo siguiente:  Aun cuando tiene por objeto mejorar el funcionamiento del mercado de la Unión y adoptar una IA centrada en el ser humano, ética y fiable (art. 1, apartado 1);  Sólo regula, de manera armonizada y uniforme, la inteligencia artificial : su introducción en el mercado, puesta en servicio y utilización, prácticas prohibidas, requisitos y obligaciones para los sistemas de IA de alto riesgo, también de los modelos de IA de uso general, la transparencia aplicable a determinados sistemas, seguimiento y vigilancia del mercado, gobernanza y garantía del cumplimiento, y además, medidas de apoyo a la innovación (art. 1, apartado 2). Ahora bien, a pesar de sólo regular la inteligencia artificial, de ser una norma administrativa  (cómo son las normas sobre la navegación aérea, la energía nuclear o sobre los vehículos a motor), que impone reglas rigurosas para estas herramientas y sus operadores, y que exige que se cumplan requisitos y obligaciones por cualquier agente de sistemas y modelos, superando los umbrales fijados en el Reglamento, su objetivo es proteger los derechos de las personas en todo el mercado de la Unión.  No regulando de manera directa los derechos de las personas , el marco regulatorio europeo de la IA impone reglas para quienes son los operadores en la cadena de valor de la IA. Se trata de que estos sujetos, vía cumplimiento normativo y de principios éticos, no infrinjan los derechos de las persona  recogidos en la Carta de la Unión y en el Derecho europeo vigente, y muy especialmente, de las personas vulnerables.  En coherencia con lo anterior, todos estos derechos a tutelar, tanto de las  personas físicas en general, como de los sujetos vulnerables en particular: (i) ni han formado parte del propósito regulatorio, (ii) ni han recibido un tratamiento singular en el Reglamento. De ahí que, la mención de los primeros, pero especialmente de los segundos, los vulnerables, sea sólo para incidir  en que las garantías de los sistemas o modelos , la evaluación y prevención de riesgos , la detección o la supervisión de las herramientas,   deben ser más rigurosas  cuando el sistema o modelo puede afectar a personas o colectivos vulnerables.  Es más, respecto a estos últimos, la ausencia de un concepto propio y estático de vulnerabilidad , no nos facilitará la tarea de visibilizar quiénes, por su especial condición o circunstancia negativa, coyuntural o duradera, están más expuestos a cualquier riesgo o incidencia perjudicial de la IA que, incluso, puede llegar a situarle en situación de exclusión social crónica de difícil solución. Con todo, si alguien es vulnerable, o deviene como tal, y resulta perjudicado por la IA, está legitimado para reclamar en el marco de la norma pertinente que se haya infringido. De ahí que, las políticas de concienciación, apoyo y defensa a personas y colectivos vulnerables, frente a riesgos de la IA -que pueden llegar a ser sistémicos-, debe ser una cuestión prioritaria para instituciones internacionales, europeas y nacionales, también por empresas y organizaciones. En definitiva, siendo el Reglamento de IA una norma aplicable a todos los sectores, y la herramienta un instrumento para las personas y su bienestar: 1. Debe aplicarse en contexto con otras normas del Derecho digital de la Unión , entre otras: RGD y RD, DCB, DCSD, DMA o DSA; y 2. Deben salvaguardarse los derechos   recogidos en la Carta   de los Derechos Fundamentales de la Unión  y los derechos contenidos en otras normas consolidadas: protección de datos, protección de los consumidores, no discriminación e igualdad de género. También otras normas que garantizan derechos como el de la reparación de daños causados por la IA (responsabilidad civil extracontractual). De ahí que, el estudio del Reglamento deba hacerse desde una perspectiva holística , y además, teniendo en cuenta, que no es necesario incluir en el Reglamento la enumeración de personas protegidas, o de sujetos o grupos vulnerables .  Con todo, operar en la cadena de valor de la IA exige una participación proactiva de todos los que, de una manera u otra, participan en el desarrollo y uso de la herramienta. El cumplimiento del Reglamento, la eficiencia mediante los mecanismos de gobernanza y las normas sancionadoras, contribuirán a lograr la máxima implementación de la norma en cuanto a la protección de las personas. Para contribuir a esto, será esencial formar y “alfabetizar” sobre los marcos regulatorios y la ética . También, instar a ONGs, instituciones públicas y privadas a concienciar a la ciudadanía de los múltiples derechos de las personas que, no regulados en el Reglamento, sí están vigentes una vez que la norma los consolida e impulsa. A mayor abundamiento, a favor de los vulnerables , el cumplimiento de las obligaciones y requisitos por los operadores, el seguimiento y vigilancia poscomercialización de la IA, deben ser más exhaustivos , fortaleciendo así, de manera indirecta y mediata, los derechos de las personas y colectivos vulnerables. De ahí que, cuando alguien, por su condición o situación, encaje en el rol de persona o colectivo vulnerable, el rigor de la norma deberá ser mayor, y la protección mucho más garantista, si cabe. Los mecanismos de gobernanza y de sanciones, también los de reparación de daños, las actuaciones de organismos públicos y privados, de ONGs, asociaciones y fundaciones, serán claves. Versión del artículo con notas y referencias:

  • 🌐 Inteligencia Artificial, Empleabilidad y Competencias Digitales: Proyecto Google Charity en colaboración con ODISEIA 🌟

    Estamos orgullosos de compartir nuestra participación en el emocionante proyecto Google Charity , llevado a cabo entre ODISEIA, el Observatorio de Impacto Social e Inteligencia Artificial , y Google . Este proyecto aborda uno de los temas más relevantes de nuestro tiempo: la gobernanza de la inteligencia artificial  y su impacto en el ámbito laboral. 🔍  ¿En qué estamos trabajando?  Este proyecto tiene como objetivo comprender los retos que plantea la IA, especialmente en relación con la empleabilidad  y el desarrollo de habilidades digitales . Para ello, hemos creado una iniciativa con 13 grupos multidisciplinares  que trabajan en áreas clave como: Investigación. Entrevistas. Análisis de políticas públicas. 🧩  Nuestro equipo está liderando la formación del futuro. Dentro de esta iniciativa, nos centramos en la necesidad de competencias digitales y formación en IA para adaptarnos a los cambios laborales. Os presentamos a los integrantes del equipo así como su propuesta en esta iniciativa:  Mónica Villas : Ingeniera especialista en IA ética y cofundadora de ODISEIA, lidera esta iniciativa enfocada en competencias digitales y formación. María Barceló : Consultora en proyectos de transformación digital. Asesora de Comités de Dirección y Start Ups en sus estrategias de digitalización. Formación directiva y gestión académica en nuevas tecnologías y negocios digitales. Propone un marco de competencias específico para la IA sobre la base de modelos de competencias digitales existentes. Este marco de competencias servirá de base para el diseño de itinerarios e iniciativas de formación en IA M. Eva Pérez Martínez : Enfermera y especialista en tecnologías de salud, analiza el impacto de las políticas públicas en la integración de IA en el empleo, incorporando los conceptos de upskilling y reskilling. Julia Dormido Abril : Profesora en Derecho del Trabajo y Seguridad Social, estudia cómo las microcredenciales pueden potenciar la empleabilidad y cómo integrarlas en diferentes niveles educativos. 💡  Nuestro propósito:  Promover la formación digital  y en inteligencia artificial , asegurando que la transición hacia un mundo laboral más tecnológico sea inclusiva y beneficiosa para todos. Queremos que las personas no solo se adapten, sino que prosperen en este entorno cambiante. 📢  ¡Seguimos avanzando!  Este es solo el principio. Desde ODISEIA y Google continuaremos compartiendo los avances y aprendizajes de este proyecto que busca marcar la diferencia en el ámbito de la inteligencia artificial y el desarrollo humano. 👉 Si te interesa la transformación digital, la empleabilidad y la formación en competencias del futuro, ¡únete a la conversación y comparte tus ideas! #InteligenciaArtificial #GoogleCharity #ODISEIA #Formación #Upskilling #Reskilling #CompetenciasDigitales #Innovación #TransformaciónDigital

bottom of page