
Search Results
101 resultados encontrados
- OdiseIA advierte del grave riesgo de impunidad en el uso indebido de la inteligencia artificial por parte del sector público
Madrid, 1 de abril de 2025 – El Observatorio del Impacto Social y Ético de la Inteligencia Artificial (ODISEIA) ha emitido un contundente documento de alegaciones al Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial, alertando de un vacío legal que puede provocar la exclusión de consecuencias reales y efectivas para los usos indebidos de los sistemas de IA por parte de la administración pública. Aunque el Reglamento Europeo de IA establece una lista clara de prácticas prohibidas y sistemas de alto riesgo –con multas que alcanzan los 35 millones de euros o el 7 % del volumen total de negocio para las empresas infractoras– el anteproyecto publicado en fase de borrador, excluye expresamente a los organismos públicos de la imposición de sanciones económicas. En su lugar, se contempla únicamente un régimen de apercibimientos, medidas correctivas o posibles sanciones disciplinarias internas. Para ODISEIA, esta exclusión supone un serio riesgo. Esta cuestión no solo representa un agravio comparativo frente al sector privado, sino que fomenta la impunidad institucional, compromete la ejemplaridad del Estado y pone en peligro los derechos fundamentales de la ciudadanía. El documento de alegaciones publicado por OdiseIA, y otras asociaciones que protegen los derechos civiles, advierte que la implementación de sistemas de IA sin control o sin garantías adecuadas en ámbitos como la sanidad, la justicia, la seguridad o los servicios sociales puede derivar en decisiones automatizadas opacas, sesgadas o incluso discriminatorias. Ejemplos preocupantes a este respecto incluyen la evaluación automática de solicitantes de ayudas públicas , el uso de reconocimiento facial en espacios públicos o la predicción del riesgo de reincidencia criminal . En este sentido, OdiseIA reclama que el uso de IA en la administración pública debe estar sujeto a los mismos principios de transparencia, legalidad y responsabilidad que las empresas y organismos privados. Dejar fuera al sector público de las sanciones económicas mina la confianza ciudadana y abre la puerta a abusos difíciles de corregir a posteriori. Las principales propuestas de OdiseIA son las siguientes: Incluir al sector público en el régimen sancionador con multas proporcionales. Detallar los procedimientos disciplinarios aplicables a autoridades y personal directivo. Sustituir las meras amonestaciones por sanciones reales, visibles y disuasorias. OdiseIA insiste en que gobernar la IA no es solo una cuestión técnica o económica, sino ética y democrática. Una legislación débil en este sentido puede consolidar un modelo institucional opaco y poco responsable, además de propiciar una desconfianza en la opinión pública, al generarse un entorno en el que el mal uso de la inteligencia artificial desde el poder público, ya sea consciente o inconscientemente, queda sin consecuencias.
- Mapeo preliminar de ONGs y grupos relevantes en Europa
Juan José Escribano Otero; Ramón Baradat Matí; Fabián García Pastor Introducción El desarrollo técnico y normativo tiene un impacto significativo en la inclusión social de colectivos vulnerables. Para abordar esta problemática desde una perspectiva internacional, es fundamental identificar a los principales actores involucrados en la protección y el apoyo a estas comunidades. Este post presenta una síntesis del estudio sobre organizaciones y entidades que trabajan con colectivos vulnerables en diversos países de Europa, con un enfoque en aquellos considerados periféricos, tanto del norte como del sur del continente. Metodología y alcance del estudio El estudio se ha centrado en países del sur y norte de Europa, excluyendo a aquellos con una presencia geográfica marginal en el continente o con un tamaño poblacional muy reducido, como Andorra, Chipre, San Marino o El Vaticano. Asimismo, se ha dejado fuera a países transcontinentales y algunos del este de Europa por su diferente contexto socioeconómico y político. Se han identificado cinco colectivos vulnerables prioritarios en cada país en función del número de personas afectadas y de la relevancia del tema en el contexto nacional. En los países más relevantes del estudio, se ha profundizado en el análisis de organizaciones y entidades representativas. Países estudiados y su relevancia Los países analizados en este mapeo preliminar incluyen Albania, Bélgica, Bosnia y Herzegovina, Bulgaria, Croacia, Dinamarca, Eslovenia, España, Estonia, Finlandia, Grecia, Islandia, Italia, Letonia, Lituania, Macedonia del Norte, Malta, Noruega, Países Bajos, Portugal, Rumania y Suecia. Dentro de este grupo, se han identificado como países relevantes España, Italia, Países Bajos y Rumania debido a su tamaño, población y desarrollo económico. Colectivos vulnerables identificados Los principales colectivos vulnerables considerados en este estudio son: Personas mayores : Enfrentan desafíos relacionados con el acceso a servicios de salud, protección social y aislamiento social. Personas con discapacidad : Abarca diversos grupos que requieren apoyo en términos de accesibilidad, empleo y asistencia sanitaria. Personas en situación de pobreza o exclusión social : Incluye a aquellos que viven en condiciones económicas precarias y con acceso limitado a oportunidades. Inmigrantes : Comprende tanto a refugiados como a migrantes económicos que necesitan apoyo en su integración social y laboral. Mujeres víctimas de violencia de género : Grupos que requieren protección y asistencia especializada. En algunos países se han añadido otros colectivos de relevancia específica, como personas sin hogar, personas LGBTQ+ y niños en situación de riesgo. Principales organizaciones y entidades El estudio ha identificado diversas organizaciones gubernamentales, asociaciones y ONG que trabajan en la atención de estos colectivos. A modo de ejemplo, en España destacan: Personas mayores : Ministerio de Sanidad, Servicios Sociales e Igualdad; Confederación Española de Organizaciones de Mayores (CEOMA); Fundación ONCE. Personas con discapacidad : Real Patronato sobre Discapacidad; Confederación Española de Personas con Discapacidad Física y Orgánica (COCEMFE); Fundación del Lesionado Medular. Personas en situación de pobreza o exclusión social : EAPN España (Red Europea de Lucha contra la Pobreza y la Exclusión Social); Cáritas Española. Inmigrantes : Comisión Española de Ayuda al Refugiado (CEAR); Cruz Roja Española. Mujeres víctimas de violencia de género : Delegación del Gobierno para la Violencia de Género; Fundación Mujeres. Esta misma estructura se ha aplicado al análisis de los demás países, detallando las organizaciones clave en cada caso. Archivo con el mapeo y resultados: Conclusión El mapeo preliminar de ONGs y grupos relevantes permite visibilizar a los actores clave en la protección de los colectivos vulnerables en Europa. Este estudio sirve como punto de partida para futuras investigaciones y para el diseño de políticas inclusivas y colaboraciones transnacionales que contribuyan a mejorar la situación de estas poblaciones. La identificación de entidades en cada país facilita la conexión entre organismos y refuerza el trabajo en red para una mayor eficacia en la lucha por la inclusión social.
- Inclusión digital e inteligencia artificial en los entornos laborales: oportunidades y desafíos
Autoras: Liliana Acosta, Maite Sanz, Raquel Valle y Cecilia Danesi y Ana Aba (coordinadoras) Introducción La digitalización y la inteligencia artificial (IA) han revolucionado los entornos laborales, generando tanto oportunidades como desafíos. La automatización de procesos y la incorporación de IA en la toma de decisiones han traído beneficios en eficiencia y productividad, pero también han generado preocupaciones sobre el impacto en la inclusión digital y laboral. En este artículo, analizamos cómo la IA puede afectar la equidad en el empleo y qué regulaciones existen para mitigar los riesgos de exclusión. La IA y su impacto en la inclusión laboral A diferencia de las revoluciones industriales anteriores, donde las máquinas reemplazaban el trabajo manual, la IA está sustituyendo habilidades cognitivas, afectando sectores como la educación, el derecho y la medicina. Este avance plantea preguntas fundamentales: ¿la IA facilita la inclusión digital o profundiza la desigualdad laboral? Mientras algunos trabajadores se benefician de herramientas digitales, aquellos sin acceso a tecnología o sin formación en competencias digitales quedan en una situación de vulnerabilidad. La inclusión digital no solo implica acceso a dispositivos, sino también alfabetización digital. Según la ONU, garantizar el acceso equitativo y seguro a la tecnología es clave para evitar que la IA amplíe la brecha digital y laboral. Sin embargo, la realidad es que aún persisten desafíos estructurales que impiden una adopción equitativa de estas tecnologías. Regulación en España y Europa para la inclusión y accesibilidad laboral Para abordar estos desafíos, tanto España como la Unión Europea han desarrollado un marco normativo para garantizar la igualdad en el acceso al empleo en la era digital: Legislación en España Ley 15/2022 de Igualdad de trato y no discriminación: Protege contra la discriminación en el empleo y exige ajustes razonables en el uso de tecnología para personas con discapacidad. Ley 3/2023 de Empleo: Fomenta el uso de IA en la intermediación laboral y garantiza la no discriminación en la selección de personal. Ley 11/2023 sobre accesibilidad: Obliga a que los sistemas de IA sean accesibles para todos los trabajadores, incluidos aquellos con discapacidad. Regulaciones Europeas Reglamento General de Protección de Datos (RGPD): Protege a los trabajadores contra decisiones automatizadas discriminatorias y exige transparencia en los algoritmos utilizados en el empleo. Reglamento Europeo sobre Inteligencia Artificial: Clasifica los sistemas de IA según su nivel de riesgo y establece requisitos estrictos para su uso en la contratación y gestión de personal. Directiva (UE) 2024/2831: Introduce regulaciones para la supervisión de algoritmos en plataformas digitales de empleo, prohibiendo la inferencia de datos sensibles como discapacidad o estado de salud. Además, la Carta de Derechos Digitales en España orienta la formulación de políticas para garantizar la equidad en la selección laboral mediante IA, aunque no tiene carácter vinculante. Transparencia y supervisión de algoritmos en el empleo El uso de IA en la contratación y gestión del talento puede generar discriminación si no se implementan mecanismos de supervisión adecuados. Para evitar esto, se han establecido regulaciones clave: El RGPD (Art. 22) prohíbe la toma de decisiones completamente automatizadas sin intervención humana cuando afecten a las personas. El Reglamento Europeo de IA exige auditorías en sistemas de contratación para minimizar sesgos. El Real Decreto-ley 9/2021 otorga a los representantes de trabajadores el derecho a conocer cómo funcionan los algoritmos que afectan sus condiciones laborales. Estos avances buscan reforzar la transparencia y la supervisión humana en los procesos de selección y evaluación de desempeño en el trabajo. La IA como herramienta de accesibilidad e inclusión Más allá de los desafíos, la IA ha demostrado ser una herramienta clave para mejorar la accesibilidad en el ámbito laboral, permitiendo la inclusión de personas con discapacidad y otros colectivos vulnerables. Algunas aplicaciones innovadoras incluyen: Asistencia para personas con problemas auditivos y del habla: Herramientas de reconocimiento de voz que convierten palabras en texto. Sistemas que traducen voz a lengua de signos y viceversa. Soluciones para personas con discapacidad visual: Aplicaciones que detectan objetos, personas y colores. Sistemas de lectura en voz alta para textos impresos. Mejoras en movilidad y navegación: IA que ayuda a personas con movilidad reducida a desplazarse con mayor autonomía. Aplicaciones que identifican rutas accesibles y entornos adaptados. Gracias a estas innovaciones, la IA está transformando la accesibilidad en el empleo, proporcionando mayor independencia y oportunidades de inserción laboral para personas con discapacidad. Beneficios y riesgos de la IA en el mercado laboral La IA ofrece ventajas significativas para la equidad laboral, pero también presenta riesgos que deben ser abordados con regulación y supervisión adecuada. Beneficios: Mayor equidad en la contratación: Algoritmos bien diseñados pueden eliminar sesgos humanos en la selección de personal. Optimización del trabajo: La IA automatiza tareas repetitivas, permitiendo a los empleados enfocarse en actividades estratégicas. Mejora de la conciliación laboral: Los sistemas de IA pueden optimizar horarios y mejorar la calidad de vida de los trabajadores. Entornos laborales accesibles: La IA facilita la adaptación del entorno de trabajo para que sea inclusivo para todos. Riesgos: Discriminación algorítmica: Si los datos de entrenamiento contienen sesgos, la IA puede perpetuarlos o amplificarlos. Exclusión digital: Las personas sin habilidades digitales quedan en desventaja en el mercado laboral. Falta de transparencia: La toma de decisiones automatizada puede dificultar la rendición de cuentas y la detección de errores o injusticias. El futuro de la regulación de IA e inclusión laboral Las normativas actuales representan un avance, pero su efectividad dependerá de su implementación. Se prevé que las futuras regulaciones incluyan: Evaluaciones de impacto: Mayor supervisión sobre el impacto de la IA en derechos laborales. Certificaciones para algoritmos inclusivos: Sellos de calidad para garantizar la equidad en la IA aplicada al empleo. Transparencia obligatoria: Exigencia de auditorías y publicación de informes sobre el uso de IA en la contratación. Conclusión: Construyendo una IA ética e inclusiva en el empleo El impacto de la IA en la inclusión digital y laboral es un reto compartido entre gobiernos, empresas y la sociedad. Para garantizar un futuro del trabajo más equitativo, es fundamental: Desarrollar políticas inclusivas: Implementar regulaciones que eviten la exclusión digital y laboral. Fomentar la educación digital: Capacitar a los trabajadores en habilidades tecnológicas. Garantizar el uso ético de la IA: Crear mecanismos de auditoría y supervisión para evitar discriminación en el empleo. Si estos objetivos se cumplen, la IA no solo minimizará desigualdades, sino que también impulsará un mercado laboral más accesible, justo e inclusivo para todos.
- IA generativa al servicio de la humanidad
Autora: Licda. Nicole Marie Suárez Uribe, miembro de OdiseIA e investigadora perteneciente al subgrupo “ Casos de éxito de IA Gen en empleo y sociedad ”, cAIre Research Project. Introducción: Tecnología que transforma A lo largo de la historia, determinadas tecnologías han marcado un antes y un después en el desarrollo humano. A estas innovaciones se les conoce por el nombre de tecnologías de propósito general, ya que son susceptibles de aplicarse en distintos sectores, con un gran potencial de cambiar todas las industrias y, en consecuencia, la sociedad. La máquina de vapor, el motor de combustión interna e Internet son algunos ejemplos. Seguro estás pensando en la electricidad. ¡No la dejaríamos fuera de la lista! Hace 100 años revolucionó todo. Y justamente hoy, en palabras de renombrados expertos en IA como Andrew Ng y Sundar Pichai , la inteligencia artificial es considerada como la nueva electricidad, en atención a la dimensión de su incidencia. En ese orden, tras la irrupción de la IA generativa, nos hemos convertido en testigos de uno de los mayores momentos de transformación tecnológica, cultural, política y social de toda nuestra vida a juicio del reconocido investigador Mustafa Suleyman . Y pensar que la sobreexpectación en el hype cycle de Gartner comenzó solicitando recetas, preguntando sobre tópicos de cultura general y requiriendo ayuda práctica para tareas cotidianas en un chat. A la fecha, ya debatimos funcionalidades impresionantes como su capacidad de ejecutar código o de simular llamadas telefónicas en lenguaje natural y en tiempo real. Sin dudas, su versatilidad a la hora de complementar los distintos roles que asumen las personas en su diario vivir, ha desatado un cambio de paradigma respecto de la forma en que trabajamos, aprendemos, nos relacionamos y vivimos. En este artículo exploramos cómo la inteligencia artificial generativa puede ser un catalizador de impacto positivo. Asimismo, daremos a conocer casos reales sobre los que hemos estado investigando desde OdiseIA que muestran que cuando se diseña con propósito, la tecnología puede convertirse en un motor de esperanza. Somos de opinión que, resulta de vital importancia para estos tiempos de adaptaciones normativas y criterios jurisprudenciales a definir, conocer las mejores prácticas y cómo afrontar los retos sin precedentes que se presentan en base a la experiencia de quienes se han aventurado a ser pioneros del futuro que tendremos. Predicciones… Lo que la IA generativa nos depara Al inicio, las máquinas no tenían capacidad para mostrar hasta dónde podían llegar, por ello se quedaba limitado su impacto a investigaciones como Computing Machinery and Intelligence de Alan Turing y a ocupar un papel estelar en ciencia ficción, donde la imaginación anticipaba lo que se pretendería alcanzar. Luego, con la llegada de sistemas expertos tal Dendral , se obtuvo experiencia que permitió observar grandes resultados para propósitos reales, sin embargo, la tecnología resultaba ser muy costosa y difícil de mantener. Después, con el transcurrir del tiempo, dejó atrás su reserva a una clase élite, gracias al machine learning , cuyo auge con algoritmos de clasificación, predicción y reconocimiento de patrones encontró aplicaciones muy prácticas. Para muestra, los servicios de recomendación, los motores de búsqueda y los asistentes virtuales, que nos hicieron interactuar con IA sin darnos cuenta. No obstante, analizar datos y proporcionar resultados era importante, pero de repercusión pasiva, siendo la inteligencia artificial generativa la que todo cambió. Para ser exactos, a los 5 días del lanzamiento de ChatGPT, con el millón de usuarios que alcanzó, haciendo historia. De repente, cualquier persona sin conocimientos técnicos puede generar contenido y este hecho tuvo un efecto dominó, consolidando su popularidad. ¿Y ahora qué? Ahora las personas de todo el mundo ya son más conscientes del impacto potencial de esta tecnología en sus vidas, conforme el AI Index Report de Stanford University . La financiación para la IA generativa aumentó, casi octuplicándose desde 2022. Statista prevé que el mercado de IA generativa crecerá hasta los 1,3 billones de dólares en 2032. Se estima que, sin dudas, la inteligencia artificial generativa plantea una aceleración adicional en la automatización de las tareas, con mayor productividad y reducción de costes. Habrá una verdadera revolución en el empleo, pues con la IA Gen, las máquinas pasan de capacidades cognitivas a creativas. Por ello, desde su aparición se dieron a conocer estimaciones como las de Goldman Sachs , donde se indicaba que podrían quedar expuestos a la automatización 300 millones de empleos a nivel global. Cifras como estas causaron pánico, hasta que se recordó que históricamente la tecnología crea más trabajos de los que destruye, palabras subrayadas por las propias autoridades de la Organización Internacional del Trabajo . Por su parte, otros estudios explican que la exposición al uso de los modelos de IA generativa no implica que las tareas sean completamente automatizadas, en algunos casos puede haber sustitución, pero en la mayoría servirá de complemento y en unos pocos casos no representará cambio alguno. La clave está en las nuevas habilidades a desarrollar por todos, como bien han apuntado diversas personalidades del ámbito tecnológico y empresarial, la IA no reemplazará a las personas, son las personas que la utilicen quienes reemplazarán a quienes no lo hacen. Nos encontramos ante un fenómeno social que reconfigurará todos los ámbitos de nuestra sociedad, con cambios significativos y disruptivos en todas las industrias para los próximos años. Así son las altas expectativas que se tienen. Lo dicho precedentemente, en atención a que ya el 2024 fue el año en que realmente las organizaciones comenzaron a utilizar esta nueva tecnología y a obtener valor comercial de ella, 65% de los encuestados en la última Encuesta Global sobre IA de McKinsey , informaron de su uso regular. Se le ve como una tecnología promesa. La ONU en el primer trimestre del año 2024 adoptó una resolución histórica en la que promueve los sistemas de inteligencia artificial seguros y fiables, subrayando el potencial de los mismos para acelerar y permitir el progreso hacia la consecución de los 17 Objetivos de Desarrollo Sostenible. Dicho de otro modo, que sirva de instrumento para avanzar en las prioridades compartidas. Al mismo tiempo, se reconoce que existe preocupación por los desafíos innegables que nos vemos en la necesidad de afrontar. Alucinaciones, inconvenientes de privacidad y protección de datos personales, incertidumbre en la propiedad intelectual, profundización de desigualdades, nuevas formas de cometer delitos, son algunas de las consecuencias no deseadas que pueden producirse. De ahí que, el 78% de las organizaciones pide una mayor regulación gubernamental y un 72% más colaboración global como garantías necesarias para un desarrollo responsable de esta tecnología, según resultados publicados por Deloitte . Por tanto, se espera que normas como el Reglamento de Inteligencia Artificial sean la tendencia en los años venideros. Al mismo tiempo, estaremos a expensas de distintas decisiones jurisprudenciales que servirán de referencia para abordar cuestiones legales no previstas. ¡Solo el tiempo dirá lo acertado de estas cifras! Más allá de las cifras: De las profecías a casos reales El impacto real de la inteligencia artificial generativa está en cómo puede transformar vidas y ser un verdadero motor de cambio humano. Definitivamente, el alcance de la tecnología dependerá de nuestras intenciones, si desarrollamos IA Generativa con objetivos claros y responsabilidad, los resultados reflejarán esos efectos fructíferos que aspiramos a impulsar. En los próximos párrafos, comentamos algunos casos que así lo demuestran: Los asistentes de traducción con IA generativa , a modo de ilustrar a qué nos referimos: El Centro de Traducción de la Cruz Roja Americana es una muestra, cuya finalidad es que los usuarios de la organización puedan traducir comunicados de prensa, contenido de redes sociales o materiales educativos que luego de una traducción preliminar por el sistema, es validado por seres humanos para su perfeccionamiento, asegurando que el idioma ya no sea una barrera para acceder a información relevante. En esa línea, el Estado de New Jersey lidera el acceso lingüístico , pues resolvió el cuello de botella en el acceso a beneficios para innumerables trabajadores que enfrentan dificultades al completar formularios en inglés, con una reducción asombrosa del tiempo promedio para completar formularios, esperas en centros de llamadas y la tasa de reclamos. La IA generativa para restaurar obras de arte dañadas o recrear piezas perdidas . Siendo este el caso de las imágenes históricas del trío de la Facultad , obras conocidas del pintor Gustav Klimt que probablemente fueron destruidas luego de la Segunda Guerra Mundial. Lo expuesto, codificando un algoritmo de inteligencia artificial para generar predicciones de color, ofreciendo a los espectadores una idea de cómo eran estas obras antes de su destrucción. Deepfakes para entrenamiento en ciberseguridad y defensa . A modo de muestra, el programa Semantic Forensics perteneciente al Defense Advanced Research Projects Agency (DARPA); que busca desarrollar tecnologías innovadoras que ayuden a detectar, atribuir y caracterizar campañas de desinformación adversarias, mejorando así la capacidad de combatir la manipulación. En otros términos, la propia IA generativa enseña a determinar si un contenido ha sido creado con inteligencia artificial. Asimismo, destacan sus aplicaciones en educación , permitiendo una interacción distinta con el conocimiento. Creación de contenido educativo personalizado, tutores inteligentes, simulaciones con entornos inmersivos, entre otros. Khanmigo, Humata, Inmerse y Gradescope son claros ejemplos de sus usos y son tantos que a finales del año 2024 comenzó el proyecto internacional GenAI4ED del programa Horizon Europe, que tiene entre diversos objetivos, desarrollar una plataforma digital que evalúe la eficacia técnica, el cumplimiento normativo y el impacto de herramientas de IA generativa en educación, optimizando su implementación en las aulas. Del mismo modo, Wall Street ha convertido la inteligencia artificial generativa en una tendencia clave en el sector financiero , impulsada por la creciente adopción de esta tecnología por parte de los principales bancos y firmas de inversión , instituciones como JPMorgan, Morgan Stanley y Goldman Sachs han liderado el camino, utilizando IA generativa para optimizar sus operaciones, personalizar servicios al cliente y mejorar las estrategias de inversión. 8 de cada 10 entidades están aplicando tácitamente la IA generativa en al menos un caso de uso conforme el 2024 Global Outlookfor Baking and Financial Markets . Entre los casos destacados se encuentra Bank of America con Erica , asistente virtual que ha cautivado con sus análisis financieros personalizados, recordatorios de pago, asistencia para gestionar cuentas, entre otras funcionalidades. Mientras que Grupo Cooperativo Cajamar le utiliza en su lucha contra el fraude digital, captando atención su acuerdo para la adopción de la plataforma de IA generativa IBM Watsonx, marcando la evolución del core bancario. Los LLM especializados por sector también han tenido impacto positivo, como Harvey AI en el sector legal, cuya IA generativa, entre muchos usos, se utiliza en tribunales de Singapur para favorecer a individuos que están en desventaja al no contar con representación legal en determinados procesos legales; un acuerdo para mejorar el acceso a la justicia para todos. Básicamente, si una persona busca presentar una reclamación, el sistema le indica cuáles son sus derechos, los próximos pasos, plazos, estimaciones de lo que podría obtener, la documentación relevante a aportar, entre otros puntos. En continuidad de lo expuesto, encontramos a MedPalm 2 , modelo de lenguaje diseñado para responder preguntas médicas con alta calidad y precisión, alcanzando un 85.4% en su desempeño, superando ampliamente la puntuación de aprobación en los exámenes de licencia médica en Estados Unidos y también superó el porcentaje en los de India. Sus usos potenciales se enmarcan en investigaciones, responder a inquietudes complejas, encontrar información en textos médicos no estructurados, resumir documentación, etc. Siguiendo este orden de ideas, otro caso es HiVE by bertha en el sector nuclear. Lanzada por Westinghouse Electric Company que impulsa una mejora de los costos y los plazos a lo largo de todo el ciclo de vida del reactor, desde el diseño, la concesión de licencias, la fabricación, la construcción y las operaciones. Los clientes obtienen acceso a más de 100 años de innovación y conocimientos patentados en la industria. Podemos convertir la IA generativa en cada sector que toca en una aliada universal para la humanidad. ¿Cómo hacer de la IA generativa un motor de cambio? Mejores prácticas y lecciones aprendidas El impacto positivo no es casualidad. En efecto, para convertir esta tecnología de prometedora a transformadora, es crucial adoptar un enfoque estratégico y responsable. A partir del análisis de distintos casos de uso con foco en el beneficio o la potenciación de la humanidad, hemos identificado como claves de éxito comunes, mejores prácticas y lecciones aprendidas que pueden guiar a las organizaciones que quieran emprender en este camino. Colaboración y co-creación El consenso es fundamental, diálogo multidisciplinario, con profesionales de diversas áreas (ética, legal, técnica, etc.) y de distintos contextos geográficos. Con el objetivo de construir soluciones de forma conjunta tras espacios de trabajo donde existan debates y se compartan conocimientos. Evaluación integral Antes de implementar cualquier iniciativa con IA generativa, corresponde colocar todo en una balanza. El valor potencial en términos de eficiencia, innovación y mejora de procesos. Los riesgos posibles asociados a su incorporación. Así como el marco de gobernanza requerido, roles, responsabilidades, toma de decisiones y mecanismos de control. Establecimiento de principios desde el diseño y a lo largo de todo el desarrollo Transparencia acerca de cómo funciona el modelo, qué datos utiliza y cómo maneja los mismos. Seguridad, con medidas robustas para proteger de accesos no autorizados. Privacidad, colocando en primer lugar la protección de los datos personales, garantizando el control del usuario sobre su información. Fiabilidad, que genere confianza. Y que tenga como centro al ser humano, tanto en el respeto de sus derechos como en ser una herramienta para el provecho de las personas. Cumplimiento normativo Es llamativo que se haga hincapié en todas las normativas con las que se cumple, por lo general, aquellas que han ganado fama de ser las más protectoras de derechos, como es el caso del Reglamento General de Protección de Datos de la Unión Europea y el AI Act. Esto es una especie de signo de confianza. Fomento del desarrollo de habilidades El capital humano incide en gran medida en el éxito del uso de IA generativa. Capacitar a los equipos para que puedan implementar las soluciones con esta inteligencia artificial es regla básica. También, para que comprendan cómo usarla de manera responsable y efectiva. Adecuada gestión de los datos Los datos son el combustible de la IA generativa, el primer paso siempre será la base de datos sólida, siendo esencial su calidad, integridad y disponibilidad. Que sean resguardados en su gestión de acuerdo a las normativas aplicables. También, que existan criterios de calidad como, por ejemplo, la verificación sobre los sesgos algorítmicos. Por supuesto, asegurar la autorización de propiedad intelectual para los datos de entrenamiento o los términos que se han definido al respecto. Ante esta realidad, es que se han convertido en favoritos los modelos híbridos, que combinan modelos de código abierto con modelos construidos internamente. Implementación gradual y práctica La implementación de proyectos piloto en áreas de interés y necesidad real para probar la tecnología, obtener retroalimentación y luego ampliar su aplicación. De esta forma, priorizando los casos iniciales de bajo riesgo y alto valor, es posible realizar los ajustes necesarios. Enfoque de mitigación de riesgos Que se actualicen constantemente los protocolos de ciberseguridad, gobierno de datos y privacidad. Se abogue por sistemas explicables y en caso contrario auditables. Monitoreo de los resultados. Mantenerse al tanto de las nuevas regulaciones y directrices. Políticas claras que direccionen el uso de IA generativa. Conclusiones: Nuestras decisiones definen el futuro En los últimos años nos hemos centrado en el enigma de la IA generativa y la humanidad, ¿hasta dónde llegará esta tecnología? Y ¿cómo redefinirá la humanidad? Preocupándonos o fascinándonos ante lo que parece ser incierto. Sin embargo, tenemos una respuesta a la mano, ocupándonos podemos aportar hacia el futuro prometedor que queremos. El rol humano sigue siendo esencial para guiar el desarrollo de la IA generativa, supervisar su implementación y dar un verdadero sentido a sus resultados. La inteligencia artificial generativa está aquí para quedarse, seguirá evolucionando, pero su impacto dependerá de cómo decidamos usarla. Así como hemos visto los desafíos que plantea, mediante este artículo hemos podido observar que también abre nuevas oportunidades. Nos toca construir un porvenir de forma responsable y ya tenemos las claves para lograrlo, las cuales podemos sintetizar en pocas palabras, compromiso firme con el bien común, lo que, sin dudas, nos permitirá aprovechar al máximo el potencial de la IA generativa para transformar positivamente nuestras vidas y nuestro alrededor. Por primera vez el poder de la innovación está en manos de más personas que nunca, desde pequeñas soluciones que mejoran nuestro día a día hasta grandes proyectos que transforman por completo a las industrias. La IA generativa nos invita a todos a trabajar en un futuro mejor, más próspero, equitativo y lleno de posibilidades. ¿Te unes a este camino donde la tecnología es el complemento que necesitamos?
- Profesiones del futuro: nuevas oportunidades y requerimientos
Autor: Dolores Abuin, en colaboración con los miembros del grupo del Proyecto cAIre Google Ricardo Palomo (Coordinador), Jorge Cerqueiro, Frank Escandell y José Javier Sesma. Este estudio ha sido realizado por OdiseIA en el marco del proyecto Google cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Google Caire - OdiseIA . Este blog es una síntesis de la primera versión del entregable principal del subproyecto 2.1 "Profesiones del Futuro: Nuevas Oportunidades y Requerimientos" , cuyo informe definitivo estará disponible en 2025. El grupo de trabajo realizó entrevistas personales estructuradas de aproximadamente 45 minutos de duración con un mismo cuestionario común. La relación de expertos entrevistados es la siguiente: NOMBRE EMPRESA O INSTITUCIÓN Román Gil Alburquerque Sagardoy Abogados María Gabriela Busellini Universidad de Buenos Aires Lourdes Hernández Vozmediano Ana Lazcano de Rojas Yolanda Cerezo López Universidad Francisco de Vitoria Juan Luis Aguirrezabal Arroyo Iberdrola Beatriz Sanz Saiz Elena Maestre García EY Ignacio Gutiérrez Peña AYGLOO Matthew James Bailey María Eugenia Blázquez UDIT Iñaki Pertusa DECIDATA Erik Díaz Fuentes XENIOR STUDIO Andrés Pedreño Muñoz OST Torrejuana Alfonso Gutiérrez Universidad de Helsinki Chema Leal Sancho PwC Matías Garcia Calvo NTT DATA Europe & Latam Pedro José Mendez Vega BBVA Javier Espinosa Endesa Clarisa Doval Continental Natalia Grijalba EY Kevin Lagrandeur A continuación recogemos algunas de las opiniones más relevantes de los expertos relativas a las áreas del cuestionario desarrollado en las entrevistas personales. ¿Cómo está impactando la IA en el mercado laboral? Recopilación de respuestas con base en las entrevistas mantenidas con expertos del sector entre junio de 2024 y enero de 2025. La inteligencia artificial ya está transformando la forma en que trabajamos y, según los expertos entrevistados, este impacto se puede ver en varias áreas principales: Clarisa Dova l (Continental) es categórica en este aspecto y destaca que la IA ha permitido “la automatización de tareas para todos los trabajos y para todos los roles”. Esto implica que muchos trabajos repetitivos desaparecerán o cambiarán significativamente. Desde la ingeniería de datos hasta la optimización de procesos con IA, existe una creciente demanda de perfiles profesionales que antes no existían. Según EY “se van a crear nuevas industrias, nuevos puestos de trabajo” y además se enfatiza en un hecho relevante “creo que de momento casi se están creando más puestos de trabajo de los que se están eliminando y de eso se habla relativamente poco". José María Leal Sancho (PWC) , menciona directamente una redefinición del valor del trabajo al señalar qu e "No solo hay una reconversión laboral, sino que va a haber un cambio generacional sobre las necesidades que hay en la sociedad. La inteligencia artificial nos ha llevado a un punto en el mercado laboral en el que va a redefinir qué es lo que es trabajar, qué tiene valor, qué no tiene valor, en base a las personas". ¿Qué sectores están siendo más afectados? Gráfico sobre el impacto de la IA en diferentes sectores laborales (basado en las entrevistas y las puntuaciones otorgadas por los entrevistados). Cada entrevistado aportó su perspectiva sobre los sectores más afectados por la IA . A cada sector se le asignó una puntuación en una escala de 0 a 10 basada en la intensidad del impacto. Atendiendo a las opiniones de todos los expertos, podemos adelantar que la IA no solo sustituye tareas repetitivas, sino que también genera nuevas oportunidades. Aunque en algunos casos su integración ha sido gradual, en otros será necesario la formación de los trabajadores en nuevas habilidades y la adaptación a nuevos roles laborales. Las entrevistas reflejan cómo algunas empresas ya están experimentando esta transformación. A continuación, veremos cómo la IA está impactando en estos sectores, con testimonios directos de expertos que nos muestran el panorama actual. “Atención al cliente y servicio al consumidor” obtuvo una puntuación de 9 . La automatización de chats y asistentes virtuales está transformando radicalmente esta área. Iñaki Pertusa ( Decidata ) nos comenta que “si hablamos de sustitución laboral, muy, muy bajo, pero si hablamos de mejoras de eficiencia gracias al uso de la IA, especialmente la generativa, lo que nos encontramos tanto en el sector privado como en la administración pública es que la integración de esta tecnología ahora mismo es residual y su impacto tanto desde el punto de vista de negocio como desde el punto de vista laboral está siendo muy limitado”. “Industria y manufactura” recibió un 8. Como explica Andrés Pedreño (Torrejuana) , “cuando la inteligencia artificial se suma a la robotización, en países como China, donde hay una mano de obra muy abundante, están mecanizando y robotizando con IA fábricas del automóvil, lo cual está logrando niveles de competitividad extraordinarios”. “Sector financiero” alcanzó un 7, destacando la revolución de la IA aplicada al análisis de datos: la IA está optimizando ya, por ejemplo, la toma de decisiones en la banca. Pedro José Méndez Vega (BBVA) destaca que “los profesionales de auditorías y cumplimiento normativo tienen que familiarizarse con nuevas herramientas para poder interpretar y actuar en consecuencia. Todo el mundo del asesoramiento personalizado también va a tener muchísimas mejoras”. “Marketing” obtuvo otro 7, con referencias a la generación de contenido automatizado. “El mundo de la publicidad ha cambiado radicalmente. Ya ha cambiado. Va a cambiar más, pero ya ha cambiado. La publicidad programática... Todos son algoritmos. Tú defines audiencias, ya no defines medios, espacios en medios. Tú defines una audiencia y quiero llegar a esta audiencia que tiene unos componentes determinados de intereses”, menciona Juan Luis Aguirrezabal (Iberdrola) . “ Administración ” fue valorada con un 6 por el reemplazo de tareas administrativas rutinarias. “El impacto de la IA en la administración es claro: muchas tareas rutinarias están siendo automatizadas, desde la gestión de documentos hasta la organización de datos. Esto libera tiempo para que los profesionales puedan enfocarse en tareas más estratégicas y de mayor valor añadido” tal y como nos relata Alfonso Gutiérrz desde la Universidad de Helsinki. “Legal” recibió un 5, indicando un impacto en tareas relacionadas con el análisis y generación de documentos legales. Desde Decidata , Iñaki Pertusanos comenta un caso real de uso con ChatGPT. Nos indicó que “generamos un recurso, que lógicamente nos dio la razón porque era un error administrativo. En otro momento, lo hubiéramos externalizado con un abogado que nos hubiera cobrado un mínimo porque era algo muy rutinario, pero que ya no lo necesitamos. Y hay muchas profesiones de ese tipo que con los sistemas de IA generativa han sido superadas”. “Supervisión intermedia” se calificó con un 6 gracias a los avances en herramientas que permiten gestionar más eficientemente con menos recursos. Desde NTT Data, Matías García Calvo, apunta que “tareas administrativas sobre todo, tareas muy vinculadas a actividades manuales, actividades que se tienen que hacer de forma manual, sin duda estas son las que más se van a transformar.” ¿Cuáles son los trabajos más vulnerables? Los expertos coinciden en que los empleos más repetitivos y de supervisión intermedia son los más amenazados. Ahora mismo, todos nos preguntamos qué empleos están en mayor riesgo de desaparecer o cambiar totalmente. Aunque podamos pensar que la IA no reemplaza puestos de trabajo en su totalidad, sí está automatizando tareas específicas dentro de muchas profesiones, lo que obliga a redefinir roles y competencias. Los trabajos más vulnerables son aquellos que dependen de tareas repetitivas, mecánicas o basadas en la supervisión de procesos automatizables. Esto incluye desde puestos operativos básicos, que están siendo optimizados con IA en sectores como manufactura y logística, hasta cargos de supervisión intermedia, donde las herramientas digitales permiten gestionar equipos con menos intervención humana. Además, sectores como administración y atención al cliente ya sufren una transformación acelerada con el uso de chatbots, asistentes virtuales, automatización de gestión documental o sistemas de análisis predictivo. La adaptación a esta nueva realidad no solo implica la pérdida de ciertas funciones, sino la urgencia de desarrollar nuevas habilidades que complementen la IA. ¿Cómo será el mercado laboral en 5 años? Gráfico sobre el impacto de la IA en el mercado laboral en los próximos 5 años (basado en las entrevistas y las puntuaciones otorgadas por los entrevistados). Se pidió a los entrevistados que dieran una puntuación del 0 al 10 sobre el impacto actual de la IA en el empleo y su impacto proyectado en los próximos 5 años. En general, todos coinciden en que aún estamos en una etapa inicial de adopción, y la mayoría prevé que en los próximos cinco años el impacto de la IA será mucho más profundo, con una previsión de 8 o 9 sobre 10 en términos de transformación laboral. Algunos sectores como el financiero, el manufacturero o el marketing, ya han comenzado a experimentar cambios significativos, pero se espera que esta disrupción alcance a prácticamente todas las industrias. Sin embargo, no se trata únicamente de la sustitución de empleos, sino de una redefinición del valor del trabajo. Según los expertos, la IA generará nuevos roles y oportunidades, al tiempo que exigirá una adaptación constante de las competencias profesionales. La clave estará en la formación y en el desarrollo de habilidades complementarias a la IA, como el pensamiento crítico, la creatividad y la toma de decisiones. En los próximos cinco años, las empresas y los trabajadores que no integren estas herramientas en su operativa diaria podrían verse en desventaja competitiva, mientras que aquellos que sepan aprovechar su potencial se beneficiarán de un entorno laboral más eficiente y productivo. Reflexión final sobre el futuro laboral La IA es ya una realidad que debemos afrontar, y que nos sitúa en el inicio de una transformación sin precedentes. La clave no está en resistirse al cambio, sino en adaptarse a él y aprovechar lo mejor que esta tecnología puede ofrecernos en beneficio de todos. A lo largo de las entrevistas realizadas, los expertos consideran que la IA no eliminará empleos de manera indiscriminada, pero sí transformará las funciones y habilidades requeridas. En las entrevistas hemos percibido una mezcla de realismo y esperanza, con un mensaje claro de todos los expertos que apunta a la necesidad de formarse y prepararse para utilizar la IA como una herramienta (o quizá como un compañero de trabajo). Todos ellos vislumbran importantes cambios en el futuro del trabajo que pueden llevar a la creación de nuevos roles laborales, así como también a la transformación y, en algunos casos, a la desaparición de determinados puestos de trabajo, aunque pronostican un saldo neto positivo con mayor creación que eliminación en términos globales. No son ajenos, sin embargo, a las tensiones y efectos perturbadores que la velocidad de esta revolución, comparada con las anteriores, puede tener sobre los tejidos social y económico de nuestros países. Esta visión general de los expertos pone también de manifiesto la vulnerabilidad laboral actual y futura de aquellas personas cuyas funciones pueden ser desempeñadas de modo más eficiente por la IA. Para evitar o atenuar la vulnerabilidad será fundamental la formación y el reciclaje profesional. Desde un enfoque distinto de la vulnerabilidad, si se atiende a los grupos de personas consideradas como vulnerables por sus condiciones físicas o mentales, los expertos coinciden en el valor que puede tener la IA para complementar las capacidades diversas de estas personas y así apoyarlas en el desempeño de sus funciones. A modo de resumen, a juicio de los expertos entrevistados, el talento humano seguirá siendo insustituible, pero aquellos trabajadores que no aprendan a trabajar con la IA verán mucho más complicado avanzar en el nuevo panorama laboral. “La Inteligencia Artificial es un instrumento fascinante y tremendo”, que puede traer muchas oportunidades, aunque en manos equivocadas podría ser un desastre.
- Impacto laboral de la IA: primer informe con datos anónimos de Claude
Anthropic ha lanzado el pasado día 10 de febrero, el informe “Anthropic Economic Index” ( https://www.anthropic.com/news/the-anthropic-economic-index ) . Además, han publicado un paper ( https://assets.anthropic.com/m/2e23255f1e84ca97/original/Economic_Tasks_AI_Paper.pdf ) titulado “ Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations ” , en el que analizan en detalle cómo la IA se aplica en distintos ámbitos laborales. Anthropic es una empresa estadounidense de investigación y desarrollo de inteligencia artificial fundada en 2021 y liderada por antiguos trabajadores de OpenAI. los hermanos Dario y Daniela Amodei. ¿De qué trata este informe? Se trata de una iniciativa que busca conocer los efectos de la IA en el mercado laboral. Este índice ofrece datos y análisis, basados en millones de conversaciones mantenidas por los usuarios de forma “anónima” con Claude . Claude es el chat conversacional de la empresa Anthropic, que dispone de versión gratuita para poder interactuar con ese LLM. Con este informe recopilatorio se pretende conocer cómo se está utilizando la IA en tareas laborales reales.El aspecto más llamativo ha sido el dataset utilizado para el análisis. Se han utilizado alrededor de 4 millones de conversaciones realizadas con Claude. Su estudio se ha centrado en el impacto de la IA en el trabajo utilizando un enfoque basado en datos para identificar qué tareas y ocupaciones están adoptando esta tecnología, en lugar de utilizar suposiciones. Los resultados muestran que la IA se usa sobre todo en código y en redacción (juntos representan casi la mitad de todos los casos de uso). Sin embargo, su adopción es mucho más amplia y alcanza aproximadamente al 36% de las ocupaciones, aunque en distintos grados. El informe también diferencia dos formas de uso de la IA: Un 57% lo usa como una herramienta de apoyo para mejorar la productividad humana, como mejorar textos o aprender nuevas habilidades. Un 43% lo usa como una automatización directa, donde la IA ejecuta tareas con la mínima intervención humana. El análisis tiene limitaciones y solo refleja datos de la plataforma específica de Claude. Pero se abre la puerta para que utilicen este método otras compañías y puedan seguir la evolución y tendencias futuras de la IA en el mercado laboral. La intención de Anthropic es poner en el foco el uso real de la IA en el trabajo y así fomentar un debate abierto entre todos los sectores afectados (economistas, abogados, expertos en políticas públicas o académicos) con el objetivo de prepararse para dar respuestas reales a los cambios inevitables que la IA traerá al mundo del trabajo. ¿Qué datos son los más reveladores del estudio? Este primer informe ha revelado datos clave sobre la adopción de la IA en diferentes sectores. Pueden afirmar que actualmente, el uso de la IA se centra principalmente en el desarrollo de código (software) y la redacción de textos. La primera sección “Porcentaje de trabajos que usan IA” muestra cómo se distribuye el uso de IA en los trabajos. Color rojo: solo el 4% de los trabajos usan IA de forma intensiva. Color azul: el 36% de los trabajos usan IA moderadamente. Color gris: el 60% de los trabajos usan poco o nada de IA. La segunda sección muestra “Cómo se utiliza la IA” Se puede observar cómo la IA se utiliza más para "aumentar" el trabajo humano (57%) en lugar de "automatizar" tareas por completo (43%). En este sentido, la IA está funcionando como una herramienta de apoyo al trabajador que mejora la productividad en lugar de automatizar tareas de manera masiva. Sin embargo, este equilibrio podría cambiar en poco tiempo, ya que los modelos de IA están avanzando muy rápidamente. El análisis de Anthropic ha identificado seis categorías profesionales en las que la IA tiene una presencia significativa: Computación y matemáticas (37,2%): programación, depuración de código y resolución de problemas de red. Artes y medios (10,3%): escritura y edición de contenidos. Educación y bibliotecas (9,3%): soporte en la generación de materiales educativos. Administración y oficinas (7,9%): automatización de informes y asistencia en tareas administrativas. Ciencias de la vida (6,4%): análisis de datos y documentación científica. Negocios y finanzas (5,9%): redacción de informes y asistencia en análisis de datos financieros. El estudio también muestra que los sectores con menor adopción de IA son aquellos que requieren un alto grado de trabajo manual o físico, como la agricultura, la pesca y la silvicultura, donde la presencia de IA es prácticamente nula (0,1%). ¿Cómo consiguieron analizar millones de conversaciones? Para llevar a cabo este análisis, Anthropic desarrolló una herramienta llamada Clio , que permite analizar conversaciones con Claude mientras se respeta la privacidad de los usuarios. Clio categorizó aproximadamente un millón de conversaciones según las tareas laborales descritas en la base de datos O*NET del Departamento de Trabajo de EE.UU. Esto permitió mapear la relación entre el uso de la IA y diferentes tipos de ocupaciones. Los resultados también permitieron comparar la frecuencia del uso de la IA en cada ocupación con su representación en la fuerza laboral general. Por ejemplo, los desarrolladores de software representaron el 37,2% del uso de IA, a pesar de que solo constituyen el 3,4% de la fuerza laboral en EEUU. En contraste, los trabajadores administrativos, que representan el 12,2% de la fuerza laboral, solo usaron IA en el 7,9% de las conversaciones. ¿En qué franja salarial impacta más la IA? El estudio comparó la tasa de adopción de la IA con el salario medio de cada ocupación y encontró que los trabajos con salarios bajos y muy altos son los que menos utilizan IA. El informe también destaca que el uso de la IA es más común en ocupaciones de salario medio y alto, como programadores y científicos de datos, mientras que su adopción es menor tanto en trabajos con sueldos más bajos como en los de mayor remuneración. Esta tendencia sugiere que existen barreras prácticas y limitaciones tecnológicas que impiden la automatización total de ciertas tareas. Por ejemplo, ocupaciones como estilistas y obstetras presentan bajos niveles de adopción de IA, debido a la necesidad de habilidades manuales o conocimientos altamente especializados. En cuanto al equilibrio entre automatización y aumento de capacidades, los datos revelan que la IA colabora con los trabajadores más de lo que los reemplaza. En un 57,4% de los casos, la IA se utilizó para validación, iteración de tareas y aprendizaje, mientras que en el 42,6% de los casos, la IA completó tareas de manera autónoma. ¿Cómo será el futuro según el Anthropic Economic Index? Todavía no se puede determinar con certeza si el uso de IA en las conversaciones analizadas está directamente relacionado con el trabajo de los usuarios, ni si los resultados generados fueron usados sin modificaciones o revisiones posteriores. Además, el estudio se basó únicamente en datos de Claude.ai Free y Pro, excluyendo el uso empresarial y de API. Además, este análisis se centra únicamente en la fuerza laboral de EEUU. Para abordar estas limitaciones y seguir monitoreando la evolución de la IA en el mercado laboral, Anthropic planea actualizar periódicamente el Economic Index. La empresa espera identificar más tendencias a largo plazo en el campo de la automatización y asistencia de la IA en el trabajo. En conclusión, el Anthropic Economic Index ofrece una primera visión sobre el impacto de la IA en el mundo laboral. Aunque actualmente la IA actúa más como un complemento que como un reemplazo de los trabajadores, su papel en la economía podría cambiar a medida que las tecnologías evolucionen.
- COTI: La Inteligencia Artificial al servicio de la inclusión digital de las personas mayores
En una era donde la tecnología avanza a pasos agigantados, 6 millones de personas mayores solo en España aún enfrentan barreras para integrarse en el mundo digital. Y es que no es lo mismo tener una app descargada que ser un usuario activo. Esta brecha en el uso no solo limita su acceso a servicios y oportunidades, sino que también aumentar sentimientos de soledad y aislamiento digital. Con el objetivo de abordar esta problemática, nace COTI , una plataforma digital inclusiva que utiliza la Inteligencia Artificial (IA) para conectar a las personas mayores con sus familias y profesionales sociosanitarios. Una solución personalizada gracias a la IA COTI destaca por su capacidad para adaptarse a las habilidades específicas de cada usuario. Al iniciar la aplicación, la persona realiza un sencillo juego cognitivo potenciado con Inteligencia Artificial que evalúa sus habilidades tecnológicas. Basándose en los resultados, la plataforma ajusta su interfaz y funcionalidades para ofrecer una experiencia personalizada y accesible. Además, un algoritmo de machine learning analiza continuamente el uso de la aplicación, adaptándose a las necesidades cambiantes del usuario y garantizando una interacción óptima. Un entorno seguro y controlado La seguridad es una prioridad en COTI. La plataforma funciona como una red social cerrada por invitación, asegurando que los usuarios solo interactúen con personas autorizadas. Esta característica protege la privacidad y proporciona un entorno confiable para la comunicación. Beneficios para todos los involucrados Personas mayores : COTI les permite mantenerse conectadas con sus seres queridos, mejorando el bienestar emocional y fomentando la estimulación cognitiva. Familiares : La plataforma facilita la comunicación y el seguimiento del estado de sus familiares mayores, ofreciendo tranquilidad y fortaleciendo los vínculos. Profesionales sociosanitarios : COTI optimiza la coordinación y el seguimiento de los pacientes, mejorando la eficiencia en la atención y permitiendo una gestión más personalizada. Son alertados cuando hay variaciones en la cognición de los usuarios. Compromiso con la ética y la responsabilidad en la IA La implementación de la IA en COTI se alinea con las directrices éticas promovidas por organizaciones como OdiseIA , el Observatorio del Impacto Social y Ético de la Inteligencia Artificial. OdiseIA trabaja activamente para impulsar el uso de la IA de manera ética, responsable y centrada en el bienestar social. La colaboración entre iniciativas como COTI y entidades como OdiseIA es fundamental para garantizar que la tecnología beneficie a toda la sociedad, especialmente a los colectivos más vulnerables. Un equipo multidisciplinar al servicio de la inclusión Detrás de COTI hay un equipo de profesionales comprometidos con la mejora de la calidad de vida de las personas mayores. Liderados por Antonio González-Adalid , neuropsicólogo y CEO de la plataforma, el equipo combina experiencia en neurociencia, diseño de interfaces y accesibilidad digital para ofrecer una herramienta intuitiva y efectiva. Conclusión COTI representa un avance significativo en la integración de las personas mayores en la era digital. Al combinar tecnología avanzada con un enfoque centrado en el usuario, la plataforma no solo facilita la comunicación, sino que también promueve la autonomía y el bienestar de sus usuarios. Iniciativas como COTI demuestran cómo la IA, implementada de manera ética y responsable, puede ser una herramienta poderosa para la inclusión social y la mejora de la calidad de vida. Desde el lunes 3 de marzo ya puedes descargar la aplicación: Gracias a que esta startup de impacto social están en periodo de lanzamiento, puedes disfrutar de 3 meses gratis con el código descuento: COTIPRES
- Libro Blanco sobre el impacto, regulación y garantías ante el uso de la IA por el empleador respecto de sus trabajadores
Resumen del estudio sobre el impacto y las garantías ante el uso de la inteligencia artificial por los empleadores, realizado por OdiseIA en el marco del proyecto cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Caire - OdiseIA . Esta es la primera versión del entregable principal del subproyecto, cuya versión definitiva estará disponible a finales de 2025. A continuación, se ofrece un resumen en formato de preguntas y respuestas que destaca los aspectos más relevantes e innovadores del Libro Blanco. ¿Qué cambios introduce la IA en el ámbito laboral? La inteligencia artificial está modificando de manera profunda el mercado de trabajo. Automatiza procesos rutinarios, transforma la selección y evaluación del personal y redefine la experiencia de los trabajadores dentro de las empresas. Su impacto es cada vez más evidente, como muestran los datos del INE, que indican que en 2024 el 12,4% de las empresas en España ya utilizaban alguna herramienta de IA. Esta tendencia es promovida desde las administraciones públicas mediante estrategias gubernamentales, como el Kit Consulting, que facilitan su implantación. ¿Cuáles son los principales casos de uso de la IA por los empleadores? Las empresas están incorporando la inteligencia artificial en distintos ámbitos de su operativa. En la selección de personal, herramientas como HireVue o LinkedIn Talent Solutions permiten gestionar grandes volúmenes de candidaturas en tiempos reducidos. Aunque optimizan los procesos, pueden generar sesgos que afectan la equidad en el acceso al empleo. En la gestión administrativa, soluciones como Workday y UiPath mejoran la eficiencia en la administración de nóminas, permisos y beneficios, reduciendo errores y optimizando recursos. En la monitorización del desempeño, sistemas como ActivTrak y Microsoft Viva analizan patrones de trabajo en tiempo real, facilitando la toma de decisiones basada en datos. La formación de empleados también se beneficia de estas herramientas, con plataformas como Coursera for Business y Degreed, que personalizan planes de aprendizaje según las necesidades de cada trabajador. Además, en la mejora de la experiencia del empleado, los chatbots como IBM Watson Assistant facilitan la comunicación con los departamentos de recursos humanos, mientras que sistemas como Kronos Workforce Dimensions optimizan la asignación de tareas y turnos. ¿Existen normas aplicables al uso de IA en el ámbito laboral? El uso de la inteligencia artificial en el empleo se encuentra regulado en distintos niveles. En la Unión Europea, el Reglamento Europeo de Inteligencia Artificial clasifica los sistemas en función de su nivel de riesgo, diferenciando entre los de riesgo mínimo, limitado, alto e inaceptable. Esta clasificación permite definir con mayor precisión las obligaciones que deben cumplir empleadores y desarrolladores de sistemas de IA. En España, normativas como el Estatuto de los Trabajadores y la Ley Orgánica de Protección de Datos establecen principios aplicables al uso de IA en el empleo. Además, la Carta de Derechos Digitales introduce una serie de directrices sobre la transparencia y la supervisión en la utilización de estos sistemas. A nivel global, países como Estados Unidos, Canadá y Brasil están avanzando en regulaciones específicas para garantizar un uso responsable de la IA en el entorno laboral. ¿Qué garantías establece el Reglamento Europeo de IA? El Reglamento impone una serie de medidas destinadas a proteger los derechos de los trabajadores frente al uso de la inteligencia artificial en el ámbito laboral. Se prohíben aquellas tecnologías consideradas de riesgo inaceptable, como el reconocimiento de emociones en el trabajo o los sistemas que clasifiquen a los empleados en función de datos biométricos sensibles. Se establecen además obligaciones de transparencia, que requieren que los empleadores informen a sus trabajadores sobre el uso de IA en procesos de toma de decisiones que puedan afectar sus condiciones laborales. También se garantiza la supervisión humana en estos procesos y se exige la realización de evaluaciones de impacto para mitigar los posibles sesgos y discriminaciones. ¿Cómo regula la Directiva europea sobre trabajo en plataformas el uso de la IA en entornos laborales? La recién aprobada Directiva de la Unión Europea sobre trabajo en plataformas (cuya referencia completa es Directiva UE 2024/2831, del Parlamento Europeo y del Consejo) introduce un marco normativo pionero para regular la gestión algorítmica en este sector. Hasta ahora, muchas plataformas digitales han operado con modelos de contratación opacos, donde la toma de decisiones automatizada afecta directamente a las condiciones laborales de los trabajadores sin apenas control humano. La Directiva establece que debe presumirse la existencia de una relación laboral cuando se cumplen ciertas condiciones, como la imposición de tarifas, restricciones en la organización del trabajo o la evaluación del desempeño a través de algoritmos. Esto es un avance clave para evitar el falso trabajo autónomo y garantizar derechos básicos a estos trabajadores. Además, impone obligaciones específicas para las plataformas digitales en cuanto a transparencia y supervisión de la IA. Exige que los trabajadores tengan derecho a ser informados sobre cualquier sistema de IA que influya en su contratación, condiciones de trabajo o despidos. También obliga a las empresas a asegurar que siempre haya intervención y supervisión humana en las decisiones automatizadas y que los trabajadores puedan impugnar decisiones tomadas por algoritmos. Otro aspecto destacado de la pionera Directiva es la protección de los derechos de los trabajadores y sus representantes, lo que incluye la posibilidad de participar en la evaluación de los algoritmos y sus resultados. El derecho a la protección de los datos personales de los trabajadores también ocupa una posición importante, restringiendo la recopilación masiva de información personal y prohibiendo el uso de determinados sistemas de IA que invadan la privacidad o generen discriminación. Esta Directiva representa un cambio estructural en el mercado laboral digital, marcando un antes y un después en la regulación del empleo en plataformas. La implementación efectiva de estas medidas dependerá del desarrollo legislativo en cada país y del control sobre el cumplimiento de estas normas por parte de las plataformas. ¿Cómo afecta la IA a la protección de datos en el ámbito laboral? El Reglamento General de Protección de Datos y el Reglamento de IA establecen normas para proteger la privacidad de los trabajadores. El tratamiento de datos mediante inteligencia artificial debe cumplir con criterios de legitimidad y proporcionalidad. Los empleados tienen derecho a ser informados sobre cómo se utilizan sus datos y en qué medida las decisiones automatizadas pueden influir en su desempeño y trayectoria laboral. La normativa limita el uso de sistemas de IA que tomen decisiones de manera completamente automatizada sin posibilidad de revisión humana, salvo en situaciones en las que el trabajador haya otorgado su consentimiento explícito o exista una base jurídica clara que lo permita. ¿Qué derechos tienen los trabajadores frente a la IA? Los trabajadores tienen derecho a la transparencia en el uso de estos sistemas, pudiendo conocer de qué manera la inteligencia artificial impacta en sus condiciones laborales. La regulación europea también enfatiza la necesidad de garantizar la igualdad en el empleo, evitando sesgos algorítmicos que puedan generar discriminación. Además, se refuerza la obligación de supervisión humana en aquellas decisiones automatizadas que puedan afectar de manera significativa a los empleados. ¿Cómo impacta la IA en colectivos vulnerables? El estudio pone de relieve que la inteligencia artificial puede afectar de manera desproporcionada a determinados colectivos, como personas con discapacidad o en riesgo de exclusión. En algunos casos, los sistemas de IA pueden reforzar desigualdades preexistentes, ya sea por sesgos en los algoritmos o por la falta de accesibilidad en las herramientas digitales. Para mitigar estos riesgos, es necesario diseñar soluciones que sean inclusivas y adoptar medidas que garanticen la equidad en su aplicación. ¿Cómo influyen los convenios colectivos y acuerdos laborales en la regulación de la IA en el empleo? El marco normativo de la IA en el empleo no se limita a regulaciones estatales o europeas, sino que también puede definirse a través de convenios colectivos y acuerdos específicos entre empleadores y trabajadores. La negociación colectiva es un instrumento clave para garantizar que la adopción de IA en el entorno laboral respete los derechos de los trabajadores y se adapte a las particularidades de cada sector. Algunos convenios recientes han comenzado a incluir cláusulas sobre transparencia y control de la IA, estableciendo que las empresas deben informar y negociar con los representantes sindicales antes de implantar sistemas algorítmicos que afecten la contratación, evaluación o despido de empleados. También hay acuerdos que imponen garantías adicionales sobre la supervisión humana en la toma de decisiones automatizadas o que exigen auditorías externas para verificar que los sistemas de IA cumplen con principios de equidad e inclusión. En el trabajo se citan y analizan como ejemplo los convenios colectivos de Telefónica, Renault, Just Eat o Volkswagen, entre otros. Y también las referencias del V Acuerdo para el Empleo y la Negociación Colectiva (AENC) suscrito por las principales organizaciones sindicales y empresariales de España —CCOO, UGT, CEOE y Cepyme—. Otro aspecto en el que los convenios pueden jugar un papel importante es la formación en IA. A medida que la inteligencia artificial se convierte en una herramienta central en muchas empresas, los acuerdos laborales pueden garantizar que los trabajadores reciban capacitación para interactuar con estos sistemas y aprovechar sus beneficios sin que ello implique una precarización de su empleo. ¿Qué papel juegan los acuerdos y buenas prácticas en la regulación de la IA? Además de la regulación obligatoria, existen mecanismos de autorregulación que pueden complementar la normativa vigente. La inclusión de cláusulas sobre el uso de IA en convenios colectivos puede ayudar a establecer garantías adicionales para los trabajadores. Asimismo, el desarrollo de códigos de conducta y principios éticos permite orientar el uso de la IA hacia prácticas más responsables y transparentes. ¿Qué recomendaciones propone el estudio para garantizar un uso responsable de la IA en el empleo? El estudio destaca la importancia de que las empresas desarrollen marcos normativos internos que regulen el uso de la IA en su operativa. También se recomienda la creación de comités de supervisión que velen por el cumplimiento de los principios éticos y regulatorios en la aplicación de estos sistemas. La formación de los empleados en el uso responsable de la IA y la realización de auditorías periódicas para evaluar el impacto de estas tecnologías en el entorno laboral son otros elementos clave para garantizar su correcta implementación. ¿Cuáles son los principales usos de la IA en el sector público y qué retos plantea su implementación? El sector público no es ajeno a la automatización y digitalización impulsadas por la IA. En los últimos años, diferentes administraciones han comenzado a utilizar IA para optimizar procesos burocráticos, mejorar la toma de decisiones y aumentar la eficiencia en la prestación de servicios públicos. Sin embargo, su uso en la gestión del empleo público plantea desafíos específicos que requieren una regulación clara y garantías adecuadas. Uno de los principales ámbitos de aplicación de la IA en el sector público es la gestión de los procesos selectivos. Algunos sistemas de IA ya se utilizan para analizar solicitudes de empleo, evaluar méritos y competencias o incluso realizar pruebas automatizadas en concursos públicos. Aunque estas herramientas pueden hacer que los procesos sean más rápidos y eficientes, también generan preocupaciones sobre la falta de transparencia en los criterios de selección y la posibilidad de sesgos en la evaluación de candidatos. Otra aplicación relevante es la gestión del desempeño de los empleados públicos. Se han implementado herramientas que monitorizan la productividad y el cumplimiento de objetivos en tiempo real, pero esto ha generado debates sobre privacidad, vigilancia laboral y presión excesiva sobre los trabajadores. Además, en algunos países se están utilizando sistemas de IA para detectar irregularidades o malas prácticas en el sector público, analizando grandes volúmenes de datos para identificar patrones sospechosos en contrataciones o gastos administrativos. En este contexto, la regulación es fundamental para establecer límites claros sobre el uso de IA en el empleo público. Se deben garantizar principios de transparencia, asegurando que los empleados sepan qué sistemas se están utilizando y cómo afectan sus condiciones laborales. También es clave la supervisión humana, evitando que decisiones automatizadas puedan afectar de manera injusta la carrera profesional de los empleados públicos. Además, se deben desarrollar programas de formación en IA para que los trabajadores del sector público comprendan y puedan supervisar el uso de estas herramientas en su entorno laboral. A todos los actores involucrados en este inevitable proceso de incorporación de la IA en el empleo, recomendamos la lectura del Libro blanco y de las principales conclusiones y propuestas de acción que en este se formulan. Autor de la entrada del blog: Pere Simón Castellano. Gráficos e imágenes generadas a partir del contenido de la investigación con napkinAI. Autora del prompt Rosa Cernada Badía. Autores del entregable: Rosa Cernada Badía, Lorenzo Cotino Hueso, Antonio Merchán Murillo, Adrián Palma Ortigosa y Pere Simón Castellano. Realizado en el marco del proyecto Google Caire por OdiseIA. Versión definitiva disponible en 2025.
- El presidente del Gobierno presenta el Observatorio de Derechos Digitales
El presidente del Gobierno presenta el Observatorio de Derechos Digitales como un espacio esencial para un futuro digital inclusivo y parte integrante del proyecto COPID estuvo presente en la jornada. Las Comunidades de Práctica para el impulso de la Igualdad en el entorno Digital (COPID) es el proyecto seleccionado para desarrollar el convenio en el ámbito 2. Su objetivo general es fomentar - de manera conjunta entre Red.es , la Fundación ONCE (FONCE), el INSTITUTO DE DERECHOS HUMANOS ‘GREGORIO PECES-BARBA’ de la Universidad Carlos III de Madrid (UC3M) y el Observatorio del impacto social y ético de la IA (OdiseIA) - las propuestas de medidas legislativas y no legislativas para impulsar la implementación de la Carta de Derechos Digitales en el eje de los Derechos de Igualdad. En este sentido, desde las COPID participamos activamente en garantizar los Derechos en el entorno digital y en la consecución de un equilibrio entre la protección de los ciudadanos y la innovación tecnológica. Las comunidades están dirigidas a cubrir el Derecho a la igualdad y a la no discriminación en el entorno digital; el Derecho de acceso a internet; la Protección de las personas menores de edad en el entorno digital; la Accesibilidad universal en el entorno digital; y las Brechas de acceso al entorno digital. Para hacer llegar a la ciudadanía los avances, ventajas y retos en materia de Derechos Digitales el Observatorio de Derechos Digitales ha lanzado también la web www.derechosdigitales.gob.es con información de alto valor para fomentar la difusión y promover las buenas prácticas en torno a los derechos digitales.
- ¿Cómo defender a los Sistemas Inteligentes en nuestra empresa? Taxonomía de amenazas
¿Imaginas que tu asistente virtual termine recomendando productos dudosos porque alguien alteró su sistema de entrenamiento? ¿O que un sistema de seguridad basado en IA confunda a un intruso con un empleado fiable? Estos escenarios, que parecerían sacados de una película de ciencia ficción, son cada vez más reales a medida que la inteligencia artificial se extiende a todo tipo de empresas y aplicaciones. Dentro del proyecto cAIre de Google , nos hemos propuesto abordar esta problemática de forma práctica. En esta primera fase, hemos desarrollado: Una taxonomía de amenazas específicas contra sistemas de IA. Un mapeo de soluciones comerciales que ya existen y pueden ayudarte a proteger tu negocio frente a estos riesgos. A continuación, te contamos qué hemos hecho, en qué consisten las principales amenazas, cómo defenderse de ellas y cómo puedes sumarte a este esfuerzo para construir herramientas más seguras y confiables . ¿En qué consiste nuestro trabajo? 1. Primera versión de la taxonomía de amenazas Nuestra taxonomía es básicamente un “listado organizado” de los ataques más comunes y peligrosos que sufre la IA empresarial hoy en día. Hemos identificado amenazas como el ataque adversarial , la inversión de modelo , la fuga de datos o la inyección de prompt , entre otras. Para cada amenaza, describimos de forma sencilla qué es, por qué es peligrosa, ejemplos reales y enlaces de referencia para profundizar. 2. Análisis de soluciones comerciales No basta con conocer el problema; también hay que ver cómo combatirlo. Por ello, mapeamos las principales propuestas en el mercado que ayudan a blindar sistemas de IA. Recopilamos desde firewalls especializados para modelos de lenguaje (LLM Firewalls) hasta plataformas de Red Teaming (pentesting automatizado) centradas en IA, pasando por herramientas de observabilidad y monitorización . Por supuesto, no tenemos ningún tipo de relación comercial con este tipo de empresas, sino que hemos realizado un barrido de las principales soluciones del mercado. De hecho, durante la fase de difusión de la webapp, vamos a tratar de añadir el mayor número de nuevas soluciones posibles. Al final, obtuvimos una panorámica de más de 20 empresas y soluciones que protegen cada uno de los frentes que atacan a la IA. 3. WebApp interactiva Para que esta información esté fácilmente disponible (y no se pierda en un PDF estático), hemos construido una aplicación web que muestra nuestra taxonomía de amenazas, ejemplos de cada ataque y métodos de defensa. Puedes ver la WebApp en el siguiente enlace: https://www.odiseia.org/threat-taxonomy En la WebApp, cada categoría de defensa (por ejemplo, “LLM Firewall” o “Pentest/Red Team”) se encuentra enlazada con las amenazas que suele ayudar a mitigar. Además, mostramos un listado de las empresas que ofrecen soluciones específicas para cada categoría, con enlace a sus páginas oficiales para mayor detalle. Principales amenazas y métodos de defensa A grandes rasgos, algunas de las amenazas más relevantes que cubrimos son: Ataque adversarial : Pequeños cambios “invisibles” que engañan al modelo de IA. Data poisoning : Inyección de datos “tóxicos” en el conjunto de entrenamiento para desviar comportamientos. Model inversion : Extracción de información sensible sobre la base de datos que entrenó el modelo. Model jailbreak : Burlar las restricciones de un modelo (por ejemplo, un chatbot) para lograr respuestas prohibidas. Backdoor attack : Insertar un “gatillo” malicioso en el modelo para que se comporte mal únicamente bajo ciertas condiciones. Y, por supuesto, identificamos sus correspondientes métodos de defensa , que divivimos en categorías como: Observabilidad : Monitorización continua de la IA para detectar anomalías en tiempo real. LLM Firewalls : Barreras especializadas en grandes modelos de lenguaje que filtran prompts, salidas indebidas y fugas de datos. Data Leak Firewalls : Escudos que evitan el escape de información sensible o confidencial. Detection & Response : Herramientas que no solo detectan amenazas, sino que también actúan o alertan inmediatamente. Pentest/Red Team : Equipos o entornos que simulan ataques reales antes de que los “malos” los aprovechen. AI-Powered Threat Hunting : Búsqueda proactiva de patrones maliciosos usando la misma IA, pero en “modo defensor”. ¿Qué muestra la WebApp? En nuestra aplicación web (que puedes ver en el repositorio del proyecto o en la demostración adjunta) encontrarás: Lista de amenazas : Cada ataque tiene su descripción, enlaces a artículos relevantes y ejemplos de noticias reales. Mapa de defensas : Visualización interactiva de las categorías de defensa y qué ataques cubren. Empresas y soluciones : Un directorio de herramientas comerciales clasificadas según el tipo de defensa que ofrecen. La idea es que, navegando por la web, puedas entender de forma intuitiva: Qué tipo de amenazas existen. Qué métodos se recomiendan para protegerse. Qué ofertas concretas hay en el mercado. Además, dejamos abierta la posibilidad de crecer y actualizar tanto la taxonomía como las soluciones disponibles. ¡Queremos tu ayuda! La ciberseguridad aplicada a la IA avanza tan rápido como la tecnología misma. Por eso, necesitamos la contribución de más expertos que nos ayuden a: Ampliar y refinar la taxonomía : ¿Hay amenazas nuevas o específicas de tu sector que no hayamos contemplado? Mejorar la WebApp : Sugiere cambios en la forma de presentar la información, funcionalidades adicionales o cualquier detalle que la haga más útil. Participar en nuestra encuesta : Queremos recopilar datos sobre qué amenazas están encontrando las empresas y los investigadores en la práctica. Tus aportes ayudarán a priorizar las defensas más críticas. ¿Cómo participar? Completa el formulario de esta página: https://forms.gle/n5PLVzYCptRH1rkDA Si trabajas en ciberseguridad, en IA o simplemente te interesa el tema , ¡tus ideas pueden marcar la diferencia para que construyamos sistemas inteligentes más seguros y confiables! Daremos reconocimiento a todos los miembros que participen . Próximos pasos Nuestro trabajo no termina aquí. Queremos seguir actualizando la taxonomía y añadir: Más ejemplos reales de cada ataque y sus consecuencias. Opciones de herramientas open source que no sean puramente comerciales. Casos de uso sectoriales (finanzas, salud, industria, etc.). Generar una Guía de buenas prácticas adaptadas a las amenazas que más se están registrando según las respuestas a la encuesta a directores y expertos en el sector. Y, por supuesto, compartir los resultados de la encuesta para que toda la comunidad se beneficie de un mejor conocimiento colectivo sobre las amenazas reales que ya se están viendo “en el campo”. En el grupo 2.8 de Ciberseguridad de Sistemas Inteligentes para Empresas (proyecto cAIre de Google), nuestro objetivo es que cada organización pueda adoptar la IA con confianza , sabiendo que existen estrategias y soluciones para enfrentar los ataques más sofisticados. Con la ayuda de la comunidad y de expertos interesados, esperamos mejorar constantemente y proteger mejor nuestras tecnologías del mañana .
- IA Y VULNERABILIDAD HUMANA: UNA LLAMADA A CONECTAR CON ORGANIZACIONES Y EMPRESAS
Autores: Begoña González, Juan Jose Escribano, Ramón Baradat, Fabian García, Hugo Ramallo, Andrea Stechina, miembros de los grupos 1.4 y 1.5, Proyecto cAIre de OdiesIA. La vulnerabilidad es una condición intrínseca al ser humano. Como ya señalamos en la entrada de blog « AI for Good: La idea de la vulnerabilidad humana en tela de juicio », todos somos vulnerables, pero las circunstancias sociales, económicas o de salud amplifican esta realidad en ciertos colectivos. Personas mayores, migrantes, víctimas de violencia de género, personas con discapacidad o en exclusión social enfrentan desafíos que la tecnología, específicamente los sistemas de IA, puede ayudar a acentuar o a mitigar. Si nos centramos en el aspecto positivo, la capacidad de mitigación de vulnerabilidades a través del uso de sistemas de IA, el potencial de esta herramienta es inmenso. Pero este impacto positivo solo es posible si quienes trabajan en estas tecnologías adoptan enfoques éticos, sostenibles y centrados en las personas. La inclusión en la IA, como ya hemos apuntado , es cosa de todos. En la búsqueda de conectar con empresas y organizaciones que utilizan sistemas de IA para apoyar a personas vulnerables, encontrarse con obstáculos puede parecer inevitable. Desde la falta de respuesta en la comunicación hasta la falta de claridad en sus misiones, estas barreras reflejan desafíos sistémicos más amplios en lugar de casos aislados. Los conocimientos obtenidos de investigaciones recientes, incluyendo un análisis de los esfuerzos de acercamiento a organizaciones y de sus modelos de negocio, arrojan luz sobre por qué persisten estas dificultades y qué se puede hacer para superarlas. La complejidad de identificar actores en IA y vulnerabilidad En los meses que llevamos trabajando en este proyecto, y a pesar del potencial transformador de la IA, conectar con empresas y organizaciones que realmente desarrollan soluciones enfocadas en la vulnerabilidad humana es sorprendentemente complicado. Un reciente análisis de nuestros esfuerzos por contactar a organizaciones que trabajan con IA para colectivos vulnerables ha puesto de manifiesto varios retos: Mensajes poco claros: Muchas organizaciones utilizan un lenguaje genérico o ambiguo en sus comunicaciones, dificultando la comprensión de sus objetivos y acciones concretas. Falta de respuestas: De casi 300 organizaciones contactadas, menos de un 10% respondió positivamente, mientras que la mayoría no ofreció seguimiento alguno. Desconocimiento del impacto de la IA: En muchos casos, las organizaciones no monitorean y evalúan el impacto real de sus herramientas, lo que genera dudas sobre su compromiso y efectividad. Estos obstáculos no son insuperables, pero reflejan un ecosistema fragmentado donde aún queda mucho por mejorar, y, por tanto, mucho espacio para la innovación y para emprendedores. Modelos de negocio para el bien social en IA El informe de GSMA Intelligence de 2018 Scaling Big Data for Social Good ya subrayaba que los modelos de negocio son fundamentales para garantizar la sostenibilidad y el impacto de las iniciativas de IA en el ámbito de la vulnerabilidad. Analicemos los principales enfoques y cómo generan valor: 1. Modelos filantrópicos y donaciones subsidiadas: Proyectos impulsados por filantropía o subsidios externos suelen ser el punto de partida. Aunque útiles para lanzar iniciativas y ganar confianza, carecen de la sostenibilidad necesaria para un impacto a largo plazo. Por ejemplo, la Cruz Roja ha integrado tecnologías de big data e IA para mejorar la atención a mujeres víctimas de violencia de género. Mediante el análisis de datos, han optimizado la identificación de perfiles, mejorado la contactabilidad y reducido el desuso de sus servicios, permitiendo una atención más personalizada y efectiva. Valor generado : Acceso gratuito a soluciones innovadoras para colectivos vulnerables, lo que genera confianza inicial y atención a necesidades urgentes. 2. Modelos escalonados: Proporcionan servicios básicos gratuitos y reservan características avanzadas para usuarios que pueden pagar. Un ejemplo lo encontramos en LUP . Fundada por Apurva San Juan y Eneko Calvo, esta empresa ha desarrollado un dispositivo que convierte texto en audio en menos de dos segundos, utilizando IA y visión computacional. Este dispositivo está diseñado para personas con baja visión, dislexia o vista cansada. Ofrecen diferentes modelos a partir de 549 euros, con funciones avanzadas como conexión Bluetooth y traducción en 30 idiomas, permitiendo accesibilidad a diversos segmentos de la población. Valor generado: Democratizan el acceso a la tecnología al tiempo que aseguran la sostenibilidad financiera del proyecto. 3. Modelos colaborativos: Involucran a actores públicos, privados y ONGs en proyectos conjuntos, aprovechando recursos, conocimientos y redes. Un ejemplo es la startup española SocialDiabetes , que lidera el consorcio SmartDiabetes , que ha recibido financiación de la Unión Europea para desarrollar nuevos modelos de asistencia sanitaria basados en valor. Integran una plataforma de terapia digital que utiliza IA para mejorar la autogestión de la diabetes, beneficiando a millones de personas en Europa. Valor generado: Aumentan la escala y eficacia de las soluciones al integrar perspectivas y habilidades diversas. 4. Subsidios cruzados: Empresas destinan parte de sus ingresos de proyectos comerciales para financiar iniciativas sociales. Un ejemplo lo encontramos en ROAM , una startup palentina que ha desarrollado un modelo laboral que retiene talento cualificado en la España vaciada, combinando competitividad con un enfoque humano y sostenible. Aunque no se centra exclusivamente en IA, su modelo de negocio incluye la gestión de servicios esenciales, donde la tecnología juega un papel clave para ofrecer atención personalizada y eficiente. Valor generado: Permiten desarrollar herramientas sociales sin comprometer recursos exclusivamente en un modelo de donación. Generación de valor más allá de lo económico El éxito de estas iniciativas basadas en el uso de sistemas de IA no debe evaluarse únicamente desde una perspectiva financiera, sino por su capacidad para generar valor social y ético. Estas tecnologías pueden transformar vidas al facilitar el acceso a oportunidades de empleo, servicios de salud, educación o recursos básicos, empoderando a las personas vulnerables. Además, el desarrollo de sistemas de IA adaptadas a las necesidades específicas de cada colectivo y libre de sesgos contribuye a reforzar la inclusión y la equidad. Los sistemas de IA también tienen el potencial de generar un impacto sistémico al optimizar recursos y decisiones, desde la prevención de desastres hasta el monitoreo de epidemias, beneficiando a comunidades enteras. Todo esto debe complementarse con un enfoque que priorice la ética y la privacidad, fortaleciendo la confianza tanto de los beneficiarios como de la sociedad en general, y garantizando que estas herramientas se utilicen de manera justa y responsable. Construyendo un futuro más inclusivo A pesar de los desafíos, nuestros grupos de investigación están convencidos de que construir un ecosistema inclusivo y eficaz que aproveche el potencial de la IA para apoyar a personas vulnerables es no solo posible, sino esencial. La clave radica en adoptar enfoques estratégicos que prioricen la transparencia, la sostenibilidad y el impacto social duradero. Aquí algunas estrategias fundamentales para lograrlo: Comunicación clara y accesible : Es fundamental que las empresas y organizaciones comuniquen con claridad cómo sus soluciones de IA están ayudando a las personas vulnerables. Esto incluye explicar sus objetivos, beneficios y posibles riesgos de forma transparente y accesible. Publicar informes de impacto y mantener canales abiertos para el diálogo con la sociedad civil y los beneficiarios es esencial para construir confianza. Por ejemplo, el concepto de “lectura fácil” ( easy read ) es un método de crear documentos que son más fáciles de entender. Los sistemas de IA, como en el caso de ATECA , pueden ayudar a organizaciones y empresas en la redacción de documentación, y luego convertir información compleja en “lectura fácil”. Así no solo se comunica de manera clara y accesible, sino también se ayuda a la ganancia de lectores, incrementando el impacto social. Pilotaje con propósito : Los proyectos piloto deben diseñarse pensando en la sostenibilidad desde el principio. Esto significa definir objetivos claros y medibles, identificar rutas para escalar las soluciones y considerar aspectos como el impacto ambiental y social. No basta con probar una idea; se debe garantizar que tenga un futuro viable y duradero. Por ejemplo, la herramienta RiD , que se ha desarrollado para ayudar al desarrollo de software inclusivo para usuarios con una discapacidad específica, y tiene en cuenta estas necesidades a lo largo de todo el ciclo de vida del producto. Fomento de alianzas intersectoriales : La colaboración entre sectores público y privado, organizaciones no gubernamentales e instituciones académicas permite combinar recursos y conocimientos para abordar problemas complejos de manera más efectiva. Estas alianzas son imprescindibles para desarrollar soluciones robustas y equitativas. Evaluación continua del impacto : implementar mecanismos regulares de evaluación que midan tanto los resultados cuantitativos como el impacto cualitativo de las soluciones. Esto incluye recopilar las experiencias de las personas vulnerables para ajustar y mejorar las estrategias. Por ejemplo, el informe de 2018 explica como en Finlandia, Telia utiliza sistemas de IA para analizar patrones de movilidad que mejoran la planificación urbana. Evalúan continuamente el impacto social y ajustan sus herramientas para responder a las necesidades de los usuarios y de los responsables de las políticas públicas. Inversión en capacitación y alfabetización digital: Para que las soluciones de IA tengan un impacto inclusivo, es imprescindible capacitar a las personas vulnerables. Esto no solo implica enseñarles a usar la tecnología, sino también a comprender sus implicaciones y a participar activamente en su desarrollo. Involucrar a personas vulnerables desde el principio: Creemos que las soluciones más efectivas son aquellas diseñadas con la participación activa de las personas a las que van dirigidas. Escuchar sus necesidades y contextos garantiza que las herramientas de IA sean útiles, respetuosas y relevantes. Una llamada a conectar Sabemos que hay más organizaciones y empresas comprometidas en desarrollar soluciones innovadoras para colectivos vulnerables, pero muchas veces no logramos establecer contacto. Por eso mismo queremos proponerte dos maneras de conectar: OdiseIA ha lanzado el I Hackaton Internacional de IA para colectivos vulnerables , OdiseIA4Good . A finales de febrero (25, 26 y 27 de febrero, 2025) esperamos convocar a hackers, emprendedores y personas que quieran aportar y enriquecer perspectivas en grupos multidisciplinares en el desarrollo de soluciones basadas en sistemas de IA cuya finalidad sea ayudar a mitigar y solucionar cuestiones de vulnerabilidad humana. Si el Hackaton no encaja bien en tu agenda, ¡queremos conocerte! Escríbenos a bgotero@odiseia.org o fabian.garcia@odiseia.org y cuéntanos tu caso de uso. Juntos podemos transformar ideas en acción y asegurar que nadie quede atrás.
- Ventajas y Riesgos de la IA Generativa en las Profesiones Culturales y Creativas
María de Miguel Molina, Universitat Politecnica de Valencia* Como ya se ha indicado en otros posts dentro del proyecto cAIre de Odiseia , la IA generativa (IAGen) nos hace replantearnos el concepto de vulnerabilidad. Si observamos distintos estudios de nuestro directorio, hay profesiones u ocupaciones que potencialmente se ven más afectadas por esta tecnología disruptiva. Dentro de este Impacto en el Empleo, el subgrupo 2.6 (Ventajas y Riesgos de IA) es el encargado de Identificar beneficios y riesgos de la IA en el mercado laboral, especialmente para grupos vulnerables. Aquí se ha realizado una primera aproximación para analizar cómo la IAGen puede suponer oportunidades y amenazas para algunas profesiones que tienen su base en la propiedad intelectual, los derechos de autor y la creatividad. Para ello, además del estudio de distintos documentos, se ha enviado un cuestionario a profesionales del sector para contrastar su experiencia en el uso de estas herramientas y los interrogantes que plantean. ¿Podemos entender a las Industrias Culturales y Creativas como Grupos Vulnerables? Desde el punto de vista económico, algunas profesiones de las Industrias Culturales y Creativas (ICCs) se sienten amenazadas por estas herramientas cuando se utilizan como sustitutos de su trabajo y no como una ayuda. Además, hay una gran desconfianza sobre el uso de material propio sin consentimiento o sin una compensación por su explotación. Algunas empresas de AIGen han adquirido los derechos de creadores de contenido o se han adherido a certificados de confianza, pero no siempre se conoce de dónde proviene el material utilizado. Un ejemplo de buena práctica lo encontramos en LifeScore , una empresa británica que, desde 2016, trabaja con los compositores un modelo de negocio basado en las personas ( human-centred approach ), conservando su autoría y centrándose en la calidad del producto. Se han adherido a Fairly Trained , un certificado para cualquier producto o servicio de IA que garantiza no utilizar material protegido sin consentimiento del autor. En cualquier caso, esta amenaza depende del sector específico de las ICCs al que nos refiramos. Los profesionales del videojuego, ilustración y traducción son los más preocupados por su posible sustitución por herramientas que, por otro lado, no cuentan con un control de calidad de todo el proceso ni generan el mismo valor. Otras profesiones, como la música, arquitectura, diseño o audiovisual, al distinguir su uso sólo en alguna etapa del proceso creativo no se sienten tan relegadas. Y, finalmente, los profesionales de la comunicación son los menos intimidados porque ya las han integrado en su trabajo. ¿Esto significa que las ICC no están utilizando herramientas de IAGen? En pocos casos no se usa ninguna, pero si se usan es de manera distinta. Como podemos observar en la imagen, la gran estrella es ChatGPT. Y ello no porque se utilice en todo el proceso, sino porque se le da un uso más de apoyo, incluso fuera del proceso creativo (como es el caso de los sectores más “vulnerables”). Por ejemplo, se utiliza para buscar información, sugerir por dónde empezar o resumir ideas. Este también sería el caso de Perplexity o Gemini. Otras son herramientas de largo recorrido que han incluido la IA, como Adobe, PhotoShop o Canva. En tercer lugar, tendríamos el grupo de herramientas que son específicas para generar contenidos alternativos, como Davinci, Runway o Midjourney. Algunas herramientas con IAGen utilizadas por profesionales de las ICCs Fuente: Elaboración propia, a partir de los cuestionarios (diciembre 2024-enero 2025) ¿Y qué sucede con los grupos tradicionalmente vulnerables? Los profesionales, además de verse algunos de ellos (económicamante) vulnerables, distinguen dos grupos. Por un lado, los vulnerables tradicionales, especialmente personas mayores para las que ha aumentado la brecha digital con la IA. Frente a ello, hay herramientas de IAGen que sí tienen en cuenta a personas con capacidades especiales. Por ejemplo, DeepL es una empresa alemana para traducción automática que, en 2018, incorporaron IA y la adaptaron a personas con capacidades especiales junto a Fable , otra empresa especializada en la co-creación digital con colectivos vulnerables para garantizar la accesibilidad. A estos grupos vulnerables tradicionales, podríamos añadir las personas que no pueden pagar algunos servicios “extra” de IAGen. Los profesionales coinciden en que, como en muchas aplicaciones, las versiones demo son gratuitas pero las que se utilizan a nivel profesional son de pago. El segundo grupo vulnerable para los profesionales de las ICCs serían aquellos jóvenes que se incorporan al mercado laboral y, o bien carecen de formación en IA, o las tareas por las que empiezan son precisamente aquellas sustituibles por una IAGen. Estos necesitan encontrar su hueco en un entorno nuevo, sin desmotivar su creatividad. En resumen, ¿cuáles son las necesidades actuales y futuras de las ICCs? Las podemos catalogar en tres grupos: Las que dependen de las empresas de IA: transparencia en el proceso, ética en el uso de contenidos, co-creación con los autores y los grupos vulnerables. Las que dependen de los centros educativos: especialmente formación, no sólo en las herramientas sino también en su uso desde el pensamiento crítico y su desarrollo con enfoques basados en las personas. Las que dependen de los policymakers : co-definición de los problemas con los distintos grupos de interés, para desarrollar las políticas públicas adecuadas. Las ICCs han pasado por muchos momentos de adaptación y esa creatividad de la que disponen les hace perfectamente resilientes para seguir adelante, pero el camino para hacerlo con éxito es un trabajo de todo el sistema, con la participación de los grupos de interés. *M. de Miguel ( mademi@omp.upv.es ) trabaja en la Universitat Politecnica de Valencia las políticas y estrategias para las ICCs, junto a los profesores B. de Miguel y D. Catalá. El subgrupo 2.6 está integrado por: Manuel Ruiz del Corral, Jeremy Mederos, Idoia Salazar y María de Miguel. Las conclusiones del proyecto se publicarán a finales de 2025.












