top of page

Search Results

108 resultados encontrados

  • Impacto laboral de la IA: primer informe con datos anónimos de Claude

    Anthropic ha lanzado el pasado día 10 de febrero, el informe “Anthropic Economic Index” ( https://www.anthropic.com/news/the-anthropic-economic-index ) .  Además, han publicado un paper ( https://assets.anthropic.com/m/2e23255f1e84ca97/original/Economic_Tasks_AI_Paper.pdf ) titulado “ Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations ” , en el que analizan en detalle cómo la IA se aplica en distintos ámbitos laborales. Anthropic es una empresa estadounidense de investigación y desarrollo de inteligencia artificial fundada en 2021 y liderada por antiguos trabajadores de OpenAI.​ los hermanos Dario y Daniela Amodei.  ¿De qué trata este informe?   Se trata de una iniciativa que busca conocer los efectos de la IA en el mercado laboral. Este índice ofrece datos y análisis, basados en millones de conversaciones mantenidas por los usuarios de forma “anónima” con Claude .   Claude es el chat conversacional de la empresa Anthropic, que dispone de versión gratuita para poder interactuar con ese LLM. Con este informe recopilatorio se pretende conocer cómo se está utilizando la IA en tareas laborales reales.El aspecto más llamativo ha sido el dataset utilizado para el análisis.  Se han utilizado alrededor de 4 millones de conversaciones realizadas con Claude. Su estudio se ha centrado en el impacto de la IA en el trabajo utilizando un enfoque basado en datos para identificar qué tareas y ocupaciones están adoptando esta tecnología, en lugar de utilizar suposiciones. Los resultados muestran que la IA se usa sobre todo en código y en redacción (juntos representan casi la mitad de todos los casos de uso). Sin embargo, su adopción es mucho más amplia y alcanza aproximadamente al 36% de las ocupaciones, aunque en distintos grados. El informe también diferencia dos formas de uso de la IA: Un 57% lo usa como una herramienta de apoyo para mejorar la productividad humana, como mejorar textos o aprender nuevas habilidades. Un 43% lo usa como una automatización directa, donde la IA ejecuta tareas con la mínima intervención humana. El análisis tiene limitaciones y solo refleja datos de la plataforma específica de Claude. Pero se abre la puerta para que utilicen este método otras compañías y puedan seguir la evolución y tendencias futuras de la IA en el mercado laboral. La intención de Anthropic es poner en el foco el uso real de la IA en el trabajo y así fomentar un debate abierto entre todos los sectores afectados (economistas, abogados, expertos en políticas públicas o académicos) con el objetivo de prepararse para dar respuestas reales a los cambios inevitables que la IA traerá al mundo del trabajo. ¿Qué datos son los más reveladores del estudio? Este primer informe ha revelado datos clave sobre la adopción de la IA en diferentes sectores.  Pueden afirmar que actualmente, el uso de la IA se centra principalmente en el desarrollo de código (software) y la redacción de textos.  La primera sección “Porcentaje de trabajos que usan IA” muestra cómo se distribuye el uso de IA en los trabajos. Color rojo: solo el 4% de los trabajos usan IA de forma intensiva. Color azul: el 36% de los trabajos usan IA moderadamente. Color gris: el 60% de los trabajos usan poco o nada de IA. La segunda sección muestra “Cómo se utiliza la IA” Se puede observar cómo la IA se utiliza más para "aumentar" el trabajo humano (57%) en lugar de "automatizar" tareas por completo (43%).  En este sentido, la IA está funcionando como una herramienta de apoyo al trabajador que mejora la productividad en lugar de automatizar tareas de manera masiva.  Sin embargo, este equilibrio podría cambiar en poco tiempo, ya que los modelos de IA están avanzando muy rápidamente. El análisis de Anthropic ha identificado seis categorías profesionales en las que la IA tiene una presencia significativa: Computación y matemáticas (37,2%): programación, depuración de código y resolución de problemas de red. Artes y medios (10,3%): escritura y edición de contenidos. Educación y bibliotecas (9,3%): soporte en la generación de materiales educativos. Administración y oficinas (7,9%): automatización de informes y asistencia en tareas administrativas. Ciencias de la vida (6,4%): análisis de datos y documentación científica. Negocios y finanzas (5,9%): redacción de informes y asistencia en análisis de datos financieros. El estudio también muestra que los sectores con menor adopción de IA son aquellos que requieren un alto grado de trabajo manual o físico, como la agricultura, la pesca y la silvicultura, donde la presencia de IA es prácticamente nula (0,1%). ¿Cómo consiguieron analizar millones de conversaciones? Para llevar a cabo este análisis, Anthropic desarrolló una herramienta llamada Clio , que permite analizar conversaciones con Claude mientras se respeta la privacidad de los usuarios.  Clio categorizó aproximadamente un millón de conversaciones según las tareas laborales descritas en la base de datos O*NET del Departamento de Trabajo de EE.UU. Esto permitió mapear la relación entre el uso de la IA y diferentes tipos de ocupaciones. Los resultados también permitieron comparar la frecuencia del uso de la IA en cada ocupación con su representación en la fuerza laboral general.  Por ejemplo, los desarrolladores de software representaron el 37,2% del uso de IA, a pesar de que solo constituyen el 3,4% de la fuerza laboral en EEUU. En contraste, los trabajadores administrativos, que representan el 12,2% de la fuerza laboral, solo usaron IA en el 7,9% de las conversaciones. ¿En qué franja salarial impacta más la IA? El estudio comparó la tasa de adopción de la IA con el salario medio de cada ocupación y encontró que los trabajos con salarios bajos y muy altos son los que menos utilizan IA.  El informe también destaca que el uso de la IA es más común en ocupaciones de salario medio y alto, como programadores y científicos de datos, mientras que su adopción es menor tanto en trabajos con sueldos más bajos como en los de mayor remuneración.  Esta tendencia sugiere que existen barreras prácticas y limitaciones tecnológicas que impiden la automatización total de ciertas tareas. Por ejemplo, ocupaciones como estilistas y obstetras presentan bajos niveles de adopción de IA, debido a la necesidad de habilidades manuales o conocimientos altamente especializados. En cuanto al equilibrio entre automatización y aumento de capacidades, los datos revelan que la IA colabora con los trabajadores más de lo que los reemplaza. En un 57,4% de los casos, la IA se utilizó para validación, iteración de tareas y aprendizaje, mientras que en el 42,6% de los casos, la IA completó tareas de manera autónoma. ¿Cómo será el futuro según el Anthropic Economic Index? Todavía no se puede determinar con certeza si el uso de IA en las conversaciones analizadas está directamente relacionado con el trabajo de los usuarios, ni si los resultados generados fueron usados sin modificaciones o revisiones posteriores.  Además, el estudio se basó únicamente en datos de Claude.ai Free y Pro, excluyendo el uso empresarial y de API. Además, este análisis se centra únicamente en la fuerza laboral de EEUU. Para abordar estas limitaciones y seguir monitoreando la evolución de la IA en el mercado laboral, Anthropic planea actualizar periódicamente el Economic Index.  La empresa espera identificar más tendencias a largo plazo en el campo de la automatización y asistencia de la IA en el trabajo. En conclusión, el Anthropic Economic Index ofrece una primera visión sobre el impacto de la IA en el mundo laboral. Aunque actualmente la IA actúa más como un complemento que como un reemplazo de los trabajadores, su papel en la economía podría cambiar a medida que las tecnologías evolucionen.

  • COTI: La Inteligencia Artificial al servicio de la inclusión digital de las personas mayores

    En una era donde la tecnología avanza a pasos agigantados, 6 millones de personas mayores solo en España aún enfrentan barreras para integrarse en el mundo digital. Y es que no es lo mismo tener una app descargada que ser un usuario activo. Esta brecha en el uso no solo limita su acceso a servicios y oportunidades, sino que también aumentar sentimientos de soledad y aislamiento digital.  Con el objetivo de abordar esta problemática, nace COTI , una plataforma digital inclusiva que utiliza la Inteligencia Artificial (IA)  para conectar a las personas mayores con sus familias y profesionales sociosanitarios. Una solución personalizada gracias a la IA COTI destaca por su capacidad para adaptarse a las habilidades específicas de cada usuario. Al iniciar la aplicación, la persona realiza un sencillo juego cognitivo potenciado con Inteligencia Artificial que evalúa sus habilidades tecnológicas. Basándose en los resultados, la plataforma ajusta su interfaz y funcionalidades para ofrecer una experiencia personalizada y accesible. Además, un algoritmo de machine learning  analiza continuamente el uso de la aplicación, adaptándose a las necesidades cambiantes del usuario y garantizando una interacción óptima. Un entorno seguro y controlado La seguridad es una prioridad en COTI. La plataforma funciona como una red social cerrada por invitación, asegurando que los usuarios solo interactúen con personas autorizadas. Esta característica protege la privacidad y proporciona un entorno confiable para la comunicación. Beneficios para todos los involucrados Personas mayores : COTI les permite mantenerse conectadas con sus seres queridos, mejorando el bienestar emocional y fomentando la estimulación cognitiva. Familiares : La plataforma facilita la comunicación y el seguimiento del estado de sus familiares mayores, ofreciendo tranquilidad y fortaleciendo los vínculos.  Profesionales sociosanitarios : COTI optimiza la coordinación y el seguimiento de los pacientes, mejorando la eficiencia en la atención y permitiendo una gestión más personalizada. Son alertados cuando hay variaciones en la cognición de los usuarios. Compromiso con la ética y la responsabilidad en la IA La implementación de la IA en COTI se alinea con las directrices éticas promovidas por organizaciones como OdiseIA , el Observatorio del Impacto Social y Ético de la Inteligencia Artificial. OdiseIA trabaja activamente para impulsar el uso de la IA de manera ética, responsable y centrada en el bienestar social. La colaboración entre iniciativas como COTI y entidades como OdiseIA es fundamental para garantizar que la tecnología beneficie a toda la sociedad, especialmente a los colectivos más vulnerables. Un equipo multidisciplinar al servicio de la inclusión Detrás de COTI hay un equipo de profesionales comprometidos con la mejora de la calidad de vida de las personas mayores. Liderados por Antonio González-Adalid , neuropsicólogo y CEO de la plataforma, el equipo combina experiencia en neurociencia, diseño de interfaces y accesibilidad digital para ofrecer una herramienta intuitiva y efectiva. Conclusión COTI representa un avance significativo en la integración de las personas mayores en la era digital. Al combinar tecnología avanzada con un enfoque centrado en el usuario, la plataforma no solo facilita la comunicación, sino que también promueve la autonomía y el bienestar de sus usuarios. Iniciativas como COTI demuestran cómo la IA, implementada de manera ética y responsable, puede ser una herramienta poderosa para la inclusión social y la mejora de la calidad de vida. Desde el lunes 3 de marzo ya puedes descargar la aplicación: Gracias a que esta startup de impacto social están en periodo de lanzamiento, puedes disfrutar de 3 meses gratis con el código descuento: COTIPRES

  • Libro Blanco sobre el impacto, regulación y garantías ante el uso de la IA por el empleador respecto de sus trabajadores

    Resumen del estudio sobre el impacto y las garantías ante el uso de la inteligencia artificial por los empleadores, realizado por OdiseIA en el marco del proyecto cAIre. Puedes conocer más sobre esta iniciativa en el siguiente enlace: Caire - OdiseIA . Esta es la primera versión del entregable principal del subproyecto, cuya versión definitiva estará disponible a finales de 2025. A continuación, se ofrece un resumen en formato de preguntas y respuestas que destaca los aspectos más relevantes e innovadores del Libro Blanco. ¿Qué cambios introduce la IA en el ámbito laboral? La inteligencia artificial está modificando de manera profunda el mercado de trabajo. Automatiza procesos rutinarios, transforma la selección y evaluación del personal y redefine la experiencia de los trabajadores dentro de las empresas. Su impacto es cada vez más evidente, como muestran los datos del INE, que indican que en 2024 el 12,4% de las empresas en España ya utilizaban alguna herramienta de IA. Esta tendencia es promovida desde las administraciones públicas mediante estrategias gubernamentales, como el Kit Consulting, que facilitan su implantación. ¿Cuáles son los principales casos de uso de la IA por los empleadores? Las empresas están incorporando la inteligencia artificial en distintos ámbitos de su operativa. En la selección de personal, herramientas como HireVue o LinkedIn Talent Solutions permiten gestionar grandes volúmenes de candidaturas en tiempos reducidos. Aunque optimizan los procesos, pueden generar sesgos que afectan la equidad en el acceso al empleo. En la gestión administrativa, soluciones como Workday y UiPath mejoran la eficiencia en la administración de nóminas, permisos y beneficios, reduciendo errores y optimizando recursos. En la monitorización del desempeño, sistemas como ActivTrak y Microsoft Viva analizan patrones de trabajo en tiempo real, facilitando la toma de decisiones basada en datos. La formación de empleados también se beneficia de estas herramientas, con plataformas como Coursera for Business y Degreed, que personalizan planes de aprendizaje según las necesidades de cada trabajador. Además, en la mejora de la experiencia del empleado, los chatbots como IBM Watson Assistant facilitan la comunicación con los departamentos de recursos humanos, mientras que sistemas como Kronos Workforce Dimensions optimizan la asignación de tareas y turnos. ¿Existen normas aplicables al uso de IA en el ámbito laboral? El uso de la inteligencia artificial en el empleo se encuentra regulado en distintos niveles. En la Unión Europea, el Reglamento Europeo de Inteligencia Artificial clasifica los sistemas en función de su nivel de riesgo, diferenciando entre los de riesgo mínimo, limitado, alto e inaceptable. Esta clasificación permite definir con mayor precisión las obligaciones que deben cumplir empleadores y desarrolladores de sistemas de IA. En España, normativas como el Estatuto de los Trabajadores y la Ley Orgánica de Protección de Datos establecen principios aplicables al uso de IA en el empleo. Además, la Carta de Derechos Digitales introduce una serie de directrices sobre la transparencia y la supervisión en la utilización de estos sistemas. A nivel global, países como Estados Unidos, Canadá y Brasil están avanzando en regulaciones específicas para garantizar un uso responsable de la IA en el entorno laboral. ¿Qué garantías establece el Reglamento Europeo de IA? El Reglamento impone una serie de medidas destinadas a proteger los derechos de los trabajadores frente al uso de la inteligencia artificial en el ámbito laboral. Se prohíben aquellas tecnologías consideradas de riesgo inaceptable, como el reconocimiento de emociones en el trabajo o los sistemas que clasifiquen a los empleados en función de datos biométricos sensibles. Se establecen además obligaciones de transparencia, que requieren que los empleadores informen a sus trabajadores sobre el uso de IA en procesos de toma de decisiones que puedan afectar sus condiciones laborales. También se garantiza la supervisión humana en estos procesos y se exige la realización de evaluaciones de impacto para mitigar los posibles sesgos y discriminaciones. ¿Cómo regula la Directiva europea sobre trabajo en plataformas el uso de la IA en entornos laborales? La recién aprobada Directiva de la Unión Europea sobre trabajo en plataformas (cuya referencia completa es Directiva UE 2024/2831, del Parlamento Europeo y del Consejo) introduce un marco normativo pionero para regular la gestión algorítmica en este sector. Hasta ahora, muchas plataformas digitales han operado con modelos de contratación opacos, donde la toma de decisiones automatizada afecta directamente a las condiciones laborales de los trabajadores sin apenas control humano. La Directiva establece que debe presumirse la existencia de una relación laboral cuando se cumplen ciertas condiciones, como la imposición de tarifas, restricciones en la organización del trabajo o la evaluación del desempeño a través de algoritmos. Esto es un avance clave para evitar el falso trabajo autónomo y garantizar derechos básicos a estos trabajadores. Además, impone obligaciones específicas para las plataformas digitales en cuanto a transparencia y supervisión de la IA. Exige que los trabajadores tengan derecho a ser informados sobre cualquier sistema de IA que influya en su contratación, condiciones de trabajo o despidos. También obliga a las empresas a asegurar que siempre haya intervención y supervisión humana en las decisiones automatizadas y que los trabajadores puedan impugnar decisiones tomadas por algoritmos. Otro aspecto destacado de la pionera Directiva es la protección de los derechos de los trabajadores y sus representantes, lo que incluye la posibilidad de participar en la evaluación de los algoritmos y sus resultados. El derecho a la protección de los datos personales de los trabajadores también ocupa una posición importante, restringiendo la recopilación masiva de información personal y prohibiendo el uso de determinados sistemas de IA que invadan la privacidad o generen discriminación. Esta Directiva representa un cambio estructural en el mercado laboral digital, marcando un antes y un después en la regulación del empleo en plataformas. La implementación efectiva de estas medidas dependerá del desarrollo legislativo en cada país y del control sobre el cumplimiento de estas normas por parte de las plataformas. ¿Cómo afecta la IA a la protección de datos en el ámbito laboral? El Reglamento General de Protección de Datos y el Reglamento de IA establecen normas para proteger la privacidad de los trabajadores. El tratamiento de datos mediante inteligencia artificial debe cumplir con criterios de legitimidad y proporcionalidad. Los empleados tienen derecho a ser informados sobre cómo se utilizan sus datos y en qué medida las decisiones automatizadas pueden influir en su desempeño y trayectoria laboral. La normativa limita el uso de sistemas de IA que tomen decisiones de manera completamente automatizada sin posibilidad de revisión humana, salvo en situaciones en las que el trabajador haya otorgado su consentimiento explícito o exista una base jurídica clara que lo permita. ¿Qué derechos tienen los trabajadores frente a la IA? Los trabajadores tienen derecho a la transparencia en el uso de estos sistemas, pudiendo conocer de qué manera la inteligencia artificial impacta en sus condiciones laborales. La regulación europea también enfatiza la necesidad de garantizar la igualdad en el empleo, evitando sesgos algorítmicos que puedan generar discriminación. Además, se refuerza la obligación de supervisión humana en aquellas decisiones automatizadas que puedan afectar de manera significativa a los empleados. ¿Cómo impacta la IA en colectivos vulnerables? El estudio pone de relieve que la inteligencia artificial puede afectar de manera desproporcionada a determinados colectivos, como personas con discapacidad o en riesgo de exclusión. En algunos casos, los sistemas de IA pueden reforzar desigualdades preexistentes, ya sea por sesgos en los algoritmos o por la falta de accesibilidad en las herramientas digitales. Para mitigar estos riesgos, es necesario diseñar soluciones que sean inclusivas y adoptar medidas que garanticen la equidad en su aplicación. ¿Cómo influyen los convenios colectivos y acuerdos laborales en la regulación de la IA en el empleo? El marco normativo de la IA en el empleo no se limita a regulaciones estatales o europeas, sino que también puede definirse a través de convenios colectivos y acuerdos específicos entre empleadores y trabajadores. La negociación colectiva es un instrumento clave para garantizar que la adopción de IA en el entorno laboral respete los derechos de los trabajadores y se adapte a las particularidades de cada sector. Algunos convenios recientes han comenzado a incluir cláusulas sobre transparencia y control de la IA, estableciendo que las empresas deben informar y negociar con los representantes sindicales antes de implantar sistemas algorítmicos que afecten la contratación, evaluación o despido de empleados. También hay acuerdos que imponen garantías adicionales sobre la supervisión humana en la toma de decisiones automatizadas o que exigen auditorías externas para verificar que los sistemas de IA cumplen con principios de equidad e inclusión. En el trabajo se citan y analizan como ejemplo los convenios colectivos de Telefónica, Renault, Just Eat o Volkswagen, entre otros. Y también las referencias del V Acuerdo para el Empleo y la Negociación Colectiva (AENC) suscrito por las principales organizaciones sindicales y empresariales de España —CCOO, UGT, CEOE y Cepyme—. Otro aspecto en el que los convenios pueden jugar un papel importante es la formación en IA. A medida que la inteligencia artificial se convierte en una herramienta central en muchas empresas, los acuerdos laborales pueden garantizar que los trabajadores reciban capacitación para interactuar con estos sistemas y aprovechar sus beneficios sin que ello implique una precarización de su empleo. ¿Qué papel juegan los acuerdos y buenas prácticas en la regulación de la IA? Además de la regulación obligatoria, existen mecanismos de autorregulación que pueden complementar la normativa vigente. La inclusión de cláusulas sobre el uso de IA en convenios colectivos puede ayudar a establecer garantías adicionales para los trabajadores. Asimismo, el desarrollo de códigos de conducta y principios éticos permite orientar el uso de la IA hacia prácticas más responsables y transparentes. ¿Qué recomendaciones propone el estudio para garantizar un uso responsable de la IA en el empleo? El estudio destaca la importancia de que las empresas desarrollen marcos normativos internos que regulen el uso de la IA en su operativa. También se recomienda la creación de comités de supervisión que velen por el cumplimiento de los principios éticos y regulatorios en la aplicación de estos sistemas. La formación de los empleados en el uso responsable de la IA y la realización de auditorías periódicas para evaluar el impacto de estas tecnologías en el entorno laboral son otros elementos clave para garantizar su correcta implementación. ¿Cuáles son los principales usos de la IA en el sector público y qué retos plantea su implementación? El sector público no es ajeno a la automatización y digitalización impulsadas por la IA. En los últimos años, diferentes administraciones han comenzado a utilizar IA para optimizar procesos burocráticos, mejorar la toma de decisiones y aumentar la eficiencia en la prestación de servicios públicos. Sin embargo, su uso en la gestión del empleo público plantea desafíos específicos que requieren una regulación clara y garantías adecuadas. Uno de los principales ámbitos de aplicación de la IA en el sector público es la gestión de los procesos selectivos. Algunos sistemas de IA ya se utilizan para analizar solicitudes de empleo, evaluar méritos y competencias o incluso realizar pruebas automatizadas en concursos públicos. Aunque estas herramientas pueden hacer que los procesos sean más rápidos y eficientes, también generan preocupaciones sobre la falta de transparencia en los criterios de selección y la posibilidad de sesgos en la evaluación de candidatos. Otra aplicación relevante es la gestión del desempeño de los empleados públicos. Se han implementado herramientas que monitorizan la productividad y el cumplimiento de objetivos en tiempo real, pero esto ha generado debates sobre privacidad, vigilancia laboral y presión excesiva sobre los trabajadores. Además, en algunos países se están utilizando sistemas de IA para detectar irregularidades o malas prácticas en el sector público, analizando grandes volúmenes de datos para identificar patrones sospechosos en contrataciones o gastos administrativos. En este contexto, la regulación es fundamental para establecer límites claros sobre el uso de IA en el empleo público. Se deben garantizar principios de transparencia, asegurando que los empleados sepan qué sistemas se están utilizando y cómo afectan sus condiciones laborales. También es clave la supervisión humana, evitando que decisiones automatizadas puedan afectar de manera injusta la carrera profesional de los empleados públicos. Además, se deben desarrollar programas de formación en IA para que los trabajadores del sector público comprendan y puedan supervisar el uso de estas herramientas en su entorno laboral. A todos los actores involucrados en este inevitable proceso de incorporación de la IA en el empleo, recomendamos la lectura del Libro blanco y de las principales conclusiones y propuestas de acción que en este se formulan.  Autor de la entrada del blog: Pere Simón Castellano. Gráficos e imágenes generadas a partir del contenido de la investigación con napkinAI. Autora del prompt Rosa Cernada Badía.  Autores del entregable: Rosa Cernada Badía, Lorenzo Cotino Hueso, Antonio Merchán Murillo, Adrián Palma Ortigosa y Pere Simón Castellano. Realizado en el marco del proyecto Google Caire por OdiseIA. Versión definitiva disponible en 2025.

  • El presidente del Gobierno presenta el Observatorio de Derechos Digitales

    El presidente del Gobierno presenta el Observatorio de Derechos Digitales como un espacio esencial para un futuro digital inclusivo y parte integrante del proyecto COPID estuvo presente en la jornada. Las Comunidades de Práctica para el impulso de la Igualdad en el entorno Digital (COPID) es el proyecto seleccionado para desarrollar el convenio en el ámbito 2. Su objetivo general es fomentar - de manera conjunta entre Red.es , la Fundación ONCE (FONCE), el INSTITUTO DE DERECHOS HUMANOS ‘GREGORIO PECES-BARBA’ de la Universidad Carlos III de Madrid (UC3M) y el Observatorio del impacto social y ético de la IA (OdiseIA) - las propuestas de medidas legislativas y no legislativas para impulsar la implementación de la Carta de Derechos Digitales en el eje de los Derechos de Igualdad. En este sentido, desde las COPID participamos activamente en garantizar los Derechos en el entorno digital y en la consecución de un equilibrio entre la protección de los ciudadanos  y la innovación tecnológica. Las comunidades están dirigidas a cubrir el Derecho a la igualdad y a la no discriminación en el entorno digital;  el Derecho de acceso a internet; la Protección de las personas menores de edad en el entorno digital; la Accesibilidad universal en el entorno digital; y las Brechas de acceso al entorno digital. Para hacer llegar a la ciudadanía los avances, ventajas y retos en materia de Derechos Digitales el Observatorio de Derechos Digitales ha lanzado también la web    www.derechosdigitales.gob.es  con información de alto valor para fomentar la difusión y promover las buenas prácticas en torno a los derechos digitales.

  • ¿Cómo defender a los Sistemas Inteligentes en nuestra empresa? Taxonomía de amenazas

    ¿Imaginas que tu asistente virtual termine recomendando productos dudosos porque alguien alteró su sistema de entrenamiento? ¿O que un sistema de seguridad basado en IA confunda a un intruso con un empleado fiable? Estos escenarios, que parecerían sacados de una película de ciencia ficción, son cada vez más reales a medida que la inteligencia artificial se extiende a todo tipo de empresas y aplicaciones. Dentro del proyecto cAIre de Google , nos hemos propuesto abordar esta problemática de forma práctica. En esta primera fase, hemos desarrollado: Una taxonomía de amenazas específicas  contra sistemas de IA. Un mapeo de soluciones comerciales  que ya existen y pueden ayudarte a proteger tu negocio frente a estos riesgos. A continuación, te contamos qué hemos hecho, en qué consisten las principales amenazas, cómo defenderse de ellas y cómo puedes sumarte a este esfuerzo para construir herramientas más seguras y confiables . ¿En qué consiste nuestro trabajo? 1. Primera versión de la taxonomía de amenazas Nuestra taxonomía es básicamente un “listado organizado” de los ataques más comunes y peligrosos que sufre la IA empresarial hoy en día. Hemos identificado amenazas como el ataque adversarial , la inversión de modelo , la fuga de datos  o la inyección de prompt , entre otras. Para cada amenaza, describimos de forma sencilla qué es, por qué es peligrosa, ejemplos reales y enlaces de referencia para profundizar. 2. Análisis de soluciones comerciales No basta con conocer el problema; también hay que ver cómo combatirlo. Por ello, mapeamos las principales propuestas en el mercado que ayudan a blindar sistemas de IA. Recopilamos desde firewalls especializados para modelos de lenguaje  (LLM Firewalls) hasta plataformas de Red Teaming  (pentesting automatizado) centradas en IA, pasando por herramientas de observabilidad y monitorización . Por supuesto, no tenemos ningún tipo de relación comercial con este tipo de empresas, sino que hemos realizado un barrido de las principales soluciones del mercado. De hecho, durante la fase de difusión de la webapp, vamos a tratar de añadir el mayor número de nuevas soluciones posibles. Al final, obtuvimos una panorámica de más de 20 empresas y soluciones que protegen cada uno de los frentes que atacan a la IA. 3. WebApp interactiva Para que esta información esté fácilmente disponible (y no se pierda en un PDF estático), hemos construido una aplicación web  que muestra nuestra taxonomía de amenazas, ejemplos de cada ataque y métodos de defensa. Puedes ver la WebApp en el siguiente enlace: https://www.odiseia.org/threat-taxonomy En la WebApp, cada categoría de defensa  (por ejemplo, “LLM Firewall” o “Pentest/Red Team”) se encuentra enlazada con las amenazas  que suele ayudar a mitigar. Además, mostramos un listado de las empresas  que ofrecen soluciones específicas para cada categoría, con enlace a sus páginas oficiales para mayor detalle. Principales amenazas y métodos de defensa A grandes rasgos, algunas de las amenazas más relevantes que cubrimos son: Ataque adversarial : Pequeños cambios “invisibles” que engañan al modelo de IA. Data poisoning : Inyección de datos “tóxicos” en el conjunto de entrenamiento para desviar comportamientos. Model inversion : Extracción de información sensible sobre la base de datos que entrenó el modelo. Model jailbreak : Burlar las restricciones de un modelo (por ejemplo, un chatbot) para lograr respuestas prohibidas. Backdoor attack : Insertar un “gatillo” malicioso en el modelo para que se comporte mal únicamente bajo ciertas condiciones. Y, por supuesto, identificamos sus correspondientes métodos de defensa , que divivimos en categorías como: Observabilidad : Monitorización continua de la IA para detectar anomalías en tiempo real. LLM Firewalls : Barreras especializadas en grandes modelos de lenguaje que filtran prompts, salidas indebidas y fugas de datos. Data Leak Firewalls : Escudos que evitan el escape de información sensible o confidencial. Detection & Response : Herramientas que no solo detectan amenazas, sino que también actúan o alertan inmediatamente. Pentest/Red Team : Equipos o entornos que simulan ataques reales antes de que los “malos” los aprovechen. AI-Powered Threat Hunting : Búsqueda proactiva de patrones maliciosos usando la misma IA, pero en “modo defensor”. ¿Qué muestra la WebApp? En nuestra aplicación web (que puedes ver en el repositorio del proyecto o en la demostración adjunta) encontrarás: Lista de amenazas : Cada ataque tiene su descripción, enlaces a artículos relevantes y ejemplos de noticias reales. Mapa de defensas : Visualización interactiva de las categorías de defensa y qué ataques cubren. Empresas y soluciones : Un directorio de herramientas comerciales clasificadas según el tipo de defensa que ofrecen. La idea es que, navegando por la web, puedas entender de forma intuitiva: Qué tipo de amenazas existen. Qué métodos se recomiendan para protegerse. Qué ofertas concretas hay en el mercado. Además, dejamos abierta la posibilidad de crecer y actualizar  tanto la taxonomía como las soluciones disponibles. ¡Queremos tu ayuda! La ciberseguridad aplicada a la IA  avanza tan rápido como la tecnología misma. Por eso, necesitamos la contribución de más expertos  que nos ayuden a: Ampliar y refinar la taxonomía : ¿Hay amenazas nuevas o específicas de tu sector que no hayamos contemplado? Mejorar la WebApp : Sugiere cambios en la forma de presentar la información, funcionalidades adicionales o cualquier detalle que la haga más útil. Participar en nuestra encuesta : Queremos recopilar datos sobre qué amenazas están encontrando las empresas y los investigadores en la práctica. Tus aportes ayudarán a priorizar las defensas más críticas. ¿Cómo participar? Completa el formulario de esta página: https://forms.gle/n5PLVzYCptRH1rkDA Si trabajas en ciberseguridad, en IA o simplemente te interesa el tema , ¡tus ideas pueden marcar la diferencia para que construyamos sistemas inteligentes más seguros y confiables! Daremos reconocimiento a todos los miembros que participen . Próximos pasos Nuestro trabajo no termina aquí. Queremos seguir actualizando la taxonomía y añadir: Más ejemplos reales  de cada ataque y sus consecuencias. Opciones de herramientas open source  que no sean puramente comerciales. Casos de uso sectoriales  (finanzas, salud, industria, etc.). Generar una Guía de buenas prácticas  adaptadas a las amenazas que más se están registrando según las respuestas a la encuesta a directores y expertos en el sector. Y, por supuesto, compartir los resultados de la encuesta para que toda la comunidad se beneficie de un mejor conocimiento colectivo sobre las amenazas reales que ya se están viendo “en el campo”. En el grupo 2.8 de Ciberseguridad de Sistemas Inteligentes para Empresas (proyecto cAIre de Google), nuestro objetivo es que cada organización pueda adoptar la IA con confianza , sabiendo que existen estrategias y soluciones para enfrentar los ataques más sofisticados. Con la ayuda de la comunidad y de expertos interesados, esperamos mejorar constantemente y proteger mejor nuestras tecnologías del mañana .

  • IA Y VULNERABILIDAD HUMANA: UNA LLAMADA A CONECTAR CON ORGANIZACIONES Y EMPRESAS

    Autores: Begoña González, Juan Jose Escribano, Ramón Baradat, Fabian García, Hugo Ramallo, Andrea Stechina, miembros de los grupos 1.4 y 1.5, Proyecto cAIre de OdiesIA. La vulnerabilidad es una condición intrínseca al ser humano. Como ya señalamos en la entrada de blog « AI for Good: La idea de la vulnerabilidad humana en tela de juicio », todos somos vulnerables, pero las circunstancias sociales, económicas o de salud amplifican esta realidad en ciertos colectivos. Personas mayores, migrantes, víctimas de violencia de género, personas con discapacidad o en exclusión social enfrentan desafíos que la tecnología, específicamente los sistemas de IA, puede ayudar a acentuar o a mitigar. Si nos centramos en el aspecto positivo, la capacidad de mitigación de vulnerabilidades a través del uso de sistemas de IA, el potencial de esta herramienta es inmenso. Pero este impacto positivo solo es posible si quienes trabajan en estas tecnologías adoptan enfoques éticos, sostenibles y centrados en las personas. La inclusión en la IA, como ya hemos apuntado , es cosa de todos. En la búsqueda de conectar con empresas y organizaciones que utilizan sistemas de IA para apoyar a personas vulnerables, encontrarse con obstáculos puede parecer inevitable. Desde la falta de respuesta en la comunicación hasta la falta de claridad en sus misiones, estas barreras reflejan desafíos sistémicos más amplios en lugar de casos aislados. Los conocimientos obtenidos de investigaciones recientes, incluyendo un análisis de los esfuerzos de acercamiento a organizaciones y de sus modelos de negocio, arrojan luz sobre por qué persisten estas dificultades y qué se puede hacer para superarlas. La complejidad de identificar actores en IA y vulnerabilidad En los meses que llevamos trabajando en este proyecto, y a pesar del potencial transformador de la IA, conectar con empresas y organizaciones que realmente desarrollan soluciones enfocadas en la vulnerabilidad humana es sorprendentemente complicado. Un reciente análisis de nuestros esfuerzos por contactar a organizaciones que trabajan con IA para colectivos vulnerables ha puesto de manifiesto varios retos: Mensajes poco claros: Muchas organizaciones utilizan un lenguaje genérico o ambiguo en sus comunicaciones, dificultando la comprensión de sus objetivos y acciones concretas. Falta de respuestas: De casi 300 organizaciones contactadas, menos de un 10% respondió positivamente, mientras que la mayoría no ofreció seguimiento alguno. Desconocimiento del impacto de la IA: En muchos casos, las organizaciones no monitorean y evalúan el impacto real de sus herramientas, lo que genera dudas sobre su compromiso y efectividad​. Estos obstáculos no son insuperables, pero reflejan un ecosistema fragmentado donde aún queda mucho por mejorar, y, por tanto, mucho espacio para la innovación y para emprendedores. Modelos de negocio para el bien social en IA El informe de GSMA Intelligence de 2018 Scaling Big Data for Social Good  ya subrayaba que los modelos de negocio son fundamentales para garantizar la sostenibilidad y el impacto de las iniciativas de IA en el ámbito de la vulnerabilidad​. Analicemos los principales enfoques y cómo generan valor: 1. Modelos filantrópicos y donaciones subsidiadas: Proyectos impulsados por filantropía o subsidios externos suelen ser el punto de partida. Aunque útiles para lanzar iniciativas y ganar confianza, carecen de la sostenibilidad necesaria para un impacto a largo plazo. Por ejemplo, la Cruz Roja  ha integrado tecnologías de big data e IA para mejorar la atención a mujeres víctimas de violencia de género. Mediante el análisis de datos, han optimizado la identificación de perfiles, mejorado la contactabilidad y reducido el desuso de sus servicios, permitiendo una atención más personalizada y efectiva. Valor generado : Acceso gratuito a soluciones innovadoras para colectivos vulnerables, lo que genera confianza inicial y atención a necesidades urgentes. 2. Modelos escalonados: Proporcionan servicios básicos gratuitos y reservan características avanzadas para usuarios que pueden pagar. Un ejemplo lo encontramos en LUP . Fundada por Apurva San Juan y Eneko Calvo, esta empresa ha desarrollado un dispositivo que convierte texto en audio en menos de dos segundos, utilizando IA y visión computacional. Este dispositivo está diseñado para personas con baja visión, dislexia o vista cansada. Ofrecen diferentes modelos a partir de 549 euros, con funciones avanzadas como conexión Bluetooth y traducción en 30 idiomas, permitiendo accesibilidad a diversos segmentos de la población. Valor generado: Democratizan el acceso a la tecnología al tiempo que aseguran la sostenibilidad financiera del proyecto. 3. Modelos colaborativos: Involucran a actores públicos, privados y ONGs en proyectos conjuntos, aprovechando recursos, conocimientos y redes. Un ejemplo es la startup española SocialDiabetes , que lidera el consorcio SmartDiabetes , que ha recibido financiación de la Unión Europea para desarrollar nuevos modelos de asistencia sanitaria basados en valor. Integran una plataforma de terapia digital que utiliza IA para mejorar la autogestión de la diabetes, beneficiando a millones de personas en Europa. Valor generado: Aumentan la escala y eficacia de las soluciones al integrar perspectivas y habilidades diversas. 4. Subsidios cruzados: Empresas destinan parte de sus ingresos de proyectos comerciales para financiar iniciativas sociales. Un ejemplo lo encontramos en ROAM , una startup palentina que ha desarrollado un modelo laboral que retiene talento cualificado en la España vaciada, combinando competitividad con un enfoque humano y sostenible. Aunque no se centra exclusivamente en IA, su modelo de negocio incluye la gestión de servicios esenciales, donde la tecnología juega un papel clave para ofrecer atención personalizada y eficiente. Valor generado: Permiten desarrollar herramientas sociales sin comprometer recursos exclusivamente en un modelo de donación. Generación de valor más allá de lo económico El éxito de estas iniciativas basadas en el uso de sistemas de IA no debe evaluarse únicamente desde una perspectiva financiera, sino por su capacidad para generar valor social y ético. Estas tecnologías pueden transformar vidas al facilitar el acceso a oportunidades de empleo, servicios de salud, educación o recursos básicos, empoderando a las personas vulnerables. Además, el desarrollo de sistemas de IA adaptadas a las necesidades específicas de cada colectivo y libre de sesgos contribuye a reforzar la inclusión y la equidad. Los sistemas de IA también tienen el potencial de generar un impacto sistémico al optimizar recursos y decisiones, desde la prevención de desastres hasta el monitoreo de epidemias, beneficiando a comunidades enteras. Todo esto debe complementarse con un enfoque que priorice la ética y la privacidad, fortaleciendo la confianza tanto de los beneficiarios como de la sociedad en general, y garantizando que estas herramientas se utilicen de manera justa y responsable. Construyendo un futuro más inclusivo A pesar de los desafíos, nuestros grupos de investigación están convencidos de que construir un ecosistema inclusivo y eficaz que aproveche el potencial de la IA para apoyar a personas vulnerables es no solo posible, sino esencial. La clave radica en adoptar enfoques estratégicos que prioricen la transparencia, la sostenibilidad y el impacto social duradero. Aquí algunas estrategias fundamentales para lograrlo: Comunicación clara y accesible : Es fundamental que las empresas y organizaciones comuniquen con claridad cómo sus soluciones de IA están ayudando a las personas vulnerables. Esto incluye explicar sus objetivos, beneficios y posibles riesgos de forma transparente y accesible. Publicar informes de impacto y mantener canales abiertos para el diálogo con la sociedad civil y los beneficiarios es esencial para construir confianza. Por ejemplo, el concepto de “lectura fácil” ( easy read ) es un método de crear documentos que son más fáciles de entender. Los sistemas de IA, como en el caso de ATECA , pueden ayudar a organizaciones y empresas en la redacción de documentación, y luego convertir información compleja en “lectura fácil”. Así no solo se comunica de manera clara y accesible, sino también se ayuda a la ganancia de lectores, incrementando el impacto social. Pilotaje con propósito : Los proyectos piloto deben diseñarse pensando en la sostenibilidad desde el principio. Esto significa definir objetivos claros y medibles, identificar rutas para escalar las soluciones y considerar aspectos como el impacto ambiental y social. No basta con probar una idea; se debe garantizar que tenga un futuro viable y duradero. Por ejemplo, la herramienta RiD , que se ha desarrollado para ayudar al desarrollo de software inclusivo para usuarios con una discapacidad específica, y tiene en cuenta estas necesidades a lo largo de todo el ciclo de vida del producto. Fomento de alianzas intersectoriales : La colaboración entre sectores público y privado, organizaciones no gubernamentales e instituciones académicas permite combinar recursos y conocimientos para abordar problemas complejos de manera más efectiva. Estas alianzas son imprescindibles para desarrollar soluciones robustas y equitativas. Evaluación continua del impacto : implementar mecanismos regulares de evaluación que midan tanto los resultados cuantitativos como el impacto cualitativo de las soluciones. Esto incluye recopilar las experiencias de las personas vulnerables para ajustar y mejorar las estrategias. Por ejemplo, el informe de 2018 explica como en Finlandia, Telia  utiliza sistemas de IA para analizar patrones de movilidad que mejoran la planificación urbana. Evalúan continuamente el impacto social y ajustan sus herramientas para responder a las necesidades de los usuarios y de los responsables de las políticas públicas. Inversión en capacitación y alfabetización digital: Para que las soluciones de IA tengan un impacto inclusivo, es imprescindible capacitar a las personas vulnerables. Esto no solo implica enseñarles a usar la tecnología, sino también a comprender sus implicaciones y a participar activamente en su desarrollo. Involucrar a personas vulnerables desde el principio: Creemos que las soluciones más efectivas son aquellas diseñadas con la participación activa de las personas a las que van dirigidas. Escuchar sus necesidades y contextos garantiza que las herramientas de IA sean útiles, respetuosas y relevantes. Una llamada a conectar Sabemos que hay más organizaciones y empresas comprometidas en desarrollar soluciones innovadoras para colectivos vulnerables, pero muchas veces no logramos establecer contacto. Por eso mismo queremos proponerte dos maneras de conectar: OdiseIA ha lanzado el I Hackaton Internacional de IA para colectivos vulnerables , OdiseIA4Good . A finales de febrero (25, 26 y 27 de febrero, 2025) esperamos convocar a hackers, emprendedores y personas que quieran aportar y enriquecer perspectivas en grupos multidisciplinares en el desarrollo de soluciones basadas en sistemas de IA cuya finalidad sea ayudar a mitigar y solucionar cuestiones de vulnerabilidad humana. Si el Hackaton no encaja bien en tu agenda, ¡queremos conocerte! Escríbenos a bgotero@odiseia.org   o   fabian.garcia@odiseia.org   y cuéntanos tu caso de uso.  Juntos podemos transformar ideas en acción y asegurar que nadie quede atrás.

  • Ventajas y Riesgos de la IA Generativa en las Profesiones Culturales y Creativas

    María de Miguel Molina, Universitat Politecnica de Valencia* Como ya se ha indicado en otros posts dentro del proyecto cAIre de Odiseia , la IA generativa (IAGen) nos hace replantearnos el concepto de vulnerabilidad. Si observamos distintos estudios de nuestro directorio, hay profesiones u ocupaciones que potencialmente se ven más afectadas por esta tecnología disruptiva. Dentro de este Impacto en el Empleo, el subgrupo 2.6 (Ventajas y Riesgos de IA) es el encargado de Identificar beneficios y riesgos de la IA en el mercado laboral, especialmente para grupos vulnerables. Aquí se ha realizado una primera aproximación para analizar cómo la IAGen puede suponer oportunidades y amenazas para algunas profesiones que tienen su base en la propiedad intelectual, los derechos de autor y la creatividad. Para ello, además del estudio de distintos documentos, se ha enviado un cuestionario a profesionales del sector para contrastar su experiencia en el uso de estas herramientas y los interrogantes que plantean. ¿Podemos entender a las Industrias Culturales y Creativas como Grupos Vulnerables? Desde el punto de vista económico, algunas profesiones de las Industrias Culturales y Creativas (ICCs) se sienten amenazadas por estas herramientas cuando se utilizan como sustitutos de su trabajo y no como una ayuda. Además, hay una gran desconfianza sobre el uso de material propio sin consentimiento o sin una compensación por su explotación.  Algunas empresas de AIGen han adquirido los derechos de creadores de contenido o se han adherido a certificados de confianza, pero no siempre se conoce de dónde proviene el material utilizado. Un ejemplo de buena práctica lo encontramos en LifeScore , una empresa británica que, desde 2016, trabaja con los compositores un modelo de negocio basado en las personas ( human-centred approach ), conservando su autoría y centrándose en la calidad del producto. Se han adherido a Fairly Trained , un certificado para cualquier producto o servicio de IA que garantiza no utilizar material protegido sin consentimiento del autor.  En cualquier caso, esta amenaza depende del sector específico de las ICCs al que nos refiramos. Los profesionales del videojuego, ilustración y traducción son los más preocupados por su posible sustitución por herramientas que, por otro lado, no cuentan con un control de calidad de todo el proceso ni generan el mismo valor. Otras profesiones, como la música, arquitectura, diseño o audiovisual, al distinguir su uso sólo en alguna etapa del proceso creativo no se sienten tan relegadas. Y, finalmente, los profesionales de la comunicación son los menos intimidados porque ya las han integrado en su trabajo. ¿Esto significa que las ICC no están utilizando herramientas de IAGen? En pocos casos no se usa ninguna, pero si se usan es de manera distinta. Como podemos observar en la imagen, la gran estrella es ChatGPT. Y ello no porque se utilice en todo el proceso, sino porque se le da un uso más de apoyo, incluso fuera del proceso creativo (como es el caso de los sectores más “vulnerables”). Por ejemplo, se utiliza para buscar información, sugerir por dónde empezar o resumir ideas. Este también sería el caso de Perplexity o Gemini. Otras son herramientas de largo recorrido que han incluido la IA, como Adobe, PhotoShop o Canva. En tercer lugar, tendríamos el grupo de herramientas que son específicas para generar contenidos alternativos, como Davinci, Runway o Midjourney. Algunas herramientas con IAGen utilizadas por profesionales de las ICCs Fuente: Elaboración propia, a partir de los cuestionarios (diciembre 2024-enero 2025) ¿Y qué sucede con los grupos tradicionalmente vulnerables? Los profesionales, además de verse algunos de ellos (económicamante) vulnerables, distinguen dos grupos. Por un lado, los vulnerables tradicionales, especialmente personas mayores para las que ha aumentado la brecha digital con la IA. Frente a ello, hay herramientas de IAGen que sí tienen en cuenta a personas con capacidades especiales. Por ejemplo, DeepL  es una empresa alemana para traducción automática que, en 2018, incorporaron IA y la adaptaron a personas con capacidades especiales junto a Fable , otra empresa especializada en la co-creación  digital con colectivos vulnerables para garantizar la accesibilidad.  A estos grupos vulnerables tradicionales, podríamos añadir las personas que no pueden pagar algunos servicios “extra” de IAGen. Los profesionales coinciden en que, como en muchas aplicaciones, las versiones demo son gratuitas pero las que se utilizan a nivel profesional son de pago. El segundo grupo vulnerable para los profesionales de las ICCs serían aquellos jóvenes que se incorporan al mercado laboral y, o bien carecen de formación en IA, o las tareas por las que empiezan son precisamente aquellas sustituibles por una IAGen. Estos necesitan encontrar su hueco en un entorno nuevo, sin desmotivar su creatividad. En resumen, ¿cuáles son las necesidades actuales y futuras de las ICCs? Las podemos catalogar en tres grupos: Las que dependen de las empresas de IA: transparencia en el proceso, ética en el uso de contenidos, co-creación con los autores y los grupos vulnerables. Las que dependen de los centros educativos: especialmente formación, no sólo en las herramientas sino también en su uso desde el pensamiento crítico y su desarrollo con enfoques basados en las personas. Las que dependen de los policymakers : co-definición de los problemas con los distintos grupos de interés, para desarrollar las políticas públicas adecuadas. Las ICCs han pasado por muchos momentos de adaptación y esa creatividad de la que disponen les hace perfectamente resilientes para seguir adelante, pero el camino para hacerlo con éxito es un trabajo de todo el sistema, con la participación de los grupos de interés. *M. de Miguel ( mademi@omp.upv.es ) trabaja en la Universitat Politecnica de Valencia las políticas y estrategias para las ICCs, junto a los profesores B. de Miguel y D. Catalá.  El subgrupo 2.6 está integrado por: Manuel Ruiz del Corral, Jeremy Mederos, Idoia Salazar y María de Miguel. Las conclusiones del proyecto se publicarán a finales de 2025.

  • 🌍 ¿Sabías que el 70% de los migrantes forzosos carecen de acceso adecuado a herramientas digitales esenciales?

    Nuestro reciente proyecto, "Inteligencia Artificial e Inclusión Inmigrante: Gobernanza Ética y Soluciones desde Italia y el Vaticano" , revela las barreras tecnológicas que enfrentan los migrantes y propone soluciones innovadoras basadas en IA ética y responsable. 🔍  Hallazgos clave: 80% identifica la falta de digitalización como un obstáculo laboral. 45% de los sistemas de IA presentan sesgos que impactan en el empleo y la vivienda. Directrices como el Artificial Intelligence Act  y el Reglamento General de Protección de Datos (RGPD)  son fundamentales para garantizar inclusión y equidad. 💡 Descubre cómo promovemos la equidad laboral, la protección de datos y el acceso digital para todos. Únete a la conversación y construyamos un futuro más inclusivo. 💻🤝 👉  Descarga nuestro plan de trabajo aquí: 👉 Y nuestra infografía explicativa: #IAÉtica #MigraciónDigital #DerechosHumanos #InclusiónTecnológica

  • Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It 1

    Sonsoles de la Lastra Olalquiaga, IE University Dr. Richard Benjamins, Observatory for Social and Ethical Impact of AI In today's tech-driven world, artificial intelligence (AI) holds immense promise for shaping our future. From revolutionizing industries to enhancing everyday experiences, AI has the potential to bring about transformative change. However, amidst the excitement, there are significant societal risks as evidenced by several AI incidents, as highlighted in "Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It" by Sonsoles de la Lastra Olalquiaga and Dr. Richard Benjamins. Through a rigorous analysis of over 750 documented incidents worldwide sourced from the OECD’s AI incidents monitor and the AIAAIC Repository, we open our eyes to the reality that, while AI offers great promise, it also presents risks, particularly for vulnerable communities. Instances of "non-physical harm" account for a striking 96% of these incidents, ranging from algorithmic bias to data privacy breaches and misinformation dissemination. These incidents underscore the need for cautious and responsible deployment of AI technologies. Geographically, AI incidents are concentrated in regions like the United States, the United Kingdom, and Germany, highlighting the global nature of the issue. This geographical insight emphasizes the importance of collaborative efforts and international cooperation in addressing these challenges effectively. By sharing best practices, exchanging knowledge, and establishing common frameworks, stakeholders can work together to mitigate the risks associated with AI deployment and ensure its responsible use across borders. The report also delves into the role of major tech corporations in managing AI's ethical challenges. From ensuring algorithmic transparency to addressing biases in AI systems, these corporations play a crucial role in shaping the future of AI. However, the report underscores the importance of corporate accountability and responsible practices in navigating the ethical complexities of AI development and deployment.   Despite these challenges, there's an opportunity for positive change. Through transparent and ethical AI deployment, we can leverage its potential to address pressing societal issues, from healthcare and education to climate change and social justice. "Another Inconvenient Truth" serves as a call to action, urging policymakers, industry leaders, and researchers to navigate the complexities of AI responsibly.  It's essential to acknowledge the possible negative effects of artificial intelligence on society in order to collaborate toward a future in which AI maximizes its outstanding potential.  The report can be downloaded in the following link:  Title inspired by Al Gore's groundbreaking book, "An Inconvenient Truth: The Planetary Emergency of Global Warming and What We Can Do About It” (2006) https://oecd.ai/en/incidents https://www.aiaaic.org/aiaaic-repository

  • AI for Good: La idea de la vulnerabilidad humana en tela de juicio

    Autora: Dra. Begoña G. Otero, miembro de OdiseIA e investigadora perteneciente al subgrupo «AI for Good», cAIre Research Project. Introducción: La vulnerabilidad humana en tiempos de las tecnologías de IA Vivimos en un mundo en el que los sistemas de IA pueden utilizarse para predecir nuestro próximo movimiento, sugerir productos y servicios que no sabíamos que queríamos o incluso decidir si nos conceden un préstamo o un tratamiento médico. Emocionante, ¿verdad? Sin embargo, he aquí la otra cara de la moneda: ¿y si esta misma tecnología se utiliza para aprovecharse de nuestras debilidades, influye sutilmente en nuestras decisiones, daña nuestra integridad o profundiza las desigualdades sociales? Si estas posibilidades os generan inquietud, no estáis solos. El rápido avance de las tecnologías de IA plantea importantes cuestiones sobre la vulnerabilidad humana. ¿Qué significa ser vulnerable en el contexto de la IA? ¿Cómo podemos garantizar que estas tecnologías nos ayuden en lugar de perjudicarnos? Estos interrogantes no son sólo académicos; nos afectan a todas y a todos en nuestra vida cotidiana. En las siguientes líneas vamos a profundizar en el concepto de vulnerabilidad; a explicar cómo ha evolucionado a lo largo del tiempo, y cómo distintas teorías de diferentes campos del conocimiento pueden ayudarnos a entenderlo mejor en el contexto de la IA. Asimismo, este blogpost proporciona ejemplos concretos que ilustran estas teorías y plantea la pregunta de si la concepción actual de la vulnerabilidad humana es adecuada en el contexto de las tecnologías de la IA. Como investigadora de las aplicaciones de uso positivas de la IA para ayudar a personas vulnerables, es crucial definir qué significa vulnerabilidad en la era de la IA antes de que podamos sacarle todo el partido a su potencial para hacer el bien. La evolución del concepto de vulnerabilidad La idea de vulnerabilidad es tan antigua como la propia humanidad, pero su definición ha evolucionado significativamente con el tiempo. Vamos a hacer un recorrido por su historia para entender cómo se aplica hoy en día, especialmente en el contexto de las tecnologías de IA. Las primeras interpretaciones de la vulnerabilidad Históricamente, la vulnerabilidad se ha considerado a menudo como una condición estática. Por ejemplo, a principios de la década de 1980, el  politólogo Robert Goodin  definió la vulnerabilidad como la «susceptibilidad al daño de los propios intereses». Goodin sostenía que los más vulnerables a nuestras acciones y negligencias son aquellos a los que debemos mayor responsabilidad. Esta perspectiva vinculaba directamente la vulnerabilidad con la responsabilidad y la rendición de cuentas. Pensemos, por ejemplo, en las personas mayores que dependen de cuidadores. La teoría de Goodin sugeriría que la sociedad tiene una mayor responsabilidad de proteger a estas personas porque son más susceptibles de sufrir daños. Un cambio de perspectiva: La vulnerabilidad universal Con el tiempo, los académicos empezaron a considerar la vulnerabilidad tanto una condición de grupos específicos como un aspecto universal de la condición humana. Martha Fineman , una destacada teórica jurídica, introdujo el concepto de «sujeto vulnerable». Sostenía que todos los seres humanos somos intrínsecamente vulnerables debido a nuestro cuerpo físico y a nuestra dependencia de las relaciones sociales y las instituciones. Esta visión desplaza la atención de la protección de grupos específicos al reconocimiento de la vulnerabilidad como un rasgo humano fundamental. La teoría de Fineman ayuda a explicar por qué las personas pueden sentirse vulnerables en distintas etapas de la vida, tales como la infancia, la enfermedad o el envejecimiento. Subraya la necesidad de estructuras sociales que apoyen a todos, no sólo a determinados grupos. La vulnerabilidad contextual y relacional Teorías más recientes subrayan que la vulnerabilidad no es sólo un rasgo humano universal, sino también muy contextual y relacional. La eticista Florencia Luna , por ejemplo, ha propuesto la idea de «capas (no etiquetas) de vulnerabilidad». Según Luna, la vulnerabilidad varía en función de la situación, el momento y el lugar del individuo. Este enfoque por capas permite una comprensión más matizada de cómo los distintos factores contribuyen a la vulnerabilidad de una persona en distintos momentos. Por ejemplo, una mujer embarazada puede experimentar una mayor vulnerabilidad debido a los riesgos para su salud y a las expectativas sociales. Sin embargo, su vulnerabilidad no es estática; cambia con su salud, sus sistemas de apoyo y su situación socioeconómica. Un examen comparativo de estas teorías de la vulnerabilidad más representativas en distintos campos de la ciencia permite extraer una serie de conclusiones. La vulnerabilidad es un aspecto inherente a la humanidad, específico de los seres vivos y relacional. Los desequilibrios de poder ocupan un lugar central en su conceptualización teórica, y existen dos enfoques para abordarla: la reparación de los daños de forma colectiva o el empoderamiento de los individuos. Por último, la ética y el derecho a menudo adoptan un enfoque de etiquetaje de la vulnerabilidad, proporcionando listas de poblaciones vulnerables. Sin embargo, como ha mencionado Luna , la estratificación por capas abre la puerta a un enfoque mucho más interseccional y enfatiza su potencial acumulativo y transitorio. Las teorías vigentes sobre la vulnerabilidad frente a las tecnologías de IA: algunos ejemplos concretos Para comprender mejor el impacto de las tecnologías de IA en la vulnerabilidad humana y si los enfoques existentes sobre este concepto son suficientes, es vital explorar al menos algunas de las teorías más relevantes sobre la vulnerabilidad y sustentarlas con ejemplos del mundo real. Estas teorías nos ofrecen un marco para comprender las distintas dimensiones y contextos de la vulnerabilidad. El modelo de vulnerabilidad de Goodin El modelo de Robert Goodin subraya la idea de que la vulnerabilidad está estrechamente ligada a la dependencia y la responsabilidad. Según Goodin, aquellos que son más vulnerables a nuestras acciones son aquellos de los que somos más responsables. En el contexto de la IA, pensemos en los sistemas automatizados de toma de decisiones en la atención sanitaria. Los pacientes que confían en la IA para su diagnóstico y tratamiento son vulnerables a los errores y sesgos del sistema. Por tanto, los proveedores de asistencia sanitaria deben asumir una gran responsabilidad a la hora de garantizar la exactitud e imparcialidad de estos sistemas de IA para proteger a los pacientes vulnerables. Pero, ¿es éste el mejor camino? La teoría del sujeto vulnerable de Fineman La teoría de Martha Fineman postula que la vulnerabilidad es una condición humana universal. Sostiene que nuestras dependencias físicas y sociales inherentes nos hacen a todos vulnerables, y que la sociedad debe estructurarse para apoyar a todos y no sólo a grupos específicos. Las plataformas de redes sociales que utilizan algoritmos y sistemas de IA para moderar contenidos pueden afectar a todos los usuarios, especialmente cuando los algoritmos no reconocen los matices de la comunicación humana. Esto puede conducir a una censura injusta o a la difusión de contenidos nocivos, afectando a la vulnerabilidad de todos ante la desinformación y el acoso. Sin embargo, ¿hasta qué punto permiten nuestros ordenamientos jurídicos asignar responsabilidades a estas plataformas?  Las capas de vulnerabilidad de Luna El concepto de capas de vulnerabilidad de Florencia Luna sugiere que la vulnerabilidad no es estática, sino que varía en función de las circunstancias del individuo. Este enfoque por capas tiene en cuenta factores como el estatus, el tiempo y la ubicación. Los trabajadores de la economía colaborativa  que utilizan plataformas basadas en IA, como las aplicaciones para compartir desplazamientos ( ride-sharing apps),  pueden experimentar diferentes niveles de vulnerabilidad. Un conductor puede ser más vulnerable durante los turnos nocturnos debido a problemas de seguridad y a la fluctuación de la demanda. Su entorno laboral, su situación económica y el diseño de la plataforma de IA influyen en su vulnerabilidad. Sin embargo, ¿se tienen realmente en cuenta estas capas a la hora de diseñar este tipo de servicios comerciales? ¿Es la vulnerabilidad siquiera un factor que tengan en cuenta los propietarios de estas plataformas? ¿Debería serlo? Las críticas y mejoras de Kohn Nina Kohn  criticó la teoría de Fineman por su potencial para dar lugar a políticas públicas excesivamente paternalistas y estigmatizadoras. Sugirió mejorar dicha teoría para defender mejor las libertades individuales sin dejar de abordar las vulnerabilidades. La autora aboga por un enfoque ponderado que tenga en cuenta tanto la protección como la autonomía. Un ejemplo de su planteamiento sería el caso de los sistemas de vigilancia por IA que se están implantando ampliamente en los espacios públicos con fines de seguridad pública, lo que podría vulnerar los derechos individuales a la intimidad, haciendo que las personas se sientan constantemente vigiladas y pudiendo dar lugar a un uso indebido de los datos. Además, estos sistemas podrían dirigirse de forma desproporcionada a determinadas minorías raciales o étnicas, exacerbando los prejuicios existentes y dando lugar a un trato injusto. La perspectiva de Kohn haría hincapié, entre otras cosas, en la necesidad de (a) implantar obligaciones de transparencia sobre cómo se hace uso de la tecnología, qué datos se recopilan, cómo se almacenan y protegen; (b) establecer mecanismos de supervisión sólidos para garantizar que la vigilancia mediante IA se utiliza de forma ética y legítima; y (c) restringir el ámbito de uso a zonas públicas o situaciones en las que sea realmente necesario por motivos de seguridad pública. Como resultado, la implantación de un sistema de vigilancia por IA en un espacio público podría incluir un rótulo claro que informe a los ciudadanos sobre la vigilancia y el uso de los datos, un sitio web dedicado para el acceso público a información detallada, auditorías independientes periódicas y mecanismos para que las personas puedan dar su opinión o presentar quejas. Este equilibrio entre protección y autonomía es crucial a la hora de diseñar normativas sobre IA que respeten tanto la seguridad como la libertad. Las vulnerabilidades potenciales y ocurrentes de Mackenzie La  filósofa Catriona Mackenzie  introdujo la distinción entre vulnerabilidades potenciales o disposicionales y ocurrentes. Las vulnerabilidades potenciales se refieren a un estado con riesgo de daño, pero tal riesgo no es de momento concreto y tangible. Implica que existen ciertas condiciones que podrían provocar daños, pero que en la actualidad no causan ningún peligro inmediato. Por otro lado, la vulnerabilidad ocurrente es un estado de vulnerabilidad concreto y tangible en el que el riesgo se ha hecho inminente o se está produciendo un daño real. Este tipo de vulnerabilidad requiere una acción inmediata para prevenir o mitigar el daño. Su distinción es significativa porque ayuda a identificar si las vulnerabilidades requieren una intervención inmediata o medidas preventivas para evitar daños futuros. También permite dar respuestas más específicas y eficaces a los distintos tipos de vulnerabilidades. En este sentido, pensemos en los sistemas de IA utilizados en la vigilancia policial predictiva. Las vulnerabilidades potenciales podrían incluir el riesgo de que comunidades específicas sean objeto de ataques injustos basados en IA predictiva entrenada con datos históricos. Las vulnerabilidades ocurrentes tienen lugar cuando las prácticas policiales existentes dan lugar a un exceso de vigilancia y control de estas comunidades, lo que genera desconfianza y perjuicios. Otro ejemplo de vulnerabilidad potencial podría ser un sistema de IA diseñado para procesos de contratación que utilice un conjunto de datos procedentes de datos de entrenamiento que contengan sesgos sutiles, como preferencias históricas por determinados grupos demográficos en detrimento de otros. El uso de un sistema de este tipo puede dar lugar a una vulnerabilidad disposicional al tomar sus usuarios decisiones sesgadas, con el consiguiente potencial de discriminación. En el caso de las vulnerabilidades ocurrentes, se podría considerar un sistema de IA diseñado para gestionar transacciones financieras, que detecte un patrón inusual que indique un ciberataque en curso. Los protocolos de seguridad del sistema se están viendo activamente comprometidos, lo que permite el acceso no autorizado a datos financieros sensibles. Los usuarios de este sistema de IA son en ese momento vulnerables porque el riesgo se ha materializado y necesitan una acción inmediata para mitigar el daño. Implicaciones prácticas de estas teorías Entender estas teorías nos ayuda a reconocer las formas multidimensionales en que las tecnologías de IA pueden afectar a la vulnerabilidad humana. Por ejemplo, la identificación de vulnerabilidades potenciales puede informar el diseño proactivo de sistemas de IA para mitigar los riesgos antes de que se materialicen. Además, reconocer la naturaleza en capas de la vulnerabilidad garantiza que las aplicaciones de IA tengan en cuenta las diversas circunstancias de los distintos grupos de usuarios. Una propuesta de taxonomía para entender la vulnerabilidad en el contexto de las tecnologías de IA Los ejemplos anteriores demuestran que es esencial desarrollar una taxonomía exhaustiva para abordar la naturaleza compleja y polifacética de la vulnerabilidad en el contexto de la IA. Esta taxonomía debería tener en cuenta diversos factores que contribuyen a la vulnerabilidad humana y ofrecer un enfoque estructurado para identificar y mitigar estas vulnerabilidades. Sobre la base de las teorías debatidas y de las ideas extraídas de la literatura, he aquí una serie de factores que, si se tienen en cuenta, pueden ayudar a descubrir mejor la vulnerabilidad humana en el contexto de las tecnologías de IA. Condiciones demográficas y socioeconómicas Las condiciones demográficas y socioeconómicas desempeñan un papel importante a la hora de determinar la vulnerabilidad en el espacio digital. Ciertos grupos pueden ser más susceptibles de sufrir daños debido a su edad, sexo, nivel educativo, ingresos o etnia. Estos factores pueden crear desventajas que se ven exacerbadas por las tecnologías de IA. Los ciudadanos de más edad pueden tener dificultades con los servicios bancarios en línea basados en IA debido a su falta de alfabetización digital, lo que les hace más vulnerables al fraude o a los errores. Aspectos psicosociales Las características psicosociales, como la salud mental, el estado emocional y las capacidades cognitivas, influyen en la forma en que las personas interactúan con los sistemas de IA y pueden afectar a su susceptibilidad a la manipulación o al daño por parte de las tecnologías de IA. Las personas con problemas de salud mental pueden ser más vulnerables a los algoritmos de IA que se dirigen a ellas con anuncios de productos potencialmente nocivos, como el juego o el alcohol. Competencias y alfabetización relacionadas con la IA Los conocimientos y habilidades de un usuario relacionados con la IA pueden influir significativamente en su vulnerabilidad. Las personas con conocimientos limitados sobre el funcionamiento de la IA o sobre cómo navegar por los sistemas basados en IA pueden correr un mayor riesgo de explotación o daño. Los consumidores que necesitan ayuda para entender cómo funcionan los algoritmos de recomendación pueden ser más propensos a caer en sugerencias de productos engañosas o información sesgada. Factores contextuales, relacionales y situacionales El contexto en el que se utilizan las tecnologías de IA puede crear vulnerabilidades situacionales. Estos factores incluyen el entorno, el tiempo y las circunstancias específicas en las que se emplea un sistema de IA. Los trabajadores de la economía colaborativa que utilizan plataformas basadas en IA pueden enfrentarse a vulnerabilidades relacionadas con la seguridad del empleo y las condiciones de trabajo, que pueden variar significativamente en función de la ubicación y la demanda. Desequilibrios de poder y asimetrías de información Los desequilibrios de poder entre desarrolladores y usuarios de IA, así como las asimetrías de información, contribuyen a la vulnerabilidad. A menudo, los usuarios carecen de los conocimientos o los recursos necesarios para comprender plenamente o cuestionar los sistemas de IA, lo que les coloca en desventaja. Las plataformas de redes sociales que utilizan IA para seleccionar contenidos pueden manipular el comportamiento de los usuarios mediante la maximización algorítmica de la participación sin que los usuarios comprendan plenamente el alcance de esta influencia. Factores temporales El momento y la duración de las interacciones con la IA pueden influir en la vulnerabilidad. Algunas vulnerabilidades pueden ser coyunturales y a corto plazo, mientras que otras pueden ser duraderas y crónicas. La vulnerabilidad financiera temporal debida a la pérdida del empleo puede hacer que las personas sean más susceptibles a los servicios de préstamos predatorios controlados por sistemas de IA. Conclusiones: ¿Necesitamos replantearnos qué es la vulnerabilidad humana en el contexto de la IA? La clasificación anterior es un primer intento de abordar de forma estructurada la cuestión de la vulnerabilidad en el contexto de la IA. Está abierta a correcciones y modificaciones en el transcurso de este proyecto de investigación y está abierta a comentarios externos. Aunque es posible que esta taxonomía no resuelva el problema principal de si necesitamos replantearnos el concepto de vulnerabilidad en el contexto de las tecnologías de IA, puede ayudar a identificar nuevas situaciones y proporcionar orientación tanto a emprendedores innovadores como a responsables políticos en términos de diseño inclusivo y evaluación de riesgos. Aun así, queda una pregunta sin respuesta: A la luz de la rápida evolución de las tecnologías de IA, ¿necesitamos revisar la conceptualización jurídica de la vulnerabilidad humana a nivel internacional? Esta cuestión jurídica es objeto de un proyecto de investigación independiente que pronto se materializará en un trabajo de investigación. En resumen... continuará.

  • Habilidades en IA Generativa que buscarán las empresas en 2025

    Hoy en día además de los títulos son muy importantes las skills. Y en el campo de la Inteligencia Artificial (IA), este requerimiento también se cumple. Los reclutadores buscan trabajadores que se desenvuelvan fácilmente en un entorno tan cambiante como es la IA Generativa. Y para eso, es necesario conocer cuáles son esas habilidades (también llamadas “skills”) de IA más relevantes. No necesitas tener conocimientos técnicos para empezar a desarrollar estas habilidades .  Te enseñamos las habilidades más demandadas  que se buscarán y que tú puedes aprender. En este artículo, veremos, Habilidades esenciales de IA Generativa para 2025 Herramientas indispensables para potenciar esas habilidades Habilidades esenciales de IA Generativa para 2025 Lo primero que debemos conocer son las habilidades de IA más Top. No te preocupes si no tienes conocimientos técnicos, estas habilidades podrás adquirirlas aunque no seas un experto. La lista de skills que hoy te presentamos son las siguientes; Prompt engineering Automatizaciones del flujo de trabajo (Workflow automation) Creación de contenido Síntesis de datos (Data summarization) Comprensión ética básica Generación de ideas Personalización 1.Prompt engineering Seguro que has oído hablar del prompt engineering. Puede asustarte un poco la palabra, pero te aseguro que serás capaz de entenderlo. Si no sabes que es el prompt engineering, te lo voy a resumir fácilmente: Es como enseñar a hablar a un niño Si el niño dice: “Yo quiero eso”, puedes no saber qué quiere. Pero si el niño dice:  “Yo quiero ese libro rojo”, tú sabes que libro proporcionarle. Por tanto, el prompt engineering  es encontrar la mejor manera de comunicarse con los modelos de lenguaje (LLMs) para que nos entiendan mejor y hagan exactamente lo que queremos. Aqui te dejo la definición más académica que puedes consultar en la página de recursos de Learnpromting.org Prompt engineering is the process of crafting and refining prompts to improve the performance of generative AI models. It involves providing specific inputs to tools like ChatGPT, Midjourney, or Gemini, guiding the AI to deliver more accurate and contextually relevant outputs.   Learn more about prompt engineering Te muestro un ejemplo de un prompt : Escribe un borrador de correo electrónico tipo para felicitar las navidades a los clientes  2. Automatizaciones del flujo de trabajo (Workflow automation) Estoy segura que en tu día a día, realizarás alguna tarea todos los días . Revisar el correo, leer informes, contestar reclamaciones o cubrir partes. Esa capacidad para detectar esa tarea repetitiva, diaria y automatizarla, es una habilidad muy valorada. Si puedes integrar esa automatización en tu trabajo, tu mejorarás tu carga diaria laboral y mejorará también la eficiencia de tu empresa. ¿Y eso cómo lo hago? Imagina que usas Microsoft Office 365 o Google Workspace. En cualquiera de estos sistemas, podremos aplicar automatizaciones. Algunas herramientas  con las que puedes empezar son Make, Zapier o Power Automate. Una vez encuentres ese flujo de trabajo automatizable, todo mejorará. Te muestro un ejemplo  para ver cómo funciona: Problema : Recibes correos importantes con información que necesitas guardar, como nombres de clientes u otros detalles. Normalmente esa tarea la realizamos manualmente. Solución : Vamos a usar una automatización con Zapier o Make. Resultado : Cada vez que tú recibas un correo con el asunto " Alta cliente", Zapier o Make extraerán el nombre del remitente, la fecha, y el cuerpo del mensaje, y los guardarán como una nueva fila en tu hoja de cálculo. Ejemplo práctico: Un correo con el asunto: "Cliente Nuevo: Juan Pérez"  se convertirá automáticamente en una fila en tu Google Sheets con esta apariencia: 3. Creación de contenido Muchas veces necesitamos generar información  de áreas que no conocemos. Gracias a la GenAI crear contenido ya no será un problema. Si necesitamos crear materiales  para marketing, recursos humanos o atención al cliente, ahora será más rápido y sencillo. Saber manejar herramientas como ChatGPT , Gemini , Claude  o Copilot   para crear contenido será una gran ventaja que las empresas desean que tengamos. Por tanto, si no sabías que se podía ahorrar tiempo en tu trabajo con estas habilidades, te animo a probarla y notar la diferencia. Prompt : Crea un manual de bienvenida a los nuevos empleados del área de logística. 4. Síntesis de datos (Data summarization) Algo tan simple como crear un esquema con los puntos clave de un informe, puede llevarnos horas. Ahora con el uso de estas herramientas de IA Generativa , esa tarea se hará en segundos. ¿Qué podemos resumir?  Muchas tareas que quizá ahora mismo no te percates. Te menciono alguna de ellas: reuniones, llamadas, vídeos, webinars, conferencias. Ese trabajo manual ya no será necesario. Ahora tu trabajo será elegir qué herramienta usar para conseguir que esos resúmenes sean lo mejor posible. Prompt : Recopila todo el feedback de las encuestas realizadas y elabora un informe con las conclusiones. 5. Comprensión ética básica Esta es una habilidad en la que quizá no habías pensado. Quizá sea una de las más relevantes. ¿Qué sucede con los resultados que nos aportan estas herramientas? ¿Siempre son fiables? Lamentablemente la respuesta es negativa. No podemos fiarnos 100% de los resultados. Es aquí donde desarrollar una habilidad centrada en las consideraciones éticas cobra relevancia. Debemos saber que a veces los  resultados que genera la IA pueden contener errores. No solo errores. Alucinaciones, sesgos o incorrecciones. Es ahí donde nosotros somos los protagonistas. Debemos aprender a discriminar la información. Debemos saber que existe esa posibilidad y verificarla. Los reclutadores valoran enormemente que sepamos diferenciar la información y la empresa también lo agradecerá. 6. Generación de ideas ¿Qué sucede cuando te bloqueas y no eres capaz de arrancar con la primera idea para tu trabajo o proyecto ? Pues que puedes pasarte horas o días hasta que surja. Ahora la IA está ahí para ayudarnos. En ese momento, saber cómo nos puede ayudar la IA será importante. Herramientas como ChatGPT, Gemini, Claude o Copilot , pueden ser nuestros ayudantes en esos momentos de bloqueos creativos. Aprender a iterar y colaborar  para consultar el resultado que buscamos será la clave. Además las ideas podrás ser de cualquier campo. Los enfoques diversos y las posibilidades infinitas. Solo tienes que empezar. Prompt : Dame 5 ideas para una campaña de redes sociales sobre sostenibilidad". 7. Personalización Todos somos únicos. Y la experiencia de cliente personalizada  es algo que siempre buscan las empresas. Adaptarse lo máximo posible a las necesidades del cliente. Con la IA esa tarea se vuelve más fácil. Podemos manejar más datos al mismo tiempo  e incluso en tiempo real.  Se abre  un campo enorme de posibilidades . Podremos realizar recomendaciones personalizadas. Ofrecer películas o canciones adaptadas a las preferencias del usuario. Incluso formación personalizada a nuestros alumnos.  Saber qué herramientas de IA utilizar en cada momento será la clave.  Se trata de la habilidad de entender al usuario y usar las herramientas de ia adecuadas para conseguir resultados Herramientas indispensables para potenciar esas habilidades Ahora bien, puedes preguntarte, y ¿cuales son esas herramientas en las que empezar a desarrollar esas habilidades? Te mencionaré algunas de ellas para que puedas empezar.  Algunos seguro que los conocerás, te invito a probar con el resto Aquí te mostramos algunos LLMs  con los que puedes familiarizarte: ChatGPT, Copilot, Gemini, Claude  (Prompt engineering, Creación de contenido, síntesis de datos, Generación de ideas creativas, Personalización) Son LLMs con los que practicar la mayoría de las habilidades que hemos mencionado. Debemos aprender a usar los prompts adecuados en función de los resultados que buscamos. Zapier, Make, HubSpot (Workflow Automation) Una parte importante en los flujos de trabajo diario son las automatizaciones. Para ello, usar alguna de estas herramientas te facilitará esas tareas. Zapier es un herramienta fácil de usar y puede ser tu primera opción para empezar a conocerla. CANVA, Figma, Notion AI Nos pueden ayudar a personalizar ideas y su uso es fácil y sencillo. Estas herramientas disponen de versiones gratuitas para empezar, por que su acceso está garantizado. Conclusiones Como has visto, estas son solo algunas de las skills que podrían cambiar tu rutina diaria. Son fáciles de usar y accesibles. Mejorarán el día a día en tu trabajo y en el de tu empresa. Las empresas buscan a personas proactivas que se adapten al cambio  y aporten nuevas habilidades como estas.  Aprender las AI Skills te ayudarán en tu actual o en tu próximo trabajo.  Los reclutadores buscan perfiles profesionales que integren estas habilidades. Y quizá este sea un buen momento para empezar. ¿Te animas?  No esperes más y empieza ya a desarrollar estas habilidades.

  • Directrices europeas para la identificación de sistemas de IA y prácticas prohibidas

    Tras la publicación del Reglamento Europeo de Inteligencia Artificial  el pasado 12 de julio, comenzó el calendario de progresiva entrada en vigor de sus previsiones, y sobre todo de la  interpretación práctica de sus disposiciones . No solo a nivel jurídico, sino a nivel técnico y organizacional .  Con este objetivo, y de modo acorde a lo previsto en el artículo 96 del reglamento,  la Comisión Europea  está promoviendo diversas iniciativas para elaborar directrices que complementen el reglamento europeo facilitando su interpretación práctica .  El día 12 de diciembre realizamos una contribución de OdiseIA  a la Consulta Europea multi-stakeholder  para la elaboración de las directrices de aplicación del Reglamento Europeo a la definición de los sistemas de IA y las prácticas prohibidas. La elaboración de estas directrices específicas está prevista en el artículo 96 apartado 1. letras b) y f).  (“Artículo 96. Directrices de la Comisión sobre la aplicación del presente Reglamento 1. La Comisión elaborará directrices sobre la aplicación práctica del presente Reglamento y, en particular, sobre: .../… b) las prácticas prohibidas a que se refiere el artículo 5;  .../… f) la aplicación de la definición de sistema de IA que figura en el artículo 3, punto 1.”) Las definiciones y prohibiciones del reglamento europeo serán aplicables seis meses después de su entrada en vigor, es decir a partir del 2 de febrero de 2025 . Con este horizonte la Comisión ha promovido una consulta europea para disponer de un documento de directrices a principios de de 2025.  El objetivo de las directrices es proporcionar una interpretación coherente y orientaciones prácticas para ayudar a las autoridades competentes en sus medidas de ejecución, así como a los proveedores e implantadores sujetos a la Ley de la IA en sus medidas de cumplimiento, con vistas a garantizar una aplicación coherente, eficaz y uniforme de las prohibiciones y la comprensión de lo que constituye un sistema de IA en el ámbito de aplicación de la Ley de la IA. El interés de la Comisión está sobre todo en recabar ejemplos prácticos  con el fin de aportar más claridad sobre los aspectos prácticos y los casos de uso. Sobre la definición de sistema de IA Se espera que las directrices expliquen y clarifiquen los distintos elementos de la definición del sistema de IA con el objetivo esencial de proporcionar características que distingan los sistemas de IA de los “sistemas de software o enfoques de programación tradicionales más sencillos”. Como es sabido uno de los principales cambios en la evolución del borrador del reglamento fue el cambio de la definición europea original hacia un alineamiento con la definición de la OCDE: Definición inicial: ‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with; Definición final: ‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments; Además de aportar diversas consideraciones y ejemplos , en la contribución de OdiseIA, hemos destacado la necesidad de una mayor claridad técnica para evitar la interpretación como sistemas de IA en sistemas informáticos que no lo son . Y de la conveniencia de clarificación de la caracterización de los sistemas de IA respecto al conjunto de los sistemas informáticos, no solo los sistemas algoritmos más o menos complejos, sino los basados en cualquier tecnología (por ejemplo la informática cuántica), o los sistemas integrados (sistemas informáticos que integran múltiple sistemas de diversas tecnologías, incluida la IA) Sobre los usos prohibidos de la IA La segunda parte de la consulta es mucho más extensa, abarcando cada uno de los usos prohibidos establecidos en el artículo 5 del reglamento. Prácticas subliminales, manipuladoras o engañosas Prácticas de explotación de vulnerabilidades  Prácticas de clasificación de personas o colectivos ( social scoring ) Prácticas de evaluación y predicción del riesgo de comisión de un delito por una persona física Prácticas de extracción no selectiva de imágenes faciales Prácticas de reconocimiento de emociones Prácticas de categorización biométrica de personas físicas Prácticas de identificación biométrica remota en tiempo real. Relación con otras normativas legales europeas. En los diferentes epígrafes hemos aportado consideraciones y ejemplos  como los casos de manipulación para influir en procesos electorales, los sistemas de publicidad personalizada, sistemas de reconocimiento de emociones, job scoring, extracción no selectiva de imágenes faciales, etc.  Subrayando la necesidad de establecer unos límites claros  en cada una de las prácticas prohibidas, así como en sus excepciones , por ejemplo en relación a la seguridad ciudadana  o a los cometidos de las fuerzas de seguridad, en relación a los derechos de las personas. También hemos remarcado que además de las directrices correspondientes a cada caso se debería aclarar por qué estas prácticas sólo se prohíben a los sistemas de IA. Es decir, si se permiten este tipo de prácticas  en sistemas algorítmicos (en terminología del reglamento “sistemas de software o enfoques de programación tradicionales más sencillos”) o, en general,  en sistemas de otras tecnologías informáticas . Más info sobre OdiseIA y el Reglamento Europeo de Inteligencia Artificial en el post “ Posicionamiento de Odiseia sobre el Reglamento Europeo de Inteligencia Artificial ” Diciembre de 2024  Contribución a la consulta de la Comisión Europea y post elaborado por Juan Pablo Peñarrubia, Alberto González, Guido Ricca, y Richard Benjamins.

bottom of page