top of page

Search Results

101 resultados encontrados

  • 🌍 ¿Sabías que el 70% de los migrantes forzosos carecen de acceso adecuado a herramientas digitales esenciales?

    Nuestro reciente proyecto, "Inteligencia Artificial e Inclusión Inmigrante: Gobernanza Ética y Soluciones desde Italia y el Vaticano" , revela las barreras tecnológicas que enfrentan los migrantes y propone soluciones innovadoras basadas en IA ética y responsable. 🔍  Hallazgos clave: 80% identifica la falta de digitalización como un obstáculo laboral. 45% de los sistemas de IA presentan sesgos que impactan en el empleo y la vivienda. Directrices como el Artificial Intelligence Act  y el Reglamento General de Protección de Datos (RGPD)  son fundamentales para garantizar inclusión y equidad. 💡 Descubre cómo promovemos la equidad laboral, la protección de datos y el acceso digital para todos. Únete a la conversación y construyamos un futuro más inclusivo. 💻🤝 👉  Descarga nuestro plan de trabajo aquí: 👉 Y nuestra infografía explicativa: #IAÉtica #MigraciónDigital #DerechosHumanos #InclusiónTecnológica

  • Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It 1

    Sonsoles de la Lastra Olalquiaga, IE University Dr. Richard Benjamins, Observatory for Social and Ethical Impact of AI In today's tech-driven world, artificial intelligence (AI) holds immense promise for shaping our future. From revolutionizing industries to enhancing everyday experiences, AI has the potential to bring about transformative change. However, amidst the excitement, there are significant societal risks as evidenced by several AI incidents, as highlighted in "Another Inconvenient Truth: The Societal Emergency of AI Incidents - We Should Do Something About It" by Sonsoles de la Lastra Olalquiaga and Dr. Richard Benjamins. Through a rigorous analysis of over 750 documented incidents worldwide sourced from the OECD’s AI incidents monitor and the AIAAIC Repository, we open our eyes to the reality that, while AI offers great promise, it also presents risks, particularly for vulnerable communities. Instances of "non-physical harm" account for a striking 96% of these incidents, ranging from algorithmic bias to data privacy breaches and misinformation dissemination. These incidents underscore the need for cautious and responsible deployment of AI technologies. Geographically, AI incidents are concentrated in regions like the United States, the United Kingdom, and Germany, highlighting the global nature of the issue. This geographical insight emphasizes the importance of collaborative efforts and international cooperation in addressing these challenges effectively. By sharing best practices, exchanging knowledge, and establishing common frameworks, stakeholders can work together to mitigate the risks associated with AI deployment and ensure its responsible use across borders. The report also delves into the role of major tech corporations in managing AI's ethical challenges. From ensuring algorithmic transparency to addressing biases in AI systems, these corporations play a crucial role in shaping the future of AI. However, the report underscores the importance of corporate accountability and responsible practices in navigating the ethical complexities of AI development and deployment.   Despite these challenges, there's an opportunity for positive change. Through transparent and ethical AI deployment, we can leverage its potential to address pressing societal issues, from healthcare and education to climate change and social justice. "Another Inconvenient Truth" serves as a call to action, urging policymakers, industry leaders, and researchers to navigate the complexities of AI responsibly.  It's essential to acknowledge the possible negative effects of artificial intelligence on society in order to collaborate toward a future in which AI maximizes its outstanding potential.  The report can be downloaded in the following link:  Title inspired by Al Gore's groundbreaking book, "An Inconvenient Truth: The Planetary Emergency of Global Warming and What We Can Do About It” (2006) https://oecd.ai/en/incidents https://www.aiaaic.org/aiaaic-repository

  • AI for Good: La idea de la vulnerabilidad humana en tela de juicio

    Autora: Dra. Begoña G. Otero, miembro de OdiseIA e investigadora perteneciente al subgrupo «AI for Good», cAIre Research Project. Introducción: La vulnerabilidad humana en tiempos de las tecnologías de IA Vivimos en un mundo en el que los sistemas de IA pueden utilizarse para predecir nuestro próximo movimiento, sugerir productos y servicios que no sabíamos que queríamos o incluso decidir si nos conceden un préstamo o un tratamiento médico. Emocionante, ¿verdad? Sin embargo, he aquí la otra cara de la moneda: ¿y si esta misma tecnología se utiliza para aprovecharse de nuestras debilidades, influye sutilmente en nuestras decisiones, daña nuestra integridad o profundiza las desigualdades sociales? Si estas posibilidades os generan inquietud, no estáis solos. El rápido avance de las tecnologías de IA plantea importantes cuestiones sobre la vulnerabilidad humana. ¿Qué significa ser vulnerable en el contexto de la IA? ¿Cómo podemos garantizar que estas tecnologías nos ayuden en lugar de perjudicarnos? Estos interrogantes no son sólo académicos; nos afectan a todas y a todos en nuestra vida cotidiana. En las siguientes líneas vamos a profundizar en el concepto de vulnerabilidad; a explicar cómo ha evolucionado a lo largo del tiempo, y cómo distintas teorías de diferentes campos del conocimiento pueden ayudarnos a entenderlo mejor en el contexto de la IA. Asimismo, este blogpost proporciona ejemplos concretos que ilustran estas teorías y plantea la pregunta de si la concepción actual de la vulnerabilidad humana es adecuada en el contexto de las tecnologías de la IA. Como investigadora de las aplicaciones de uso positivas de la IA para ayudar a personas vulnerables, es crucial definir qué significa vulnerabilidad en la era de la IA antes de que podamos sacarle todo el partido a su potencial para hacer el bien. La evolución del concepto de vulnerabilidad La idea de vulnerabilidad es tan antigua como la propia humanidad, pero su definición ha evolucionado significativamente con el tiempo. Vamos a hacer un recorrido por su historia para entender cómo se aplica hoy en día, especialmente en el contexto de las tecnologías de IA. Las primeras interpretaciones de la vulnerabilidad Históricamente, la vulnerabilidad se ha considerado a menudo como una condición estática. Por ejemplo, a principios de la década de 1980, el  politólogo Robert Goodin  definió la vulnerabilidad como la «susceptibilidad al daño de los propios intereses». Goodin sostenía que los más vulnerables a nuestras acciones y negligencias son aquellos a los que debemos mayor responsabilidad. Esta perspectiva vinculaba directamente la vulnerabilidad con la responsabilidad y la rendición de cuentas. Pensemos, por ejemplo, en las personas mayores que dependen de cuidadores. La teoría de Goodin sugeriría que la sociedad tiene una mayor responsabilidad de proteger a estas personas porque son más susceptibles de sufrir daños. Un cambio de perspectiva: La vulnerabilidad universal Con el tiempo, los académicos empezaron a considerar la vulnerabilidad tanto una condición de grupos específicos como un aspecto universal de la condición humana. Martha Fineman , una destacada teórica jurídica, introdujo el concepto de «sujeto vulnerable». Sostenía que todos los seres humanos somos intrínsecamente vulnerables debido a nuestro cuerpo físico y a nuestra dependencia de las relaciones sociales y las instituciones. Esta visión desplaza la atención de la protección de grupos específicos al reconocimiento de la vulnerabilidad como un rasgo humano fundamental. La teoría de Fineman ayuda a explicar por qué las personas pueden sentirse vulnerables en distintas etapas de la vida, tales como la infancia, la enfermedad o el envejecimiento. Subraya la necesidad de estructuras sociales que apoyen a todos, no sólo a determinados grupos. La vulnerabilidad contextual y relacional Teorías más recientes subrayan que la vulnerabilidad no es sólo un rasgo humano universal, sino también muy contextual y relacional. La eticista Florencia Luna , por ejemplo, ha propuesto la idea de «capas (no etiquetas) de vulnerabilidad». Según Luna, la vulnerabilidad varía en función de la situación, el momento y el lugar del individuo. Este enfoque por capas permite una comprensión más matizada de cómo los distintos factores contribuyen a la vulnerabilidad de una persona en distintos momentos. Por ejemplo, una mujer embarazada puede experimentar una mayor vulnerabilidad debido a los riesgos para su salud y a las expectativas sociales. Sin embargo, su vulnerabilidad no es estática; cambia con su salud, sus sistemas de apoyo y su situación socioeconómica. Un examen comparativo de estas teorías de la vulnerabilidad más representativas en distintos campos de la ciencia permite extraer una serie de conclusiones. La vulnerabilidad es un aspecto inherente a la humanidad, específico de los seres vivos y relacional. Los desequilibrios de poder ocupan un lugar central en su conceptualización teórica, y existen dos enfoques para abordarla: la reparación de los daños de forma colectiva o el empoderamiento de los individuos. Por último, la ética y el derecho a menudo adoptan un enfoque de etiquetaje de la vulnerabilidad, proporcionando listas de poblaciones vulnerables. Sin embargo, como ha mencionado Luna , la estratificación por capas abre la puerta a un enfoque mucho más interseccional y enfatiza su potencial acumulativo y transitorio. Las teorías vigentes sobre la vulnerabilidad frente a las tecnologías de IA: algunos ejemplos concretos Para comprender mejor el impacto de las tecnologías de IA en la vulnerabilidad humana y si los enfoques existentes sobre este concepto son suficientes, es vital explorar al menos algunas de las teorías más relevantes sobre la vulnerabilidad y sustentarlas con ejemplos del mundo real. Estas teorías nos ofrecen un marco para comprender las distintas dimensiones y contextos de la vulnerabilidad. El modelo de vulnerabilidad de Goodin El modelo de Robert Goodin subraya la idea de que la vulnerabilidad está estrechamente ligada a la dependencia y la responsabilidad. Según Goodin, aquellos que son más vulnerables a nuestras acciones son aquellos de los que somos más responsables. En el contexto de la IA, pensemos en los sistemas automatizados de toma de decisiones en la atención sanitaria. Los pacientes que confían en la IA para su diagnóstico y tratamiento son vulnerables a los errores y sesgos del sistema. Por tanto, los proveedores de asistencia sanitaria deben asumir una gran responsabilidad a la hora de garantizar la exactitud e imparcialidad de estos sistemas de IA para proteger a los pacientes vulnerables. Pero, ¿es éste el mejor camino? La teoría del sujeto vulnerable de Fineman La teoría de Martha Fineman postula que la vulnerabilidad es una condición humana universal. Sostiene que nuestras dependencias físicas y sociales inherentes nos hacen a todos vulnerables, y que la sociedad debe estructurarse para apoyar a todos y no sólo a grupos específicos. Las plataformas de redes sociales que utilizan algoritmos y sistemas de IA para moderar contenidos pueden afectar a todos los usuarios, especialmente cuando los algoritmos no reconocen los matices de la comunicación humana. Esto puede conducir a una censura injusta o a la difusión de contenidos nocivos, afectando a la vulnerabilidad de todos ante la desinformación y el acoso. Sin embargo, ¿hasta qué punto permiten nuestros ordenamientos jurídicos asignar responsabilidades a estas plataformas?  Las capas de vulnerabilidad de Luna El concepto de capas de vulnerabilidad de Florencia Luna sugiere que la vulnerabilidad no es estática, sino que varía en función de las circunstancias del individuo. Este enfoque por capas tiene en cuenta factores como el estatus, el tiempo y la ubicación. Los trabajadores de la economía colaborativa  que utilizan plataformas basadas en IA, como las aplicaciones para compartir desplazamientos ( ride-sharing apps),  pueden experimentar diferentes niveles de vulnerabilidad. Un conductor puede ser más vulnerable durante los turnos nocturnos debido a problemas de seguridad y a la fluctuación de la demanda. Su entorno laboral, su situación económica y el diseño de la plataforma de IA influyen en su vulnerabilidad. Sin embargo, ¿se tienen realmente en cuenta estas capas a la hora de diseñar este tipo de servicios comerciales? ¿Es la vulnerabilidad siquiera un factor que tengan en cuenta los propietarios de estas plataformas? ¿Debería serlo? Las críticas y mejoras de Kohn Nina Kohn  criticó la teoría de Fineman por su potencial para dar lugar a políticas públicas excesivamente paternalistas y estigmatizadoras. Sugirió mejorar dicha teoría para defender mejor las libertades individuales sin dejar de abordar las vulnerabilidades. La autora aboga por un enfoque ponderado que tenga en cuenta tanto la protección como la autonomía. Un ejemplo de su planteamiento sería el caso de los sistemas de vigilancia por IA que se están implantando ampliamente en los espacios públicos con fines de seguridad pública, lo que podría vulnerar los derechos individuales a la intimidad, haciendo que las personas se sientan constantemente vigiladas y pudiendo dar lugar a un uso indebido de los datos. Además, estos sistemas podrían dirigirse de forma desproporcionada a determinadas minorías raciales o étnicas, exacerbando los prejuicios existentes y dando lugar a un trato injusto. La perspectiva de Kohn haría hincapié, entre otras cosas, en la necesidad de (a) implantar obligaciones de transparencia sobre cómo se hace uso de la tecnología, qué datos se recopilan, cómo se almacenan y protegen; (b) establecer mecanismos de supervisión sólidos para garantizar que la vigilancia mediante IA se utiliza de forma ética y legítima; y (c) restringir el ámbito de uso a zonas públicas o situaciones en las que sea realmente necesario por motivos de seguridad pública. Como resultado, la implantación de un sistema de vigilancia por IA en un espacio público podría incluir un rótulo claro que informe a los ciudadanos sobre la vigilancia y el uso de los datos, un sitio web dedicado para el acceso público a información detallada, auditorías independientes periódicas y mecanismos para que las personas puedan dar su opinión o presentar quejas. Este equilibrio entre protección y autonomía es crucial a la hora de diseñar normativas sobre IA que respeten tanto la seguridad como la libertad. Las vulnerabilidades potenciales y ocurrentes de Mackenzie La  filósofa Catriona Mackenzie  introdujo la distinción entre vulnerabilidades potenciales o disposicionales y ocurrentes. Las vulnerabilidades potenciales se refieren a un estado con riesgo de daño, pero tal riesgo no es de momento concreto y tangible. Implica que existen ciertas condiciones que podrían provocar daños, pero que en la actualidad no causan ningún peligro inmediato. Por otro lado, la vulnerabilidad ocurrente es un estado de vulnerabilidad concreto y tangible en el que el riesgo se ha hecho inminente o se está produciendo un daño real. Este tipo de vulnerabilidad requiere una acción inmediata para prevenir o mitigar el daño. Su distinción es significativa porque ayuda a identificar si las vulnerabilidades requieren una intervención inmediata o medidas preventivas para evitar daños futuros. También permite dar respuestas más específicas y eficaces a los distintos tipos de vulnerabilidades. En este sentido, pensemos en los sistemas de IA utilizados en la vigilancia policial predictiva. Las vulnerabilidades potenciales podrían incluir el riesgo de que comunidades específicas sean objeto de ataques injustos basados en IA predictiva entrenada con datos históricos. Las vulnerabilidades ocurrentes tienen lugar cuando las prácticas policiales existentes dan lugar a un exceso de vigilancia y control de estas comunidades, lo que genera desconfianza y perjuicios. Otro ejemplo de vulnerabilidad potencial podría ser un sistema de IA diseñado para procesos de contratación que utilice un conjunto de datos procedentes de datos de entrenamiento que contengan sesgos sutiles, como preferencias históricas por determinados grupos demográficos en detrimento de otros. El uso de un sistema de este tipo puede dar lugar a una vulnerabilidad disposicional al tomar sus usuarios decisiones sesgadas, con el consiguiente potencial de discriminación. En el caso de las vulnerabilidades ocurrentes, se podría considerar un sistema de IA diseñado para gestionar transacciones financieras, que detecte un patrón inusual que indique un ciberataque en curso. Los protocolos de seguridad del sistema se están viendo activamente comprometidos, lo que permite el acceso no autorizado a datos financieros sensibles. Los usuarios de este sistema de IA son en ese momento vulnerables porque el riesgo se ha materializado y necesitan una acción inmediata para mitigar el daño. Implicaciones prácticas de estas teorías Entender estas teorías nos ayuda a reconocer las formas multidimensionales en que las tecnologías de IA pueden afectar a la vulnerabilidad humana. Por ejemplo, la identificación de vulnerabilidades potenciales puede informar el diseño proactivo de sistemas de IA para mitigar los riesgos antes de que se materialicen. Además, reconocer la naturaleza en capas de la vulnerabilidad garantiza que las aplicaciones de IA tengan en cuenta las diversas circunstancias de los distintos grupos de usuarios. Una propuesta de taxonomía para entender la vulnerabilidad en el contexto de las tecnologías de IA Los ejemplos anteriores demuestran que es esencial desarrollar una taxonomía exhaustiva para abordar la naturaleza compleja y polifacética de la vulnerabilidad en el contexto de la IA. Esta taxonomía debería tener en cuenta diversos factores que contribuyen a la vulnerabilidad humana y ofrecer un enfoque estructurado para identificar y mitigar estas vulnerabilidades. Sobre la base de las teorías debatidas y de las ideas extraídas de la literatura, he aquí una serie de factores que, si se tienen en cuenta, pueden ayudar a descubrir mejor la vulnerabilidad humana en el contexto de las tecnologías de IA. Condiciones demográficas y socioeconómicas Las condiciones demográficas y socioeconómicas desempeñan un papel importante a la hora de determinar la vulnerabilidad en el espacio digital. Ciertos grupos pueden ser más susceptibles de sufrir daños debido a su edad, sexo, nivel educativo, ingresos o etnia. Estos factores pueden crear desventajas que se ven exacerbadas por las tecnologías de IA. Los ciudadanos de más edad pueden tener dificultades con los servicios bancarios en línea basados en IA debido a su falta de alfabetización digital, lo que les hace más vulnerables al fraude o a los errores. Aspectos psicosociales Las características psicosociales, como la salud mental, el estado emocional y las capacidades cognitivas, influyen en la forma en que las personas interactúan con los sistemas de IA y pueden afectar a su susceptibilidad a la manipulación o al daño por parte de las tecnologías de IA. Las personas con problemas de salud mental pueden ser más vulnerables a los algoritmos de IA que se dirigen a ellas con anuncios de productos potencialmente nocivos, como el juego o el alcohol. Competencias y alfabetización relacionadas con la IA Los conocimientos y habilidades de un usuario relacionados con la IA pueden influir significativamente en su vulnerabilidad. Las personas con conocimientos limitados sobre el funcionamiento de la IA o sobre cómo navegar por los sistemas basados en IA pueden correr un mayor riesgo de explotación o daño. Los consumidores que necesitan ayuda para entender cómo funcionan los algoritmos de recomendación pueden ser más propensos a caer en sugerencias de productos engañosas o información sesgada. Factores contextuales, relacionales y situacionales El contexto en el que se utilizan las tecnologías de IA puede crear vulnerabilidades situacionales. Estos factores incluyen el entorno, el tiempo y las circunstancias específicas en las que se emplea un sistema de IA. Los trabajadores de la economía colaborativa que utilizan plataformas basadas en IA pueden enfrentarse a vulnerabilidades relacionadas con la seguridad del empleo y las condiciones de trabajo, que pueden variar significativamente en función de la ubicación y la demanda. Desequilibrios de poder y asimetrías de información Los desequilibrios de poder entre desarrolladores y usuarios de IA, así como las asimetrías de información, contribuyen a la vulnerabilidad. A menudo, los usuarios carecen de los conocimientos o los recursos necesarios para comprender plenamente o cuestionar los sistemas de IA, lo que les coloca en desventaja. Las plataformas de redes sociales que utilizan IA para seleccionar contenidos pueden manipular el comportamiento de los usuarios mediante la maximización algorítmica de la participación sin que los usuarios comprendan plenamente el alcance de esta influencia. Factores temporales El momento y la duración de las interacciones con la IA pueden influir en la vulnerabilidad. Algunas vulnerabilidades pueden ser coyunturales y a corto plazo, mientras que otras pueden ser duraderas y crónicas. La vulnerabilidad financiera temporal debida a la pérdida del empleo puede hacer que las personas sean más susceptibles a los servicios de préstamos predatorios controlados por sistemas de IA. Conclusiones: ¿Necesitamos replantearnos qué es la vulnerabilidad humana en el contexto de la IA? La clasificación anterior es un primer intento de abordar de forma estructurada la cuestión de la vulnerabilidad en el contexto de la IA. Está abierta a correcciones y modificaciones en el transcurso de este proyecto de investigación y está abierta a comentarios externos. Aunque es posible que esta taxonomía no resuelva el problema principal de si necesitamos replantearnos el concepto de vulnerabilidad en el contexto de las tecnologías de IA, puede ayudar a identificar nuevas situaciones y proporcionar orientación tanto a emprendedores innovadores como a responsables políticos en términos de diseño inclusivo y evaluación de riesgos. Aun así, queda una pregunta sin respuesta: A la luz de la rápida evolución de las tecnologías de IA, ¿necesitamos revisar la conceptualización jurídica de la vulnerabilidad humana a nivel internacional? Esta cuestión jurídica es objeto de un proyecto de investigación independiente que pronto se materializará en un trabajo de investigación. En resumen... continuará.

  • Habilidades en IA Generativa que buscarán las empresas en 2025

    Hoy en día además de los títulos son muy importantes las skills. Y en el campo de la Inteligencia Artificial (IA), este requerimiento también se cumple. Los reclutadores buscan trabajadores que se desenvuelvan fácilmente en un entorno tan cambiante como es la IA Generativa. Y para eso, es necesario conocer cuáles son esas habilidades (también llamadas “skills”) de IA más relevantes. No necesitas tener conocimientos técnicos para empezar a desarrollar estas habilidades .  Te enseñamos las habilidades más demandadas  que se buscarán y que tú puedes aprender. En este artículo, veremos, Habilidades esenciales de IA Generativa para 2025 Herramientas indispensables para potenciar esas habilidades Habilidades esenciales de IA Generativa para 2025 Lo primero que debemos conocer son las habilidades de IA más Top. No te preocupes si no tienes conocimientos técnicos, estas habilidades podrás adquirirlas aunque no seas un experto. La lista de skills que hoy te presentamos son las siguientes; Prompt engineering Automatizaciones del flujo de trabajo (Workflow automation) Creación de contenido Síntesis de datos (Data summarization) Comprensión ética básica Generación de ideas Personalización 1.Prompt engineering Seguro que has oído hablar del prompt engineering. Puede asustarte un poco la palabra, pero te aseguro que serás capaz de entenderlo. Si no sabes que es el prompt engineering, te lo voy a resumir fácilmente: Es como enseñar a hablar a un niño Si el niño dice: “Yo quiero eso”, puedes no saber qué quiere. Pero si el niño dice:  “Yo quiero ese libro rojo”, tú sabes que libro proporcionarle. Por tanto, el prompt engineering  es encontrar la mejor manera de comunicarse con los modelos de lenguaje (LLMs) para que nos entiendan mejor y hagan exactamente lo que queremos. Aqui te dejo la definición más académica que puedes consultar en la página de recursos de Learnpromting.org Prompt engineering is the process of crafting and refining prompts to improve the performance of generative AI models. It involves providing specific inputs to tools like ChatGPT, Midjourney, or Gemini, guiding the AI to deliver more accurate and contextually relevant outputs.   Learn more about prompt engineering Te muestro un ejemplo de un prompt : Escribe un borrador de correo electrónico tipo para felicitar las navidades a los clientes  2. Automatizaciones del flujo de trabajo (Workflow automation) Estoy segura que en tu día a día, realizarás alguna tarea todos los días . Revisar el correo, leer informes, contestar reclamaciones o cubrir partes. Esa capacidad para detectar esa tarea repetitiva, diaria y automatizarla, es una habilidad muy valorada. Si puedes integrar esa automatización en tu trabajo, tu mejorarás tu carga diaria laboral y mejorará también la eficiencia de tu empresa. ¿Y eso cómo lo hago? Imagina que usas Microsoft Office 365 o Google Workspace. En cualquiera de estos sistemas, podremos aplicar automatizaciones. Algunas herramientas  con las que puedes empezar son Make, Zapier o Power Automate. Una vez encuentres ese flujo de trabajo automatizable, todo mejorará. Te muestro un ejemplo  para ver cómo funciona: Problema : Recibes correos importantes con información que necesitas guardar, como nombres de clientes u otros detalles. Normalmente esa tarea la realizamos manualmente. Solución : Vamos a usar una automatización con Zapier o Make. Resultado : Cada vez que tú recibas un correo con el asunto " Alta cliente", Zapier o Make extraerán el nombre del remitente, la fecha, y el cuerpo del mensaje, y los guardarán como una nueva fila en tu hoja de cálculo. Ejemplo práctico: Un correo con el asunto: "Cliente Nuevo: Juan Pérez"  se convertirá automáticamente en una fila en tu Google Sheets con esta apariencia: 3. Creación de contenido Muchas veces necesitamos generar información  de áreas que no conocemos. Gracias a la GenAI crear contenido ya no será un problema. Si necesitamos crear materiales  para marketing, recursos humanos o atención al cliente, ahora será más rápido y sencillo. Saber manejar herramientas como ChatGPT , Gemini , Claude  o Copilot   para crear contenido será una gran ventaja que las empresas desean que tengamos. Por tanto, si no sabías que se podía ahorrar tiempo en tu trabajo con estas habilidades, te animo a probarla y notar la diferencia. Prompt : Crea un manual de bienvenida a los nuevos empleados del área de logística. 4. Síntesis de datos (Data summarization) Algo tan simple como crear un esquema con los puntos clave de un informe, puede llevarnos horas. Ahora con el uso de estas herramientas de IA Generativa , esa tarea se hará en segundos. ¿Qué podemos resumir?  Muchas tareas que quizá ahora mismo no te percates. Te menciono alguna de ellas: reuniones, llamadas, vídeos, webinars, conferencias. Ese trabajo manual ya no será necesario. Ahora tu trabajo será elegir qué herramienta usar para conseguir que esos resúmenes sean lo mejor posible. Prompt : Recopila todo el feedback de las encuestas realizadas y elabora un informe con las conclusiones. 5. Comprensión ética básica Esta es una habilidad en la que quizá no habías pensado. Quizá sea una de las más relevantes. ¿Qué sucede con los resultados que nos aportan estas herramientas? ¿Siempre son fiables? Lamentablemente la respuesta es negativa. No podemos fiarnos 100% de los resultados. Es aquí donde desarrollar una habilidad centrada en las consideraciones éticas cobra relevancia. Debemos saber que a veces los  resultados que genera la IA pueden contener errores. No solo errores. Alucinaciones, sesgos o incorrecciones. Es ahí donde nosotros somos los protagonistas. Debemos aprender a discriminar la información. Debemos saber que existe esa posibilidad y verificarla. Los reclutadores valoran enormemente que sepamos diferenciar la información y la empresa también lo agradecerá. 6. Generación de ideas ¿Qué sucede cuando te bloqueas y no eres capaz de arrancar con la primera idea para tu trabajo o proyecto ? Pues que puedes pasarte horas o días hasta que surja. Ahora la IA está ahí para ayudarnos. En ese momento, saber cómo nos puede ayudar la IA será importante. Herramientas como ChatGPT, Gemini, Claude o Copilot , pueden ser nuestros ayudantes en esos momentos de bloqueos creativos. Aprender a iterar y colaborar  para consultar el resultado que buscamos será la clave. Además las ideas podrás ser de cualquier campo. Los enfoques diversos y las posibilidades infinitas. Solo tienes que empezar. Prompt : Dame 5 ideas para una campaña de redes sociales sobre sostenibilidad". 7. Personalización Todos somos únicos. Y la experiencia de cliente personalizada  es algo que siempre buscan las empresas. Adaptarse lo máximo posible a las necesidades del cliente. Con la IA esa tarea se vuelve más fácil. Podemos manejar más datos al mismo tiempo  e incluso en tiempo real.  Se abre  un campo enorme de posibilidades . Podremos realizar recomendaciones personalizadas. Ofrecer películas o canciones adaptadas a las preferencias del usuario. Incluso formación personalizada a nuestros alumnos.  Saber qué herramientas de IA utilizar en cada momento será la clave.  Se trata de la habilidad de entender al usuario y usar las herramientas de ia adecuadas para conseguir resultados Herramientas indispensables para potenciar esas habilidades Ahora bien, puedes preguntarte, y ¿cuales son esas herramientas en las que empezar a desarrollar esas habilidades? Te mencionaré algunas de ellas para que puedas empezar.  Algunos seguro que los conocerás, te invito a probar con el resto Aquí te mostramos algunos LLMs  con los que puedes familiarizarte: ChatGPT, Copilot, Gemini, Claude  (Prompt engineering, Creación de contenido, síntesis de datos, Generación de ideas creativas, Personalización) Son LLMs con los que practicar la mayoría de las habilidades que hemos mencionado. Debemos aprender a usar los prompts adecuados en función de los resultados que buscamos. Zapier, Make, HubSpot (Workflow Automation) Una parte importante en los flujos de trabajo diario son las automatizaciones. Para ello, usar alguna de estas herramientas te facilitará esas tareas. Zapier es un herramienta fácil de usar y puede ser tu primera opción para empezar a conocerla. CANVA, Figma, Notion AI Nos pueden ayudar a personalizar ideas y su uso es fácil y sencillo. Estas herramientas disponen de versiones gratuitas para empezar, por que su acceso está garantizado. Conclusiones Como has visto, estas son solo algunas de las skills que podrían cambiar tu rutina diaria. Son fáciles de usar y accesibles. Mejorarán el día a día en tu trabajo y en el de tu empresa. Las empresas buscan a personas proactivas que se adapten al cambio  y aporten nuevas habilidades como estas.  Aprender las AI Skills te ayudarán en tu actual o en tu próximo trabajo.  Los reclutadores buscan perfiles profesionales que integren estas habilidades. Y quizá este sea un buen momento para empezar. ¿Te animas?  No esperes más y empieza ya a desarrollar estas habilidades.

  • Directrices europeas para la identificación de sistemas de IA y prácticas prohibidas

    Tras la publicación del Reglamento Europeo de Inteligencia Artificial  el pasado 12 de julio, comenzó el calendario de progresiva entrada en vigor de sus previsiones, y sobre todo de la  interpretación práctica de sus disposiciones . No solo a nivel jurídico, sino a nivel técnico y organizacional .  Con este objetivo, y de modo acorde a lo previsto en el artículo 96 del reglamento,  la Comisión Europea  está promoviendo diversas iniciativas para elaborar directrices que complementen el reglamento europeo facilitando su interpretación práctica .  El día 12 de diciembre realizamos una contribución de OdiseIA  a la Consulta Europea multi-stakeholder  para la elaboración de las directrices de aplicación del Reglamento Europeo a la definición de los sistemas de IA y las prácticas prohibidas. La elaboración de estas directrices específicas está prevista en el artículo 96 apartado 1. letras b) y f).  (“Artículo 96. Directrices de la Comisión sobre la aplicación del presente Reglamento 1. La Comisión elaborará directrices sobre la aplicación práctica del presente Reglamento y, en particular, sobre: .../… b) las prácticas prohibidas a que se refiere el artículo 5;  .../… f) la aplicación de la definición de sistema de IA que figura en el artículo 3, punto 1.”) Las definiciones y prohibiciones del reglamento europeo serán aplicables seis meses después de su entrada en vigor, es decir a partir del 2 de febrero de 2025 . Con este horizonte la Comisión ha promovido una consulta europea para disponer de un documento de directrices a principios de de 2025.  El objetivo de las directrices es proporcionar una interpretación coherente y orientaciones prácticas para ayudar a las autoridades competentes en sus medidas de ejecución, así como a los proveedores e implantadores sujetos a la Ley de la IA en sus medidas de cumplimiento, con vistas a garantizar una aplicación coherente, eficaz y uniforme de las prohibiciones y la comprensión de lo que constituye un sistema de IA en el ámbito de aplicación de la Ley de la IA. El interés de la Comisión está sobre todo en recabar ejemplos prácticos  con el fin de aportar más claridad sobre los aspectos prácticos y los casos de uso. Sobre la definición de sistema de IA Se espera que las directrices expliquen y clarifiquen los distintos elementos de la definición del sistema de IA con el objetivo esencial de proporcionar características que distingan los sistemas de IA de los “sistemas de software o enfoques de programación tradicionales más sencillos”. Como es sabido uno de los principales cambios en la evolución del borrador del reglamento fue el cambio de la definición europea original hacia un alineamiento con la definición de la OCDE: Definición inicial: ‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with; Definición final: ‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments; Además de aportar diversas consideraciones y ejemplos , en la contribución de OdiseIA, hemos destacado la necesidad de una mayor claridad técnica para evitar la interpretación como sistemas de IA en sistemas informáticos que no lo son . Y de la conveniencia de clarificación de la caracterización de los sistemas de IA respecto al conjunto de los sistemas informáticos, no solo los sistemas algoritmos más o menos complejos, sino los basados en cualquier tecnología (por ejemplo la informática cuántica), o los sistemas integrados (sistemas informáticos que integran múltiple sistemas de diversas tecnologías, incluida la IA) Sobre los usos prohibidos de la IA La segunda parte de la consulta es mucho más extensa, abarcando cada uno de los usos prohibidos establecidos en el artículo 5 del reglamento. Prácticas subliminales, manipuladoras o engañosas Prácticas de explotación de vulnerabilidades  Prácticas de clasificación de personas o colectivos ( social scoring ) Prácticas de evaluación y predicción del riesgo de comisión de un delito por una persona física Prácticas de extracción no selectiva de imágenes faciales Prácticas de reconocimiento de emociones Prácticas de categorización biométrica de personas físicas Prácticas de identificación biométrica remota en tiempo real. Relación con otras normativas legales europeas. En los diferentes epígrafes hemos aportado consideraciones y ejemplos  como los casos de manipulación para influir en procesos electorales, los sistemas de publicidad personalizada, sistemas de reconocimiento de emociones, job scoring, extracción no selectiva de imágenes faciales, etc.  Subrayando la necesidad de establecer unos límites claros  en cada una de las prácticas prohibidas, así como en sus excepciones , por ejemplo en relación a la seguridad ciudadana  o a los cometidos de las fuerzas de seguridad, en relación a los derechos de las personas. También hemos remarcado que además de las directrices correspondientes a cada caso se debería aclarar por qué estas prácticas sólo se prohíben a los sistemas de IA. Es decir, si se permiten este tipo de prácticas  en sistemas algorítmicos (en terminología del reglamento “sistemas de software o enfoques de programación tradicionales más sencillos”) o, en general,  en sistemas de otras tecnologías informáticas . Más info sobre OdiseIA y el Reglamento Europeo de Inteligencia Artificial en el post “ Posicionamiento de Odiseia sobre el Reglamento Europeo de Inteligencia Artificial ” Diciembre de 2024  Contribución a la consulta de la Comisión Europea y post elaborado por Juan Pablo Peñarrubia, Alberto González, Guido Ricca, y Richard Benjamins.

  • ¿PROTEGE EL REGLAMENTO DE IA A LOS VULNERABLES?

    Análisis desde una perspectiva holística y necesaria cohesión con otras normas y derechos consolidados Carmen Muñoz García Subproyecto 1.1. Mapping of AI governance – recommendations and regulation   AI Governance (Project #1)" FOR GOOGLE.org Entregado 14.07.2024 El enfoque a tener en cuenta: el estudio del RIA desde una perspectiva holística El Reglamento de IA de la Unión Europea, hito normativo a nivel mundial, debe considerarse como un todo  para los sistemas de IA y para los modelos de IA de uso general. Y cómo tal, debe tener en cuenta que, cualquier herramienta de IA que se desarrolle y/o use en la UE, salvo excepciones, está sujeta al RIA en su práctica totalidad. De ahí que considere que su estudio debe abordarse desde una perspectiva holística  una vez que, cualquier sistema o modelo de IA sujeto al Reglamento, está vinculado a los objetivos predeterminados por los colegisladores de la Unión. Toda la regulación en su conjunto contribuye de manera sistemática u ordenada a cumplirlos. A saber: (i) se trata de un marco jurídico uniforme para el desarrollo y uso de la IA que promueve una IA centrada en el ser humano, basada en la ética, y que, dirigida a ser segura y fiable debe garantizar derechos y principios consolidados en la UE; (ii) además, cualquier actuación, implementación o desarrollo de sistemas en el mercado interior debe llevarse a efecto a sabiendas de que se pretende -garantizando la seguridad jurídica-, facilitar la inversión y brindar apoyo a la innovación (incluidad PYMEs y startup). No cabe entender este marco regulatorio cómo una suma de sistemas y modelos de IA, con regulación estanco para cada herramienta, con requisitos y obligaciones propias e independientes. La evolución de esta tecnología y la posibilidad de modificación de sus capacidades y riesgos determinan que, cualquier sistema , dadas sus propiedades, su autoaprendizaje, su maleabilidad, la complejidad y opacidad de la herramienta, esté sujeto a cumplir los objetivos de la Unión  (todos los antedichos). Así es, la regulación, en su totalidad, está dirigida a cumplir esos fines, de ahí que se imponga un marco adecuado de vigilancia del mercado, de seguimiento, evaluación y control durante toda la vida de la herramienta. Y que en conexión con todo esto se prevean sistemas adecuados de gobernanza, multas y sanciones en el ámbito del Derecho público. También, una específica regulación de la responsabilidad por daños a perjudicados por los defectos o consecuencias negativas de las herramientas de IA que, estas sí, inciden en la esfera propia del dañado. ¿Regula la protección a las personas? ¿ Y a los vulnerables? Hemos iniciado esta primera parte poniendo el foco el artículo primero del Reglamento  de inteligencia artificial al objeto de poner de relieve, principalmente, que estamos ante un marco regulatorio para la IA . Y es así, como se desprende de este artículo clave por lo siguiente:  Aun cuando tiene por objeto mejorar el funcionamiento del mercado de la Unión y adoptar una IA centrada en el ser humano, ética y fiable (art. 1, apartado 1);  Sólo regula, de manera armonizada y uniforme, la inteligencia artificial : su introducción en el mercado, puesta en servicio y utilización, prácticas prohibidas, requisitos y obligaciones para los sistemas de IA de alto riesgo, también de los modelos de IA de uso general, la transparencia aplicable a determinados sistemas, seguimiento y vigilancia del mercado, gobernanza y garantía del cumplimiento, y además, medidas de apoyo a la innovación (art. 1, apartado 2). Ahora bien, a pesar de sólo regular la inteligencia artificial, de ser una norma administrativa  (cómo son las normas sobre la navegación aérea, la energía nuclear o sobre los vehículos a motor), que impone reglas rigurosas para estas herramientas y sus operadores, y que exige que se cumplan requisitos y obligaciones por cualquier agente de sistemas y modelos, superando los umbrales fijados en el Reglamento, su objetivo es proteger los derechos de las personas en todo el mercado de la Unión.  No regulando de manera directa los derechos de las personas , el marco regulatorio europeo de la IA impone reglas para quienes son los operadores en la cadena de valor de la IA. Se trata de que estos sujetos, vía cumplimiento normativo y de principios éticos, no infrinjan los derechos de las persona  recogidos en la Carta de la Unión y en el Derecho europeo vigente, y muy especialmente, de las personas vulnerables.  En coherencia con lo anterior, todos estos derechos a tutelar, tanto de las  personas físicas en general, como de los sujetos vulnerables en particular: (i) ni han formado parte del propósito regulatorio, (ii) ni han recibido un tratamiento singular en el Reglamento. De ahí que, la mención de los primeros, pero especialmente de los segundos, los vulnerables, sea sólo para incidir  en que las garantías de los sistemas o modelos , la evaluación y prevención de riesgos , la detección o la supervisión de las herramientas,   deben ser más rigurosas  cuando el sistema o modelo puede afectar a personas o colectivos vulnerables.  Es más, respecto a estos últimos, la ausencia de un concepto propio y estático de vulnerabilidad , no nos facilitará la tarea de visibilizar quiénes, por su especial condición o circunstancia negativa, coyuntural o duradera, están más expuestos a cualquier riesgo o incidencia perjudicial de la IA que, incluso, puede llegar a situarle en situación de exclusión social crónica de difícil solución. Con todo, si alguien es vulnerable, o deviene como tal, y resulta perjudicado por la IA, está legitimado para reclamar en el marco de la norma pertinente que se haya infringido. De ahí que, las políticas de concienciación, apoyo y defensa a personas y colectivos vulnerables, frente a riesgos de la IA -que pueden llegar a ser sistémicos-, debe ser una cuestión prioritaria para instituciones internacionales, europeas y nacionales, también por empresas y organizaciones. En definitiva, siendo el Reglamento de IA una norma aplicable a todos los sectores, y la herramienta un instrumento para las personas y su bienestar: 1. Debe aplicarse en contexto con otras normas del Derecho digital de la Unión , entre otras: RGD y RD, DCB, DCSD, DMA o DSA; y 2. Deben salvaguardarse los derechos   recogidos en la Carta   de los Derechos Fundamentales de la Unión  y los derechos contenidos en otras normas consolidadas: protección de datos, protección de los consumidores, no discriminación e igualdad de género. También otras normas que garantizan derechos como el de la reparación de daños causados por la IA (responsabilidad civil extracontractual). De ahí que, el estudio del Reglamento deba hacerse desde una perspectiva holística , y además, teniendo en cuenta, que no es necesario incluir en el Reglamento la enumeración de personas protegidas, o de sujetos o grupos vulnerables .  Con todo, operar en la cadena de valor de la IA exige una participación proactiva de todos los que, de una manera u otra, participan en el desarrollo y uso de la herramienta. El cumplimiento del Reglamento, la eficiencia mediante los mecanismos de gobernanza y las normas sancionadoras, contribuirán a lograr la máxima implementación de la norma en cuanto a la protección de las personas. Para contribuir a esto, será esencial formar y “alfabetizar” sobre los marcos regulatorios y la ética . También, instar a ONGs, instituciones públicas y privadas a concienciar a la ciudadanía de los múltiples derechos de las personas que, no regulados en el Reglamento, sí están vigentes una vez que la norma los consolida e impulsa. A mayor abundamiento, a favor de los vulnerables , el cumplimiento de las obligaciones y requisitos por los operadores, el seguimiento y vigilancia poscomercialización de la IA, deben ser más exhaustivos , fortaleciendo así, de manera indirecta y mediata, los derechos de las personas y colectivos vulnerables. De ahí que, cuando alguien, por su condición o situación, encaje en el rol de persona o colectivo vulnerable, el rigor de la norma deberá ser mayor, y la protección mucho más garantista, si cabe. Los mecanismos de gobernanza y de sanciones, también los de reparación de daños, las actuaciones de organismos públicos y privados, de ONGs, asociaciones y fundaciones, serán claves. Versión del artículo con notas y referencias:

  • 🌐 Inteligencia Artificial, Empleabilidad y Competencias Digitales: Proyecto Google Charity en colaboración con ODISEIA 🌟

    Estamos orgullosos de compartir nuestra participación en el emocionante proyecto Google Charity , llevado a cabo entre ODISEIA, el Observatorio de Impacto Social e Inteligencia Artificial , y Google . Este proyecto aborda uno de los temas más relevantes de nuestro tiempo: la gobernanza de la inteligencia artificial  y su impacto en el ámbito laboral. 🔍  ¿En qué estamos trabajando?  Este proyecto tiene como objetivo comprender los retos que plantea la IA, especialmente en relación con la empleabilidad  y el desarrollo de habilidades digitales . Para ello, hemos creado una iniciativa con 13 grupos multidisciplinares  que trabajan en áreas clave como: Investigación. Entrevistas. Análisis de políticas públicas. 🧩  Nuestro equipo está liderando la formación del futuro. Dentro de esta iniciativa, nos centramos en la necesidad de competencias digitales y formación en IA para adaptarnos a los cambios laborales. Os presentamos a los integrantes del equipo así como su propuesta en esta iniciativa:  Mónica Villas : Ingeniera especialista en IA ética y cofundadora de ODISEIA, lidera esta iniciativa enfocada en competencias digitales y formación. María Barceló : Consultora en proyectos de transformación digital. Asesora de Comités de Dirección y Start Ups en sus estrategias de digitalización. Formación directiva y gestión académica en nuevas tecnologías y negocios digitales. Propone un marco de competencias específico para la IA sobre la base de modelos de competencias digitales existentes. Este marco de competencias servirá de base para el diseño de itinerarios e iniciativas de formación en IA M. Eva Pérez Martínez : Enfermera y especialista en tecnologías de salud, analiza el impacto de las políticas públicas en la integración de IA en el empleo, incorporando los conceptos de upskilling y reskilling. Julia Dormido Abril : Profesora en Derecho del Trabajo y Seguridad Social, estudia cómo las microcredenciales pueden potenciar la empleabilidad y cómo integrarlas en diferentes niveles educativos. 💡  Nuestro propósito:  Promover la formación digital  y en inteligencia artificial , asegurando que la transición hacia un mundo laboral más tecnológico sea inclusiva y beneficiosa para todos. Queremos que las personas no solo se adapten, sino que prosperen en este entorno cambiante. 📢  ¡Seguimos avanzando!  Este es solo el principio. Desde ODISEIA y Google continuaremos compartiendo los avances y aprendizajes de este proyecto que busca marcar la diferencia en el ámbito de la inteligencia artificial y el desarrollo humano. 👉 Si te interesa la transformación digital, la empleabilidad y la formación en competencias del futuro, ¡únete a la conversación y comparte tus ideas! #InteligenciaArtificial #GoogleCharity #ODISEIA #Formación #Upskilling #Reskilling #CompetenciasDigitales #Innovación #TransformaciónDigital

  • TODOS (PASAMOS POR SITUACIONES EN QUE) SOMOS VULNERABLES.

    He conocido a algunos astronautas. Su imagen es lo más opuesto que alguien pueda imaginar a un ser vulnerable. Su nivel de preparación física e intelectual, su aplomo y capacidad para razonar bajo presión no es una invención de las películas. Sin embargo, cuando en la película 2001, una odisea del espacio , el astronauta David Bowman ordena a Hal9000 que abra la compuerta del Discovery1 , el actor Keir Dullea, que da vida al Dr. Bowman, es la viva imagen de la vulnerabilidad. Todos somos vulnerables en alguna circunstancia. Es más, todos tenemos alguna circunstancia que nos hace vulnerables; un “punto débil”. El ámbito digital tiene, en ese sentido, mucho parecido al espacio exterior. La mayoría de nosotros solo ha visto el ciberespacio a través de la ventanilla que suponen las pantallas de nuestros ordenadores y teléfonos, pero lo que se esconde detrás sigue siendo un misterio. Los humanos tendemos a resolver los misterios de dos maneras, mediante la razón o mediante el recurso a los mitos. A falta de elementos de juicio, la mitología es la salida natural. La inteligencia artificial (IA) se convierte así, para muchos, en un ente sobrenatural, omnisciente y objetivo cuya palabra debe ser creída porque, al fin y al cabo, tiene acceso a toda la información y no tiene preferencias a priori. Lo cierto es que las continuas campañas de alabanza (marketing) de la IA que lanzan sus mismos desarrolladores, las grandes compañías del sector, contribuyen notablemente a que pensemos que Hal9000 o Terminator han adquirido -o están a punto de adquirir- conciencia de sí mismos. Sin embargo, el riesgo de que las máquinas se humanicen es mucho menor que el de que los humanos nos mecanicemos. El truco es mantener las bolas en el aire hasta que realmente haya bolas.  Nos gusta ver la realidad en blanco y negro, en bueno y malo, en positivo y negativo. Pero la realidad tiene muchos más matices, muchos tonos de gris. Por eso, los riesgos que presenta la IA para los humanos son tan variados, al menos, como las oportunidades que ofrece. Eso sí, como en el caso del resto de las tecnologías digitales, el mayor de los riesgos es no utilizarla. Simplificando, los riesgos derivados de nuestra interacción con la IA vienen dados por dos factores: nosotros y la IA. Es decir, factores que aportamos los humanos con nuestros sesgos y limitaciones, y factores que introducen las máquinas con los sesgos y las limitaciones de su diseño (en seguridad de vuelo decimos que todos los accidentes son producto de errores humanos; bien del piloto, bien del mecánico, bien del ingeniero que diseñó el sistema). Vamos, que la IA sí tiene prejuicios; unos inducidos por nosotros voluntariamente y otros por fallos en el diseño. La IA pone un enorme espejo a nuestra disposición reflejando cómo somos los mismos humanos. Estudia los datos que le damos y extrae consecuencias sin tener mayor información sobre el contexto que la que le hayamos dado (o permitido adquirir). Nos hace ver, con sus defectos, una caricatura de los nuestros. Con la máquina no vale decir “ni que decir tiene”, porque aquello que no se le dice, no existe para ella. Es lo que se llama “conocimiento tácito”. Tiene siempre en “la mente” todo lo que sabe, pero nada que no haya aprendido. Las probabilidades de que una máquina te deje sin trabajo son mucho menores que las que hay de que alguien que sepa utilizar una máquina te arrebate el puesto. La amenaza no es que las máquinas adquieran conciencia de sí mismas, sino que nosotros no adquiramos conciencia de que estamos trabajando con máquinas y de las posibilidades que eso ofrece. En el primer caso, de que no seamos conscientes de que trabajamos con máquinas y que creamos por un momento que razonan y sienten como nosotros. Ninguna de las dos afirmaciones es cierta. En el segundo, de que seamos incapaces de extraer el partido que puede ofrecernos el aumento de capacidades que surge de la interacción con las máquinas. En el proyecto cAIre, que lleva a cabo OdiseIA  en colaboración con Google , estamos estudiando cómo la IA afecta a los individuos y a los grupos humanos en situación de vulnerabilidad. Definir estas vulnerabilidades -y, obviamente, a esos grupos- ha sido el primer paso. No pretendemos hablar de justicia social, sino de cómo la IA puede alterarla o mejorarla. Cuanto mayor sea nuestra dependencia de las máquinas, mayor será el impacto de su actuación en nuestras vidas. Salvo que, el más grande de esos impactos sería el no tener acceso a su contribución.

  • El impacto de la inteligencia artificial en las profesiones del futuro: reflexiones desde el Grupo 2.1 del Proyecto Google CAIRE

    En un mundo donde la tecnología evoluciona a un ritmo vertiginoso, la inteligencia artificial (IA) se posiciona como un catalizador del cambio en todos los ámbitos de la sociedad, en especial el laboral. El Grupo 2.1 del proyecto Google CAIRE, ha emprendido una investigación profunda sobre las implicaciones de la IA en las profesiones del futuro. Este artículo explora algunos de los hallazgos, reflexiones y retos identificados por este grupo de expertos, conformado por profesionales de distintos sectores. Un equipo multidisciplinar al servicio del conocimiento El Grupo 2.1 integra perfiles diversos que aportan una mirada integral: Ricardo Palomo : Profesor y decano de la Facultad de Económicas en la Universidad de San Pablo, con amplia experiencia en la gestión educativa. José Javier Sesma : Técnico de sistemas informáticos y miembro activo de Odisea, enfocado en soluciones tecnológicas aplicadas. Jorge Cerqueiro : Profesor en la Escuela de Ingeniería Industrial de la Universidad de Vigo, comprometido con el desarrollo de una IA ética y humana. Dolores Abuin : Jurista, investigadora independiente, ponente y creadora de contenido Frank Escandell : MCSE y profesional del desarrollo de negocios tecnológicos Este equipo refleja el carácter multidisciplinar que requiere una investigación sobre un tema tan complejo como el impacto laboral de la IA. El enfoque de la investigación La metodología adoptada combina: Revisión bibliográfica : Análisis de informes de consultoras y estudios académicos que abordan el impacto de la IA en el empleo. Entrevistas cualitativas y cuantitativas : Entrevistas privadas con expertos de diversas áreas, incluyendo tecnología, recursos humanos y sectores industriales. Los cuestionarios incluyeron 31 preguntas estructuradas en seis bloques temáticos: Impacto general de la IA. Sectores más afectados. Opiniones sobre el futuro del trabajo. Grupos vulnerables. Reflexiones específicas del sector. Principales hallazgos 1. Una realidad optimista, pero desafiante Los expertos entrevistados coinciden en que la IA ofrece oportunidades significativas: Automatización de tareas repetitivas, liberando tiempo para actividades creativas y humanas. Creación de nuevas profesiones y potenciación de las existentes. Mejora en la calidad de vida al reducir la carga laboral. Sin embargo, también identificaron retos: Grupos vulnerables : Personas cuyos empleos están en riesgo debido a la automatización. Brechas de formación : La necesidad de re-skilling y up-skilling para garantizar la empleabilidad. 2. Sectores con mayor impacto La IA afecta de manera diversa a los sectores: Sector servicios : Gran transformación debido a la automatización de tareas administrativas y de atención al cliente. Educación y salud : Personalización de servicios y mejora en la eficiencia mediante el uso de datos. Industria : Implementación de deep learning y visión artificial en procesos operativos. 3. El papel de la formación continua La educación permanente se posiciona como clave para adaptarse a la revolución tecnológica. En este sentido: Las grandes y medianas empresas lideran la capacitación en habilidades tecnológicas. Las pequeñas empresas enfrentan mayores barreras para implementar programas de formación. Los sectores académicos y administrativos destacan en la adopción temprana de herramientas de IA. La dimensión social de la IA El Grupo 2.1 resalta que la IA no sólo transforma el empleo, sino también redefine la sociedad. La figura de "Paqui", una mujer ficticia que representa a cualquier ciudadano promedio, ilustra cómo la IA influye en la vida cotidiana y por qué debería importarle a "ella": Uso de aplicaciones para gestiones bancarias y administrativas. Acceso a servicios personalizados en salud y educación. Cambios en el mercado laboral que afectarán a sus hijos y futuras generaciones. Perspectivas y retos futuros Aunque los expertos destacan un panorama optimista, también identifican desafíos clave: Sostenibilidad energética : Los sistemas de IA requieren infraestructura tecnológica intensiva en energía, lo que plantea preguntas sobre su viabilidad a largo plazo. Viabilidad económica : Muchas empresas tecnológicas operan con modelos de inversión no sostenibles. Brechas de implementación : La adopción desigual de la IA podría exacerbar las desigualdades sociales y económicas. Reflexiones finales del Grupo 2.1 Los miembros del grupo concluyen que el futuro del trabajo estará marcado por el cambio constante. Frases como "preparaos porque hay muchas oportunidades, pero hay que prepararse" y "luchemos por un mundo mejor en el que la IA nos ayude a conseguirlo" sintetizan el espíritu de adaptación y optimismo que caracteriza a esta era. Epílogo: construyendo un futuro sostenible y humano La inteligencia artificial representa una herramienta poderosa para transformar el mundo laboral y social. Sin embargo, su éxito dependerá de la capacidad de gobiernos, empresas y ciudadanos para adaptarse a los cambios y garantizar que la tecnología beneficie a todos. El trabajo del Grupo 2.1 es un llamado a la acción para construir un futuro más equitativo, sostenible y humano, donde la tecnología y las personas colaboren de manera armónica.

  • Primera Cumbre de Espacios de Datos en España

    El 3 y 4 de diciembre Madrid fue el epicentro de la Primera Cumbre de Espacios de Datos en nuestro país. Con una asistencia de 270 participantes, entre los cuales se encontraba nuestra socia Patricia Llaque, OdiseIA estuvo presente en este acontecimiento que consolida a Gaia-X España como referente nacional en la Economía del Dato. Más de 90 ponencias de destacados actores en los espacios de datos, entre los que se encontraban representantes gubernamentales y responsables de proyectos europeos y nacionales, permitieron acercarnos a conocer casos de uso concretos en torno a la explotación y compartición de datos en sectores clave como Turismo, Salud, Agroalimentario, Industria y Energía, Movilidad, entre otros. Nos sumamos, en este sentido, al compromiso de Gaia-X España en su liderazgo hacia la consolidación de un ecosistema digital basado en la confianza, la interoperabilidad y la soberanía tecnológica, donde los aspectos éticos de la Inteligencia Artificial son de indiscutible relevancia. Así como al agradecimiento a  la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) del Ministerio para la Transformación Digital y de la Función Pública por su apoyo y visión estratégica. De forma paralela, se realizó un Hackaton que ha sido calificado como " ejemplo inspirador de talento, creatividad y capacidad de colaboración que define el futuro de los espacios de datos". Este evento fue coordinado por la Universidad Politécnica de Madrid, TECNALIA Research & Innovation, CTIC Technology Centre, Arsys y Grupo Aire.

  • Advantere y OdiseIA: Innovación Tecnológica y Ética en IA

    Una alianza para preparar a los líderes del futuro en el uso responsable de la IA Advantere School of Management , a través de su Tech Academy , y OdiseIA , el Observatorio del Impacto Social y Ético de la Inteligencia Artificial, han firmado un acuerdo para impulsar el conocimiento de la inteligencia artificial (IA) y concienciar sobre su uso ético en el ámbito empresarial. Esta colaboración refuerza el compromiso de ambas instituciones con la formación de líderes que integren tecnología avanzada y responsabilidad social en sus carreras. Tech Academy de Advantere: competencias tecnológicas para la empleabilidad La Tech Academy de Advantere se centra en dotar a sus estudiantes de las competencias digitales necesarias para destacar en un entorno empresarial en constante transformación. A través de itinerarios formativos específicos, los estudiantes tendrán acceso a herramientas tecnológicas de vanguardia y la oportunidad de conocer el ecosistema tecnológico global mediante colaboraciones con centros como Madrid Innovation Lab (MIL) , EY Wavespace y, ahora, OdiseIA . Iniciativas conjuntas para un aprendizaje integral Como parte de este acuerdo, los alumnos y profesores de Advantere participarán activamente en iniciativas de OdiseIA, como webinars, hackatones y podcasts, que permitirán a los estudiantes adquirir conocimientos técnicos y éticos en IA, aplicándolos en contextos empresariales reales. Por otro lado, los profesores asociados a OdiseIA pueden participar en los cursos de Advantere para transmitir la importancia y mostrar casos prácticos del uso responsable de la inteligencia artificial. Fomentando un enfoque ético en el uso de la IA La colaboración también se centra en desarrollar una conciencia ética sobre el impacto de la IA en la sociedad. Advantere contribuirá en proyectos de OdiseIA que promuevan el uso responsable de la IA, facilitando la transferencia de conocimiento entre instituciones educativas. Declaración de María Barceló, Directora de Tech Academy en Advantere School of Management: "Nuestra colaboración con OdiseIA nos permite ir más allá de la formación tecnológica tradicional. Queremos que nuestros estudiantes no solo dominen las herramientas tecnológicas, sino que también comprendan las implicaciones éticas de su uso. Este acuerdo refuerza nuestro compromiso de formar profesionales que lideren el cambio digital de manera responsable y sostenible." Declaración de Dr. Richard Benjamins, CEO de OdiseIA: “ Estamos muy ilusionados de que Advantere se haya asociado con OdiseIA. Creemos que la formación es clave para generar los conocimientos necesarios para un futuro sostenible. Los profesionales del futuro no solo deben tener conocimientos de negocio y tecnología (los llamados perfiles ‘T-shaped’, con dos ejes), sino que también deben comprender el impacto social, ético y ambiental del uso de la tecnología. En este sentido, evolucionamos de perfiles ‘T-shaped’ a perfiles con tres ejes: los ‘K-shaped’.” Sobre Advantere School of Management Advantere es una institución educativa innovadora que prepara a sus estudiantes para los retos del futuro, combinando una sólida formación académica con experiencias prácticas. A través de su Tech Academy, Advantere integra la tecnología como un eje clave para la empleabilidad y el liderazgo responsable. Sobre OdiseIA OdiseIA es una organización independiente que promueve el uso ético y responsable de la inteligencia artificial. Su misión es abordar los desafíos sociales y éticos de la IA, colaborando con empresas, universidades y organismos públicos para equilibrar la innovación tecnológica con la responsabilidad social.

  • Premios OdiseIA: Reconocimiento a la Innovación en IA 

    Ayer, en la gala de premios de INDESIA , se otorgaron dos importantes reconocimientos a proyectos destacados en inteligencia artificial: Premio al mejor equipo de IndesIAhack: El galardón fue otorgado al equipo que desarrolló con éxito el reto planteado por Ferrovial , tras su destacada participación en el hackathon IndesIAhack , celebrado del 6 al 8 de noviembre en la Universidad Politécnica de Madrid . Este evento reunió a estudiantes y profesionales de todo el país para resolver retos reales mediante el uso de inteligencia artificial, contando con la participación destacada de los socios de OdiseIA: Richard Benjamins  y Fabián García Pastor . Premio al mejor proyecto de los datatones de INDESIA: Este reconocimiento destacó el proyecto más sobresaliente de los datatones realizados por INDESIA, una iniciativa que impulsa el uso de la inteligencia artificial en el sector industrial, promoviendo soluciones innovadoras y de impacto. OdiseIA , como parte de su compromiso con la ética en inteligencia artificial , premió a ambos equipos con la elaboración de un Informe Ético , asegurando que el desarrollo de sus proyectos cumpla con los más altos estándares de ética, robustez y confiabilidad . Este reconocimiento refuerza la importancia de aplicar la inteligencia artificial de manera responsable y sostenible. ¡Enhorabuena a los equipos premiados por su esfuerzo, talento e innovación! Desde OdiseIA continuamos impulsando una IA ética y transformadora junto a INDESIA .

bottom of page