top of page

Search Results

94 resultados encontrados

  • IA Generativa e Inclusión Digital: Una Conversación con Guillem Porres de Fundación Esplai

    Autor: Juan José Escribano Otero; miembro del proyecto cAIre La revolución de la inteligencia artificial (IA) está transformando todos los sectores, pero su impacto puede ser especialmente profundo cuando se pone al servicio de la inclusión social y digital. En esta reciente conversación con Guillem Porres, responsable de proyectos europeos y de contenidos en el área educativa de Fundación Esplai, se abordan los retos y oportunidades de la IA generativa para colectivos vulnerables y el tercer sector en España. Fundación Esplai: 25 años de inclusión sociodigital Fundación Esplai  es una entidad estatal con más de 25 años de trayectoria dedicada a la inclusión sociodigital de colectivos vulnerables. Su misión es luchar contra las brechas digitales mediante proyectos socioeducativos, de empleo y de acompañamiento a entidades del tercer sector, siempre con la tecnología como herramienta, pero nunca como un fin en sí mismo. Con presencia en toda España —Barcelona, Madrid, Vigo, Málaga, entre otras ciudades—, Esplai ha centrado su ADN en la alfabetización digital  y la promoción de oportunidades para quienes más lo necesitan. ENLACE AL VÍDEO: https://www.youtube.com/watch?v=RPqBf6xFhfw La IA como herramienta de transformación social En los últimos años, Fundación Esplai ha intensificado su trabajo en torno a la IA, en especial la IA generativa. Desde sus inicios, apostaron por proyectos de aprendizaje de programación y machine learning, utilizando herramientas como Scratch y colaborando con iniciativas como Machine Learning for Kids de IBM y proyectos de Microsoft. Sin embargo, el foco actual está en la IA generativa, una tecnología que ha vivido un auténtico boom y que abre nuevas posibilidades para la creatividad, la productividad y la personalización educativa. Para democratizar el acceso a la IA, Esplai desarrolla materiales y cursos online abiertos, tanto para personas sin conocimientos previos como para formadores y profesionales del tercer sector. El objetivo es que nadie quede atrás en este proceso de transformación tecnológica y que la IA se convierta en una aliada para la inclusión y el desarrollo personal y profesional. El “momento del botón” y el reto de la brecha digital Guillem Porres compara el momento actual de la IA generativa con la llegada de la electricidad a los hogares: una fase de descubrimiento, fascinación y experimentación. Así como en su día la gente se maravillaba encendiendo y apagando bombillas, hoy exploramos las posibilidades de la IA generativa para crear textos, imágenes, vídeos y audios que antes solo existían en nuestra imaginación. Sin embargo, advierte que este entusiasmo inicial puede dejar atrás a quienes no tienen acceso o formación suficiente, ampliando la brecha digital. Por ello, Fundación Esplai trabaja para que la capacitación en IA llegue a todos, especialmente a los colectivos más vulnerables, evitando que la tecnología se convierta en una nueva barrera de exclusión. Aplicaciones de la IA generativa para la inclusión Porres identifica dos grandes áreas de impacto positivo de la IA generativa: Personalización educativa:  La IA permite crear perfiles personalizados de los beneficiarios (siempre de forma anonimizada) y diseñar actividades educativas adaptadas a sus necesidades, facilitando un aprendizaje casi individualizado. Esto es especialmente relevante para quienes requieren apoyos específicos o tienen trayectorias educativas no convencionales . Mejora de la empleabilidad:  La IA puede ser una aliada en la búsqueda de empleo, ayudando a identificar nichos de oportunidad, mejorar currículums, crear videocurrículums creativos y recibir recomendaciones personalizadas. Existen tecnologías abiertas y gratuitas que pueden ponerse al servicio de quienes más lo necesitan, haciendo las búsquedas de empleo más rápidas, asertivas y productivas. Porres subraya que la IA no sustituye a los profesionales de la orientación laboral, sino que los complementa, permitiendo que las personas beneficiarias sean más autónomas y proactivas en su desarrollo profesional. Conclusión La IA generativa representa una oportunidad única para impulsar la inclusión social y digital, siempre que seamos capaces de socializar su aprendizaje y uso. Fundación Esplai y proyectos como los impulsados en OdiseIA  demuestran que es posible acercar la tecnología a quienes más la necesitan, evitando que la brecha digital se convierta en una barrera insalvable. El reto está en seguir explorando, formando y acompañando, para que la revolución tecnológica sea, ante todo, una revolución inclusiva, una revolución de todos y para todos y todas, sin excepciones.  🎯 ¿Quieres saber más y ver de cerca cómo la IA puede servir a una sociedad más inclusiva y equitativa? Te invitamos a una sesión muy especial que tendrá lugar el próximo 9 de julio a las 09:00h en Cuatrecasas (Madrid), organizada por OdiseIA en colaboración con Cuatrecasas, donde presentaremos los resultados y conclusiones del proyecto CAIRE, apoyado por   Google.org .

  • La Rueca Asociación: 35 años innovando en inclusión social y tecnología

    Autor: Juan José Escribano Otero; miembro del equipo del proyecto cAIre. En el corazón del tercer sector español, La Rueca Asociación  celebra en 2025 sus 35 años de historia. Esta organización, referente en la intervención social, se ha consolidado por su capacidad de adaptación y por su apuesta decidida por la innovación tecnológica al servicio de las personas más vulnerables. De la mano de Noemi Menéndez, responsable de innovación, tecnatividad y comunicación, conocemos cómo la entidad ha evolucionado y cómo la inteligencia artificial (IA) se está integrando en sus proyectos y en el día a día de su equipo. Una entidad volcada en la juventud y la inclusión La Rueca nació con el objetivo de dotar de oportunidades educativas, laborales y de inclusión a jóvenes y colectivos en riesgo de exclusión social, aunque su intervención se extiende a personas de todas las edades. Su trabajo se articula en varias áreas: Empleo e información:  Orientación y apoyo para la inserción laboral. Área socioeducativa:  Intervención con menores y adolescentes . Diversidad y comunitario:  Fomento de la participación juvenil y el desarrollo comunitario. Tecnología social:   Uso de la tecnología para mejorar la vida  de quienes más lo necesitan. Este enfoque multidisciplinar ha permitido a La Rueca adaptarse a los cambios sociales y tecnológicos de las últimas décadas. ENLACE AL VÍDEO: https://www.youtube.com/watch?v=V43ecHKMWEw Transformación digital y uso responsable de la inteligencia artificial La transformación digital en La Rueca no se ha limitado a la adquisición de dispositivos, sino que ha supuesto la integración de herramientas digitales avanzadas en su operativa diaria. La organización ha apostado por el uso de software premium, como ChatGPT y Canva, que incorporan funcionalidades de IA. Estas herramientas se utilizan tanto para la redacción de proyectos y análisis económico como para la comunicación y la planificación de actividades.  Además, La Rueca ha impulsado la formación interna en IA, ofreciendo cursos y retos prácticos para que su equipo explore el potencial de estas tecnologías en la intervención social. Por ejemplo, se han organizado eventos en los que trabajadores sociales y educadores han resuelto retos cotidianos utilizando ChatGPT, desde la planificación de actividades hasta la orientación laboral. El reto del tercer sector: formación y responsabilidad Noemi Menéndez reconoce que, aunque La Rueca está a la vanguardia, la mayoría de las entidades sociales pequeñas y medianas aún no aprovechan todo el potencial de la inteligencia artificial. Muchas organizaciones desconocen las posibilidades de estas herramientas o tienen dudas sobre la gestión de datos sensibles y la privacidad, lo que genera cierta “parálisis por el análisis”. Es fundamental, según Menéndez, combinar la cautela y la reflexión propias del tercer sector con una formación adecuada y un mayor apoyo institucional. Solo así se podrá avanzar hacia un uso responsable y seguro de la IA, que beneficie realmente a los colectivos vulnerables. En este contexto, programas como el proyecto cAIRe , de OdiseIA, suenan como un paso en la buna dirección en organizaciones como La Rueca. Sueños de futuro: asistentes digitales y orientación personalizada Mirando al futuro, Menéndez imagina herramientas de IA que supongan un verdadero avance para quienes más lo necesitan. Entre sus ideas destaca la creación de un asistente digital multilingüe que acompañe en tiempo real a personas migrantes o en situación de exclusión en trámites administrativos complejos, traduciendo el lenguaje jurídico a un lenguaje cotidiano y guiando paso a paso en procesos como extranjería, vivienda o empleo. Otra línea de innovación posible y deseable, nos cuenta Noemi, es el desarrollo de sistemas de orientación laboral basados en IA que no solo ofrezcan listados impersonales de ofertas de empleo, sino que comprendan el contexto vital, las competencias digitales y los miedos de cada persona, proponiendo itinerarios personalizados y realistas. Proyectos y recursos relacionados La Rueca no está sola en este camino. Existen numerosas ONG y proyectos que trabajan en la intersección entre tecnología e inclusión social. Algunos enlaces de interés: La Rueca Asociación : Página oficial con información sobre sus programas y proyectos. ODISEIA - Proyecto Google Charity : Iniciativa que promueve el uso ético y responsable de la inteligencia artificial en el tercer sector, con recursos y ejemplos de buenas prácticas. Plataforma del Voluntariado de España : Información y recursos para entidades sociales y voluntariado. Fundación Esplai - Ciudadanía Comprometida : Proyectos de inclusión digital y formación en competencias tecnológicas para jóvenes y colectivos vulnerables .“Fundación Esplai también ha compartido su visión con nosotros en la siguiente entrevista” Conclusión La experiencia de La Rueca Asociación demuestra que la tecnología, y en particular la inteligencia artificial, puede ser una poderosa aliada en la lucha contra la exclusión social si se utiliza de forma responsable y ética. El reto ahora es extender este conocimiento y estas prácticas al conjunto del tercer sector, superando miedos y barreras, y apostando por la formación y la innovación colaborativa. Solo así podremos construir una sociedad más inclusiva y justa, donde la tecnología esté realmente al servicio de las personas. 🎯 ¿Quieres saber más y ver de cerca cómo la IA puede servir a una sociedad más inclusiva y equitativa? Te invitamos a una sesión muy especial que tendrá lugar el próximo 9 de julio a las 09:00h en Cuatrecasas (Madrid), organizada por OdiseIA en colaboración con Cuatrecasas, donde presentaremos los resultados y conclusiones del proyecto CAIRE, apoyado por   Google.org . Un encuentro abierto y gratuito para compartir ideas, propuestas y seguir construyendo juntos una inteligencia artificial verdaderamente al servicio de las personas. 🔗 Inscripciones y más información aquí:   https://shorturl.at/wljUf 📌 ¡Nos encantaría contar contigo!

  • Cuando todo cambia en minutos: IA para protegernos de lo inesperado

    Autor: Fabián García Pastor; miembro del equipo del proyecto cAIre. Hay vulnerabilidades que no se ven venir. Una tormenta, un terremoto, una inundación. Todo parece normal… hasta que deja de serlo.¿Qué pasó con la DANA en Valencia? ¿Cómo es posible que, en cuestión de horas, familias enteras perdieran sus casas, su seguridad, incluso seres queridos? ¿Y si una aplicación pudiera ayudarnos a anticipar lo que está por venir? ¿Y si, además, pudiera acompañarnos durante la emergencia, guiarnos cuando todo es confusión? ResqIA  es un proyecto que nace precisamente de esa pregunta. Porque, cuando hablamos de desastres naturales, todos podemos convertirnos en un colectivo vulnerable . Y la inteligencia artificial puede marcar la diferencia entre estar perdido... y estar prevenido. La vulnerabilidad no siempre se ve venir A diferencia de otras formas de exclusión que son estructurales y estables, los desastres naturales convierten en vulnerables a quienes ayer vivían con normalidad . La vulnerabilidad aparece de golpe. Lo que ayer era rutina, hoy es caos. Esta idea está en el corazón de ResqIA: una aplicación pensada para actuar antes , durante  y después  de una catástrofe. Y que entiende que no se trata de ayudar a "otros", sino a cualquiera de nosotros. Predecir, alertar, guiar: inteligencia al servicio del bien común ResqIA combina dos fuentes de información: datos meteorológicos y señales recogidas en redes sociales. Cruzando ambas, detecta patrones que permiten anticipar una catástrofe o validar que ya está ocurriendo. La app lanza una alerta temprana a los usuarios de la zona afectada, permitiendo ganar esos minutos que pueden marcar la diferencia. Y lo hace no con frialdad estadística, sino con una sensibilidad profundamente humana. En mitad del caos, una IA que acompaña Lo que realmente distingue a ResqIA es su capacidad de guiar. Su chatbot , diseñado para actuar durante la emergencia, adapta sus recomendaciones según el perfil del usuario: si tiene problemas de movilidad, si está solo, si necesita localizar una zona segura. La idea es clara: en una situación crítica, la incertidumbre puede ser letal . Saber qué hacer, dónde ir, a quién avisar, puede salvar vidas. Y ResqIA está pensada para ofrecer respuestas rápidas, personalizadas y comprensibles. Todo esto lo abordamos también en una conversación cercana y llena de aprendizajes con Jaime Moro  y Carmen Iglesias , impulsores del proyecto desde la Escuela de Ingenieros Industriales de la Universidad Politécnica de Madrid. 🎥 Puedes ver la entrevista completa aquí: Sesión cAIre con ResqIA Diseñar sabiendo que hay vidas en juego La parte más admirable de ResqIA no es solo su visión técnica, sino su compromiso ético. El equipo ha identificado desde el inicio los principales riesgos: El uso de datos sensibles (movilidad, localización, salud) en tiempo real. La posibilidad de que el chatbot recomiende algo erróneo en un momento crítico. Por eso, el diseño de ResqIA incorpora protocolos de seguridad, anonimato y supervisión humana. La IA no opera sola ni fuera de control: está pensada para actuar con responsabilidad y con un claro principio de precaución. Emprender con sentido, construir con humildad ResqIA no nace en una consultora ni en un laboratorio corporativo. Nace de un grupo de estudiantes que se conocieron por azar y decidieron hacer algo que pudiera servir a los demás. En el hackathon OdiseIA4Good , su idea creció, se validó, se reconoció. Ahora, ya han desarrollado un primer prototipo funcional. Están participando en iniciativas de emprendimiento universitario y buscando nuevas colaboraciones. Pero lo hacen con los pies en el suelo: saben que el camino es largo, y que aprender también forma parte del proyecto . Una IA que cuida, cuando más lo necesitamos No siempre podemos evitar la catástrofe. Pero sí podemos prepararnos mejor. Y cuando eso ocurre, la tecnología deja de ser fría: se convierte en un acompañante silencioso. ResqIA propone una IA que está ahí cuando todo se tambalea. Una IA que no reemplaza, sino que ayuda. Que no decide por ti, pero te da claridad cuando más lo necesitas. Porque protegernos de lo inesperado es también una forma de cuidarnos. Un paso más: acompáñanos el 9 de julio Si quieres conocer más proyectos como ResqIA, te invitamos a una sesión especial el próximo 9 de julio a las 09:00h en Cuatrecasas (Madrid) , organizada por OdiseIA en colaboración con Cuatrecasas , donde presentaremos los resultados y conclusiones del proyecto CAIRE , con el apoyo de Google.org . 🔗 Inscripciones y más información:   https://shorturl.at/wljUf

  • Cuando un papel se convierte en un muro y cómo la Inteligencia Artificial puede abrir puertas

    Autor: Fabián García Pastor; miembro del equipo del proyecto cAIre.  ¿Alguna vez has tenido que releer tres veces un texto de la administración para intentar entender qué se te pedía? Imagina ahora que eres una persona mayor, alguien con discapacidad intelectual o una persona con baja alfabetización digital. Esa incomprensión no es solo frustrante: es una barrera real al acceso a tus derechos. Hace unos días compartí una reflexión sobre cómo la inteligencia artificial puede ayudarnos a simplificar la burocracia y convertirla en un puente en lugar de un muro. Puedes leerlo aquí si te lo perdiste. Hoy quiero ir un paso más allá: no se trata solo de hacer más fáciles los trámites, sino de cuestionarnos algo aún más básico. ¿Entendemos realmente lo que la administración nos dice? ¿Y cómo podemos exigir que la IA sea explicable si ni siquiera lo es la propia administración? El derecho a entender lo que te afecta La administración nos habla sobre educación, salud, trabajo o impuestos. Pero a menudo lo hace en un idioma opaco. No entender un texto no debería implicar quedar fuera del sistema. Entender lo que nos afecta no es un privilegio: es un derecho. Poder comprender de forma autónoma lo que se nos exige o lo que podemos solicitar es una base elemental para una ciudadanía plena. No se trata de simplificar la ley, sino de hacerla accesible. De lo contrario, muchos acaban renunciando por frustración, miedo o desconfianza. La administración no habla difícil por casualidad El lenguaje administrativo está lleno de fórmulas, tecnicismos y estructuras que lo alejan de la vida cotidiana. No es solo un problema de palabras, es un problema de diseño institucional. Y aunque nos parezca normal, no debería serlo. DiloClaro , proyecto nacido en el marco del hackathon OdiseIA4Good, surge precisamente para romper esa lógica: traducir textos oficiales al lenguaje claro, adaptado, accesible. No para simplificar el contenido, sino para dignificar la comunicación entre administración y personas. Esta iniciativa no es un experimento académico, sino una respuesta práctica a un problema estructural: la brecha entre lo que se escribe en el Boletín Oficial y lo que la gente puede comprender sin ayuda. Todo esto lo abordamos también en una conversación muy especial con Alicia Romero y Francisco Luque, impulsores del proyecto DiloClaro . En ella exploramos no solo cómo traducir la administración al lenguaje claro, sino también cómo hacerlo desde una mirada técnica, empática y con visión de futuro. 🎥 Puedes ver la entrevista completa aquí: Sesión cAIre con DiloClaro La IA también tiene que explicarse Así como usamos la IA para hacer comprensible un texto jurídico, también deberíamos exigir que sus propias decisiones sean entendibles. Existe un paralelismo claro: la "explicabilidad" no es solo un término técnico en IA. Es un principio que debería guiar cualquier sistema que tome decisiones que nos afectan: desde una resolución administrativa hasta una recomendación algorítmica. La transparencia no debería ser un añadido: debería ser parte del diseño. En el caso de DiloClaro , esto significa que las traducciones no solo deben ser correctas, sino comprensibles y verificadas por quienes las van a usar. Si pedimos transparencia a los algoritmos, pidámosla también a nuestras instituciones. Colectivos vulnerables: los más afectados por la opacidad Cuando el lenguaje es oscuro, no lo es por igual para todos. Afecta más a quienes ya tienen menos: menos recursos, menos formación, menos red de apoyo. Personas con discapacidad intelectual, personas mayores o con baja alfabetización digital... Para ellas, entender no es un lujo: es la condición mínima para ejercer sus derechos. Las dificultades aumentan además en entornos digitales, donde no hay posibilidad de pedir una aclaración cara a cara. La administración en línea, cuando no es comprensible, no empodera: excluye. DiloClaro  pone a estos colectivos en el centro. Y lo hace con tecnología, pero también con escucha y responsabilidad. Incorporando su voz no solo como usuarios finales, sino como validadores activos del proceso. Validar con personas reales: cuando la empatía se convierte en método Lo más valioso de DiloClaro  no es solo su tecnología, sino su enfoque: las traducciones se prueban con los propios colectivos destinatarios. Hay validación real, humana, y acompañamiento en el uso. La IA no es un oráculo: necesita ser contrastada, corregida, validada. Y si va dirigida a colectivos vulnerables, ese cuidado debe ser doble. Además, este modelo de co-creación tiene un efecto secundario positivo: empodera a los propios colectivos. Les hace parte activa del proceso, les reconoce como expertos en sus propias dificultades, y refuerza su protagonismo en la sociedad digital. Explicar es una forma de cuidar Traducir no es rebajar el contenido: es elevar la comunicación. Explicar no es una concesión: es un acto de respeto. Si pedimos que la inteligencia artificial sea transparente, hagamos lo mismo con nuestros sistemas públicos. Y si la tecnología puede ayudarnos a entender mejor el mundo, pongámosla al servicio de quienes más lo necesitan. Porque solo una administración que se explica, es una administración que cuida. Y una sociedad que cuida es una sociedad que no deja a nadie atrás. Un paso más: acompáñanos el 9 de julio Si quieres profundizar en estas ideas, te invitamos a una sesión especial el próximo 9 de julio a las 09:00h en Cuatrecasas (Madrid), organizada por OdiseIA en colaboración con Cuatrecasas, donde presentaremos los resultados y conclusiones del proyecto CAIRE, con el apoyo de Google.org . 🔗 Inscripciones y más información:   https://shorturl.at/wljUf

  • Cuando un papel se convierte en un muro y cómo la Inteligencia Artificial puede abrir puertas

    Autor: Fabián García Pastor; miembro del equipo del proyecto cAIre. Imagina llegar a un país nuevo con la esperanza de empezar de cero. Estás dispuesto a trabajar, aprender el idioma, contribuir. Pero antes de poder hacerlo, te enfrentas a un obstáculo inesperado: un formulario. No entiendes lo que pone. Nadie te lo explica. Y si cometes un error, te devuelven al principio. Para muchos migrantes, el primer obstáculo no es cultural ni económico: es burocrático. Y aunque parezca una cuestión menor, es en ese laberinto de trámites donde se decide a menudo quién avanza y quién queda atrapado. ¿Puede la inteligencia artificial cambiar esto? La respuesta es sí. Y no es ciencia ficción: está sucediendo ya, de forma silenciosa, pero transformadora. La burocracia como muro invisible Para quienes han crecido dentro del sistema, rellenar un documento oficial puede ser tedioso. Para quienes llegan de fuera, sin conocer el idioma ni el funcionamiento de la administración, puede convertirse en una experiencia frustrante, excluyente, a veces humillante. La burocracia es el muro invisible de la integración. No se ve en los discursos políticos ni en los grandes planes estratégicos, pero está ahí, en cada formulario, cada cita previa, cada página mal traducida. Y lo peor es que, si te equivocas, no solo no avanzas: vuelves al inicio. Cada error en un formulario se convierte en un bucle de espera, correcciones y desinformación. Y eso, en muchos casos, significa desesperación. TramitEasy y otros aliados: del obstáculo al compañero de viaje Frente a ese muro, empiezan a surgir herramientas que no buscan derribarlo, sino convertirlo en puente. Una de ellas es TramitEasy , una solución desarrollada en el marco del hackathon   OdiseIA4Good , que utiliza inteligencia artificial para ayudar a los migrantes a completar trámites burocráticos de forma comprensible y acompañada. La herramienta no decide por la persona. Pero sugiere, corrige, traduce. Actúa como ese amigo o amiga que te acompaña cuando no sabes por dónde empezar. Y lo hace con una sensibilidad especial: entiende que no se trata solo de "rellenar bien", sino de no sentirse solo, de no perderse en un mar de tecnicismos. Tuve la oportunidad de conversar con Mercedes Tirado, directora de operaciones de MIOTI y una de las impulsoras de TramitEasy. En nuestra entrevista exploramos estos retos y cómo la IA puede abordarlos desde una mirada profundamente social. Puedes ver la entrevista completa aquí 👉 Sesión cAIre con TramitEasy - MIOTI Una administración comprensible es una forma de acogida Decimos que queremos sociedades inclusivas, pero ¿cómo se siente acogida una persona si ni siquiera puede solicitar una cita médica o apuntarse a una escuela sin ayuda externa? Una acogida real empieza por una administración comprensible. Porque la verdadera inclusión no empieza con grandes discursos, sino con gestos concretos: poder acceder a información clara, recibir indicaciones comprensibles, no tener miedo de hacer preguntas. Y eso, la IA lo puede facilitar. Cuando alguien logra hacer su primer trámite sin ayuda, gana no solo en autonomía, sino en dignidad. Es una forma de decir: "Estás dentro. Puedes hacerlo por ti mismo". La IA como traductora silenciosa Una de las grandes virtudes de la inteligencia artificial bien aplicada es que puede actuar como traductora silenciosa. No sustituye a los trabajadores públicos, pero ayuda a que lo que dicen las leyes, las normas y los formularios pueda ser entendido por quienes más lo necesitan. Traduce entre idiomas, pero también entre jergas. Entre lo abstracto y lo concreto. Entre un procedimiento impersonal y una vida que está esperando poder avanzar. En ese papel de "intérprete administrativo", la IA puede ser una herramienta de empoderamiento y comprensión. Innovar también es hacer lo difícil más humano A veces confundimos innovación con complejidad, con algoritmos sofisticados o grandes avances tecnológicos. Pero innovar también es esto: hacer lo difícil más comprensible. Convertir un trámite frío en una experiencia humana. Diseñar una interfaz clara. Explicar con palabras sencillas. Acompañar en lugar de excluir. Porque al final, la dignidad también empieza por poder hacer las cosas por uno mismo. La tecnología no debe ser una torre de marfil, sino una escalera accesible. Y para quienes se enfrentan a esa escalera en la oscuridad, herramientas como TramitEasy encienden una luz. Abrir puertas es más que una metáfora Detrás de cada trámite bien resuelto hay una historia que puede continuar. Una persona que avanza. Una familia que se estabiliza. Un futuro que se construye. La inteligencia artificial, cuando se aplica con ética y empatía, puede ser esa llave que abre la primera puerta. No es una solución mágica. Pero sí es una herramienta poderosa para que la burocracia deje de ser un muro… y empiece a parecerse más a un puente. Y eso, en una sociedad que aspira a ser verdaderamente justa, no es poca cosa. Es esencial. 🎯 ¿Quieres saber más y ver de cerca cómo la IA puede servir a una sociedad más inclusiva y equitativa? Te invitamos a una sesión muy especial que tendrá lugar el próximo 9 de julio a las 09:00h en Cuatrecasas (Madrid), organizada por OdiseIA en colaboración con Cuatrecasas, donde presentaremos los resultados y conclusiones del proyecto CAIRE, apoyado por   Google.org Un encuentro abierto y gratuito para compartir ideas, propuestas y seguir construyendo juntos una inteligencia artificial verdaderamente al servicio de las personas. 🔗 Inscripciones y más información aquí:   https://shorturl.at/wljUf 📌 ¡Nos encantaría contar contigo!

  • El Imperativo de la Transformación de la IA

    La revolución de la inteligencia artificial presenta desafíos y oportunidades sin precedentes para las organizaciones a nivel mundial, alterando fundamentalmente el panorama de la transformación empresarial de maneras que la distinguen de los cambios tecnológicos anteriores.  Este artículo explora la entrevista que Elizabeth Bramson, CEO de la revista MIT Technology Review le hizo a Kevin Bolen, Director Principal y Jefe de Transformación IA en KPMG, durante el evento EmTech AI 2025 en el MIT Media Lab. Kevin aporta una perspectiva única a esta discusión, habiendo sido testigo de múltiples olas de disrupción tecnológica a lo largo de su carrera que abarca las iniciativas tempranas de internet de IBM, startups de procesamiento de lenguaje natural, las teorías de innovación disruptiva de Clayton Christensen , y ahora liderando la transformación IA en una firma de servicios profesionales de 125 años de antigüedad. Cinco conclusiones clave emergen de este análisis integral:  Primera, la transformación IA actual difiere fundamentalmente de las revoluciones tecnológicas anteriores debido a la ausencia de latencia dependiente de infraestructura, creando una capacidad inmediata y democratizada que abruma los enfoques tradicionales de gestión del cambio organizacional.  Segunda, las organizaciones deben abandonar las mentalidades lineales de ahorro de costos y adoptar estrategias de generación de valor basadas en portafolios que abarquen reducciones de costos inmediatas, ahorros dependientes de transformación y oportunidades de creación de valor completamente nuevas.  Tercera, la trayectoria tradicional de desarrollo profesional de nivel inicial enfrenta disrupción, requiriendo que las organizaciones reimaginen cómo cultivan futuros líderes cuando los roles de nivel junior se automatizan. Cuarta, la integración de IA en sistemas embebidos y arquitecturas basadas en agentes plantea riesgos significativos para las capacidades de pensamiento crítico, necesitando nuevos marcos para mantener la supervisión humana y el rigor analítico.  Quinta, las industrias de servicios profesionales deben reestructurar fundamentalmente sus propuestas de valor, moviéndose más allá de los modelos de facturación basados en tiempo hacia asociaciones de innovación colaborativa que aprovechen las capacidades transformacionales de la IA. La Naturaleza Sin Precedentes de la Transformación IA La revolución IA actual representa un cambio de paradigma que desafía los precedentes históricos en la adopción tecnológica y el impacto organizacional. A diferencia de las tecnologías transformacionales anteriores como internet, la computación móvil o la electricidad, que requerían desarrollo sustancial de infraestructura y penetración gradual del mercado, la IA generativa aprovecha la infraestructura digital global existente para entregar capacidades inmediatas y democratizadas. Esta diferencia fundamental elimina la ventana de latencia tradicional que anteriormente permitía a las organizaciones observar, planificar y adaptarse gradualmente al cambio tecnológico. El análisis de Bolen revela que las transformaciones históricas eran " codependientes de otras transformaciones que ocurrían ", creando amortiguadores naturales para la adaptación organizacional. Internet requería actualizaciones de infraestructura de telecomunicaciones, penetración de banda ancha y desarrollos complementarios de la revolución móvil antes de alcanzar su potencial transformacional completo. Estas dependencias proporcionaron a las organizaciones " un poco de tiempo de retraso donde no eras castigado por llegar demasiado tarde ". La transformación IA contemporánea opera sin tales mecanismos protectores, montándose sobre la infraestructura establecida para entregar " una cantidad masiva de capacidad democratizada e innovadora en las manos de literalmente todos ". Esta aceleración crea un desajuste fundamental entre la capacidad tecnológica y la preparación organizacional. Los equipos de liderazgo se encuentran " mal equipados " para manejar " cambiar todo en todas partes al mismo tiempo " en lugar de los modelos de transformación lineal tradicionales. El paradigma de transformación convencional asume movimiento " de un estado estable a otro estado estable " con la transformación representando una fase intermedia. La implementación IA actual demanda reconocimiento de " evolución continua en una escala relativamente rápida de grandes partes de tu negocio ", desafiando fundamentalmente las metodologías establecidas de gestión del cambio. Más Allá de la Reducción de Costos: Creación de Valor Basada en Portafolios La respuesta organizacional inicial a las capacidades de IA frecuentemente se centra en oportunidades de reducción de costos, un enfoque natural pero finalmente limitante que falla en capturar el potencial transformacional completo de la tecnología. La experiencia de Bolen revela el atractivo seductor de los cálculos de costos inmediatos: identificar ahorros de tiempo a través de las funciones organizacionales y traducir estos en beneficios financieros teóricos. Sin embargo, este enfoque encuentra desafíos significativos de implementación arraigados en la psicología humana y la inercia organizacional. El fallo fundamental en las estrategias de reducción de costos yace en la dificultad de agregar ahorros de tiempo individuales en beneficios organizacionales significativos. Mientras que la IA podría ahorrar " 17 minutos al día " para contribuidores individuales, " agregar eso en un verdadero ahorro de FTE resultó realmente difícil " debido a la inercia humana, limitaciones de mentalidad de liderazgo e incertidumbre sobre la utilización productiva del tiempo recuperado. Cuando los empleados aprenden que la IA podría eliminar el 15% de sus actividades diarias, la respuesta es a menudo ansiedad en lugar de entusiasmo: " ¿entonces termino el trabajo a las 3:30? ¿Qué hago? ¿Cómo muestro valor?". La realización efectiva del valor de IA requiere un enfoque sofisticado de portafolio que abarque tres categorías distintas de oportunidad.  Los ahorros de costos inmediatos  representan frutos al alcance donde la IA demuestra superar las capacidades humanas, como servicios de traducción y localización que pueden eliminar millones en gastos anuales.  Los ahorros dependientes de transformación  reconocen el valor potencial que requiere cambio organizacional significativo para realizarse, demandando evaluación realista de la complejidad de implementación.  La creación de valor completamente nuevo  representa la categoría más emocionante: oportunidades que anteriormente eran imposibles debido a limitaciones de costo-efectividad o capacidad analítica humana insuficiente. El marco de portafolio demanda integración de perspectiva externa, reconociendo que los stakeholders  internos pueden estar "institucionalizados" en enfoques existentes e incapaces de visualizar alternativas radicales. Mientras que los equipos internos se enfocan en mejoras incrementales del 10-20%, las perspectivas externas podrían cuestionar suposiciones fundamentales y proponer eliminación del 90% de procesos enteros. Esta entrada externa se vuelve crucial para organizaciones que buscan beneficios transformacionales en lugar de meramente incrementales. Reimaginando el Desarrollo Profesional y el Cultivo del Liderazgo La automatización de roles tradicionales de nivel inicial crea un desafío profundo para el desarrollo de talento organizacional, potencialmente disrumpiendo las trayectorias establecidas para cultivar capacidades de liderazgo futuro. Esta transformación es paralela a los cambios históricos en manufactura, donde los modelos de aprendizaje para soldadores se volvieron obsoletos con la automatización robótica, requiriendo conjuntos de habilidades completamente nuevos enfocados en programación de robots en lugar de técnicas de soldadura manual. Las organizaciones de servicios profesionales enfrentan desafíos particulares en esta transición, habiendo dependido históricamente de personal junior realizando tareas analíticas rutinarias mientras desarrollaban habilidades de relación con clientes, capacidades de negociación y perspicacia de desarrollo de negocios. El modelo tradicional de " sentarse en una sala de conferencias haciendo mapas de procesos " mientras se aprenden habilidades más suaves se vuelve económicamente insostenible cuando la IA puede realizar tal análisis más eficientemente. Las organizaciones deben identificar " nuevas tareas de nivel inicial que agreguen valor al cliente por las que estén dispuestos a pagar " mientras sirven como ambientes de incubación efectivos para habilidades profesionales esenciales. La solución requiere reconceptualización fundamental de roles profesionales y competencias requeridas. En lugar de traer metodologías predeterminadas a desafíos de clientes, los profesionales futuros deben demostrar " qué tan rápido puedes generar una solución completamente nueva a ese problema " a través del desarrollo y despliegue dinámico de agentes. Este cambio demanda identificación de candidatos que han " demostrado eso dentro de su trayectoria universitaria, su primer trabajo o dos " en lugar de depender de credenciales académicas tradicionales o evaluaciones de habilidades estandarizadas. Las implicaciones se extienden más allá del desarrollo de carrera individual hacia la gestión del conocimiento organizacional y la preservación de la memoria institucional. Cuando el personal junior ya no realiza trabajo analítico rutinario, las organizaciones arriesgan perder el entendimiento detallado de procesos que emerge de la experiencia práctica con operaciones de negocio fundamentales. Mantener este conocimiento institucional mientras se aprovechan las capacidades de IA requiere diseño deliberado de roles híbridos que combinen la aumentación de IA con compromiso analítico humano significativo. Preservación del Pensamiento Crítico en Ambientes Aumentados por IA La integración de capacidades de IA en flujos de trabajo profesionales plantea preocupaciones significativas sobre la preservación y desarrollo de habilidades de pensamiento crítico, particularmente cuando la IA efectúa la transición de herramientas discretas a componentes de sistemas embebidos. Este desafío se manifiesta más claramente en ambientes educacionales donde los estudiantes dependen cada vez más de auto-completado potenciado por IA y asistencia de programación sin desarrollar las capacidades analíticas necesarias para evaluar la calidad del output o identificar errores potenciales. El precedente histórico de la adopción de calculadoras mecánicas en contabilidad proporciona contexto instructivo para debates actuales sobre la dependencia de IA. Un memorando de hace un siglo de Marwick (la "M" en KPMG) advirtió contra el uso de las calculadoras, argumentando que los contables " perderían las habilidades matemáticas centrales requeridas para la profesión ". Aunque esta preocupación parece ingenua en retrospectiva, resalta la tensión recurrente entre la adopción de herramientas y la preservación de habilidades a través de transiciones tecnológicas. El desafío contemporáneo difiere significativamente en alcance y complejidad. La utilización actual de IA permanece en gran medida " centrada en prompts ", permitiendo a los usuarios "elegir qué problemas traer a la IA" y "elegir cuánto de esa respuesta usar antes de ponerla en el entregable final". Este uso discrecional preserva oportunidades para evaluación crítica e implementación selectiva. Sin embargo, cuando la IA se vuelve cada vez más embebida en sistemas empresariales y las arquitecturas basadas en agentes eliminan la elección del usuario en la utilización de IA, " la visibilidad de la fuente de donde vino " disminuye significativamente. El efecto compuesto de flujos de datos de IA a IA crea riesgos particulares para la detección y corrección de errores. Cuando " el sistema ERP está alimentando el sistema CRM, alimentando el sistema de reportes ", identificar la fuente de errores analíticos requiere ingeniería inversa compleja a través de múltiples sistemas aumentados por IA. Esta complejidad arquitectónica demanda nuevos marcos para mantener el rigor analítico y las capacidades de detección de errores a través de ecosistemas de IA integrados. La solución requiere desarrollo proactivo de alfabetización en IA y metodologías de evaluación crítica en lugar de estrategias de evitación de IA. Las organizaciones deben " enseñar a las personas cómo ser críticas en esta era versus asumir que esta era puede de alguna manera ser retrasada debido a ese riesgo ". Este enfoque demanda entrenamiento explícito en reconocimiento de limitaciones de IA, técnicas de validación de output y enfoques sistemáticos para mantener supervisión analítica en ambientes cada vez más automatizados. Transformación de Modelos de Negocio de Servicios Profesionales La industria de servicios profesionales enfrenta disrupción fundamental de modelos de facturación tradicionales y marcos de propuesta de valor cuando las capacidades de IA remodelan las expectativas de clientes y metodologías de entrega de servicios. El modelo de hora facturable, durante mucho tiempo la base de servicios legales, contables y de consultoría, encuentra desafío directo de mejoras de eficiencia habilitadas por IA que los clientes pueden observar y medir a través de su propia experimentación con IA. La sofisticación del cliente en la utilización de IA crea presiones de transparencia que las firmas de servicios profesionales no pueden ignorar. Como denota Bolen, los clientes " no están desafiando directamente nuestras tarifas porque reconocen que, para usar estas herramientas, estas herramientas son caras " y requieren inversión significativa para desarrollar y monetizar. Sin embargo, los clientes esperan cada vez más que " pasemos menos horas en estas tareas " basándose en sus propias experiencias con IA, creando presión para mejoras de eficiencia demostrables. La respuesta estratégica requiere transparencia y colaboración en lugar de posicionamiento defensivo. Las firmas de servicios profesionales deben involucrarse en conversaciones explícitas sobre la utilización de IA " para ganancia mutua " o arriesgarse a parecer " ignorantes de lo que la tecnología puede hacer, lo cual no es un gran lugar para estar desde un punto de vista de asesoría ". Esta transparencia habilita la creación de valor conjunto a través de capacidades que anteriormente eran imposibles o económicamente inviables. El etiquetado farmacéutico proporciona un estudio de caso ejemplar en la creación de valor transformacional. Los procesos de etiquetado tradicionales representan " nada más que un retraso en su capacidad de capturar valor de mercado porque tienen la información, saben que ha sido aprobada, solo tienen que llevarla al mercado ". A través del desarrollo colaborativo de agentes de IA, KPMG logró una reducción del 40-50% en el tiempo total del proceso con mejoras del 90% en componentes específicos. Esta transformación crea valor compartido que justifica precios premium mientras acelera la entrada al mercado del cliente. La evolución hacia asociaciones de innovación colaborativa requiere cambios fundamentales en las capacidades de las firmas de servicios profesionales y el posicionamiento de mercado. En lugar de vender metodologías predeterminadas o experiencia establecida, las firmas deben demostrar capacidad para la generación rápida de soluciones y desarrollo de agentes personalizados adaptados a desafíos específicos de clientes. Esta transición demanda nuevos criterios de contratación, programas de entrenamiento y marcos de evaluación de desempeño que prioricen la adaptabilidad y la innovación sobre la experiencia tradicional en materias específicas. Marco de Implementación Estratégica para la Transformación IA La transformación IA exitosa requiere enfoques sofisticados de gestión del cambio que equilibren la capacidad tecnológica con la capacidad de adaptación humana. El marco debe reconocer que " la tecnología se está moviendo mucho más rápido que nuestra capacidad humana de absorber y utilizarla ", necesitando " filosofía de gestión del cambio alrededor de esto que sea tanto compasiva para las personas que están pasando por esta transformación, pero también realista ". El principio de realismo compasivo reconoce que la transformación no puede ser diferida indefinidamente cuando la disrupción laboral se vuelve inevitable. Usando la analogía de manufactura, " si el soldador va a ser reemplazado por el robot, tienes que dejar que eso suceda y habilitar al soldador para que vaya a aprender las nuevas habilidades robóticas en el camino ". Este enfoque requiere programas proactivos de re-entrenamiento, comunicación transparente sobre la evolución de roles y apoyo sistemático para los viajes de adaptación individual. Las organizaciones deben desarrollar marcos de evaluación integral para evaluar su balance actual de portafolio de IA a través de ahorros inmediatos, oportunidades dependientes de transformación y creación de valor completamente nuevo. Esta evaluación debe identificar deficiencias en dominios específicos de portafolio y guiar la asignación de recursos hacia categorías de oportunidad subrepresentadas. El marco debe incorporar integración de perspectiva externa para desafiar suposiciones institucionales e identificar posibilidades de transformación radical. La estrategia de implementación debe abordar el cambio fundamental de herramientas de IA discretas a sistemas de IA embebidos y agentes autónomos. Esta transición requiere nuevos marcos de gobernanza, protocolos de gestión de riesgos y metodologías de aseguramiento de calidad que mantengan la supervisión humana mientras aprovechan las capacidades de IA. Las organizaciones deben desarrollar enfoques sistemáticos para el desarrollo de alfabetización en IA, asegurando que el personal pueda colaborar efectivamente con sistemas de IA mientras mantiene capacidades analíticas críticas. El éxito en la transformación IA finalmente depende de abrazar el potencial transformacional de la tecnología mientras se mantienen expectativas realistas sobre la complejidad de implementación y los requerimientos de adaptación humana. Las organizaciones que logren este equilibrio capturarán ventajas competitivas significativas, mientras que aquellas que resistan la adopción o persigan cronogramas de implementación irrealistas arriesgan desventaja estratégica en un ambiente de negocio cada vez más aumentado por IA. La clave yace en mantener optimismo "alcista" sobre el potencial de la IA mientras se permanece " pragmático sobre el valor y el ritmo hacia el valor " y " compasivo sobre la transformación humana " requerida para una implementación exitosa.

  • La Velocidad Exponencial del Cambio Tecnológico, con Azeem Azhar

    Matt Honan, Editor en Jefe de MIT Technology Review  entrevistó a Azeem Azhar, fundador de Exponential View  y autor de "The Exponential Age", durante el evento EmTech AI 2025 en la sede del MIT Media Lab. Aquí ofrecemos una visión integral de esa entrevista ante un auditorio al completo, sobre el estado actual y las implicaciones futuras de esta tecnología revolucionaria. Por Frank Escandell Quienes le hemos seguido desde que producía la serie Exponentially en Bloomberg Originals , encontramos en Azeem Azhar a un experto de primer nivel. En la sesión en el auditorio, en la que no se podían tomar fotos, ni audio, ni video, fue refrescante escuchar sin estar atento a hacer clicks. En esa sesión de apertura, Azhar identificó la velocidad y aceleración como las características fundamentales que definen el panorama actual de la inteligencia artificial. Esta velocidad no se limita únicamente al desarrollo de nuevos modelos, sino que abarca también la rapidez con la que consumidores y empresas adoptan estas tecnologías.  Como señala Azhar, " la velocidad con la que las tecnologías subyacentes están mejorando, junto con la velocidad con la que están siendo utilizadas por consumidores y empresas, es como nada que hayamos visto antes ". Esta aceleración se manifiesta de manera tangible en la producción de modelos de IA. Mientras que hasta noviembre de 2022 la industria tecnológica producía un nuevo modelo cada seis meses, desde el lanzamiento de ChatGPT se genera un nuevo modelo cada dos semanas. Esta transformación representa un cambio paradigmático que supera incluso la revolución de Internet de los años 90, haciendo que aquel período parezca " un pequeño paseo junto al río Charles " en comparación. Los Tres Niveles de Implementación de la IA Azhar propone un marco conceptual de tres niveles para entender cómo las organizaciones pueden abordar la implementación de la inteligencia artificial como tecnología de propósito general: Nivel 1: Hacer lo mismo a menor costo. En esta fase inicial, las organizaciones implementan modelos de lenguaje grandes (LLM) como ChatGPT, Copilot, Llama o Gemini para realizar las mismas tareas que antes ejecutaban los humanos, pero de manera más económica. La principal limitación en este nivel es el costo de uso, que impide el acceso universal a estas herramientas. Nivel 2: Hacer lo mismo, pero mejor. Este nivel implica la creación de " agentes generativos " que pueden comunicarse entre sí, desarrollando personalidades y especialidades específicas para convertirse en "gemelos digitales" de personas concretas. Estas entidades pueden representar a los usuarios en reuniones y otras actividades profesionales. Nivel 3: Hacer cosas completamente nuevas. El nivel más avanzado contempla la co-inteligencia  entre personas y máquinas, creando una " inteligencia colectiva aumentada " o súper mente que permite capacidades antes impensables. La mayoría de las empresas están estancadas en el nivel 1 o el nivel 2, usando IA para reducir costos o mejorar procesos de manera incremental, perdiendo la oportunidad de repensar estratégicamente cómo podría ser su negocio  Azeem Azhar El Desafío de la Adaptación Organizacional Matt Honan destacó una realidad preocupante sobre el estado de preparación organizacional. Durante una mesa redonda de liderazgo – al inicio de la jornada del lunes 5 de mayo- cuando se preguntó a los participantes si sentían que tenían los recursos necesarios dentro de sus organizaciones para estar preparados para el cambio que se avecina, " ni una sola persona levantó la mano ". Es cierto, ninguno de las casi 200 personas lo hicimos. Esta revelación subraya la brecha significativa entre el ritmo de desarrollo tecnológico y la capacidad de adaptación institucional. Azhar propone una solución estructural que denomina el modelo del " croissant ". En este enfoque, el CEO debe creer genuinamente en el potencial transformador de la IA, no sólo racionalizarlo, porque esta tecnología afectará todos los aspectos del negocio: proveedores, procesos, canales de marketing, talento necesario, velocidad operacional, desarrollo de recursos internos y el equilibrio entre inversión de capital y contratación humana. El otro extremo del " croissant " requiere que los empleados de primera línea tengan la capacidad de construir sus propios casos de uso, desarrollar proyectos y implementar herramientas de IA. Esta democratización de la innovación, basada en los principios de innovación centrada en el usuario desarrollados por el profesor Eric von Hippel  del MIT, permite que los equipos de primera línea identifiquen problemas y desarrollen soluciones de manera autónoma. Regulación y Marcos Normativos Globales La perspectiva regulatoria presenta diferencias significativas entre Europa y Estados Unidos. Melissa Heikkilä , periodista senior de IA de MIT Technology Review, explica que la Ley de IA europea establece requisitos vinculantes para las empresas que desarrollan sistemas de IA con mayor potencial de daño a los humanos, particularmente en sectores como educación, salud y empleo. Esta legislación europea exige mayor transparencia a los proveedores de IA, requiriendo que compartan información sobre el entrenamiento de sus modelos, los datos utilizados y cómo se relacionan con las leyes de derechos de autor. Los modelos más potentes, como Gemini o GPT-4, enfrentan requisitos adicionales relacionados con la seguridad y eficiencia energética de sus sistemas. En contraste, la orden ejecutiva estadounidense sobre IA representa, según Heikkilä, " una promesa de dedo meñique " comparada con la legislación europea vinculante, que requiere que las empresas tecnológicas demuestren efectivamente a las autoridades y reguladores cómo están recopilando y utilizando sus datos. Desafíos Técnicos y Limitaciones Actuales A pesar de los avances significativos, la IA actual presenta limitaciones importantes que los expertos reconocen abiertamente. La tecnología sigue siendo vulnerable a ataques, no puede generalizarse efectivamente para adaptarse a entornos cambiantes y está plagada de sesgos. Estos desafíos dificultan la confianza en la tecnología y limitan su potencial para beneficiar a la sociedad. Un ejemplo específico de estas limitaciones lo ilustra Azhar con su " prueba de viaje ": planificar un itinerario complejo desde una ciudad cerca de Beijing hasta una ciudad cerca de Londres con restricciones temporales específicas. Mientras que modelos anteriores fallaban al no considerar factores como tiempos de llegada al aeropuerto, controles de inmigración y conexiones realistas, el modelo o3 de OpenAI  fue el primero en realizar un análisis comprehensivo que incluía todas las rutas de conexión posibles, consideraciones de tráfico y incluso la opción de vuelos privados. La Naturaleza No Determinística de los Modelos de IA Una característica fundamental que distingue a los modelos de IA actuales de los sistemas de software tradicionales es su naturaleza no determinística. Como explicó Azhar, mientras que en los sistemas determinísticos tradicionales un dato específico permanece constante cada vez que se accede a la base de datos, los modelos de lenguaje grandes pueden producir variaciones en sus respuestas. Esta característica requiere nuevas arquitecturas de sistemas que incluyan, por ejemplo, " agentes de verificación de hechos " que funcionen como sistemas de control de calidad automatizados. Azhar argumenta que, dado el bajo costo de operación de estos sistemas, "¿por qué no tener simplemente un verificador de hechos? Es como si pudieras permitirte tener 50 guardias de seguridad fuera de tu casa, podrías hacerlo sólo para sentirte seguro ". Transformación de los Procesos de Conocimiento Azhar establece una distinción crucial entre datos y conocimiento, argumentando que no deben usarse indistintamente. Los datos representan la unidad más pequeña y básica, útil principalmente para identificar patrones a través de agregaciones. La IA generativa, sin embargo, permite sintetizar información en múltiples dominios, transformando datos en conocimiento accionable. Esta capacidad de síntesis representa un cambio fundamental en cómo las organizaciones pueden procesar información. Como ejemplo, Azhar describe cómo su equipo puede tomar datos de analíticas web y solicitar a un LLM que identifique los cambios más importantes en el comportamiento del sitio web durante los últimos tres meses, obteniendo análisis de alto nivel que anteriormente requerían equipos especializados. Agentes de IA y Productividad Personal La implementación práctica de agentes de IA en el trabajo diario ilustra el potencial transformador de esta tecnología. Azhar describe su uso de un sistema de cuatro agentes de IA que funcionan como un " brain trust " para revisar y mejorar su trabajo. Designa uno como moderador y asigna a las otras diferentes perspectivas demográficas, como un gerente de marketing de 45 años o un early adopter  de 37 años. Este sistema permite que los agentes compartan perspectivas y críticas entre sí hasta alcanzar un consenso, proporcionando posteriormente orientación sobre cómo refinar el pensamiento o la redacción. Además, Azhar utiliza una técnica de productividad donde dicta pensamientos aleatorios sobre tareas del día a un LLM durante su trayecto matutino, solicitando luego que reorganice esa " ensalada de palabras " en puntos estructurados y priorizados. El Futuro del Trabajo y la Complementariedad Humano-Máquina Contrario a las visiones catastrofistas sobre el desplazamiento laboral, David Autor , profesor de Economía del MIT, ofreció una perspectiva más optimista durante la conferencia MIT AI 2025 – un evento diferente al mencionado. Autor argumenta que " existen dos visiones opuestas de la IA. Una es que las máquinas nos hacen irrelevantes. Otra es que las máquinas nos hacen más útiles. Creo que esta última tiene mucho que ofrecer ". Esta perspectiva se basa en evidencia histórica: durante los últimos 200 años, la automatización ha eliminado trabajos físicos y repetitivos, pero también ha creado nuevas oportunidades laborales, aumentando la productividad y los salarios. Sin embargo, encuestas recientes indican que el 54% de los trabajadores considera que la IA representa un gran riesgo para los empleos, con mayor preocupación entre trabajadores tecnológicos y administrativos (58%) comparado con sectores como educación y salud. Al respecto, esto fue un motivo de diferentes conversaciones con otros asistentes pertinente al trabajo que llevan a cabo especialmente subgrupos del Grupo 2 de nuestro Proyecto OdiseIA cAIre  – Google.org Digital Futures Project . Implicaciones Éticas y Sociales Las consideraciones éticas emergen como un tema central en el desarrollo de la IA. La necesidad de " alineamiento " - asegurar que la IA se utilice con fines útiles y no perjudiciales - representa uno de los desafíos más significativos del campo. Esta preocupación se extiende a cuestiones de transparencia, sesgo algorítmico y la necesidad de marcos normativos inclusivos que representen voces diversas. La verificación de datos se convierte en una competencia esencial en la era de la IA. Los profesionales y estudiantes deben desarrollar habilidades para identificar información errónea, resultados sesgados y respuestas que carecen de coherencia con la realidad y el contexto específico de quien solicita la información. Perspectivas a Futuro El análisis conjunto de las perspectivas de Honan y Azhar reveló a los asistentes un panorama complejo donde la velocidad exponencial del cambio tecnológico coexiste con desafíos significativos de adaptación organizacional, regulación y consideraciones éticas. La IA no representa simplemente una herramienta más en el arsenal tecnológico, sino una tecnología de propósito general que requiere repensar fundamentalmente los procesos, estructuras organizacionales y marcos de toma de decisiones. La brecha entre el ritmo del desarrollo tecnológico y la capacidad de adaptación humana e institucional constituye el desafío central de nuestra época. Como observa Azhar, " contender con esa velocidad es extremadamente difícil de hacer psicológicamente, tanto para individuos como para organizaciones, y crea una tensión, una división, una brecha que es realmente difícil de cerrar ". El futuro de la IA no está predeterminado, sino que será moldeado por las decisiones que tomemos hoy sobre cómo desarrollar, regular e implementar estas tecnologías. La clave radica en encontrar el equilibrio entre aprovechar el potencial transformador de la IA mientras se abordan proactivamente sus riesgos y limitaciones, asegurando que sirva para amplificar las capacidades humanas en lugar de reemplazarlas. En este contexto de transformación exponencial, la preparación organizacional, la educación continua y el desarrollo de marcos éticos robustos no son opcionales, sino imperativos para navegar exitosamente hacia un futuro donde la inteligencia artificial y la inteligencia humana coexistan de manera productiva y beneficiosa para la sociedad.

  • EmTech AI 2025: Más Allá del Hype Tecnológico

    Cómo los líderes empresariales están transformando el potencial de la inteligencia artificial en valor comercial tangible en el campus del MIT Por Frank Escandell, Investigador en el Google.org-Digital Futures Project El evento EmTech AI se celebró del 5 al 7 de mayo de 2025 en el MIT Media Lab, donde 400 ejecutivos se reunieron bajo el tema "Find Value Now" para explorar aplicaciones prácticas de la IA. El enfoque del evento se centró precisamente en superar las ya usuales demostraciones impresionantes, sino para encontrar valor tangible y aplicaciones empresariales concretas, reflejando la maduración del campo desde la experimentación hacia la implementación estratégica real. Continuando con los artículos en relación con la presencia de OdiseIA en el evento, esta presentación en particular la realizó Sean Williams, CEO de AutoGenAI ; Sean realizó una evaluación de los modelos de lenguaje grandes (LLMs) que han evolucionado significativamente desde sus primeras conceptualizaciones como modelos predictivos hasta su comprensión actual como sistemas que participan en diversos "juegos de lenguaje". Esta transformación fundamental en nuestra comprensión requiere un replanteamiento radical de los marcos evaluativos tradicionales y una adopción de metodologías más sofisticadas que reconozcan la naturaleza multifacética del lenguaje y la comunicación humanos. La Naturaleza Predictiva de los Modelos de Lenguaje Los modelos de lenguaje grandes operan fundamentalmente como sistemas predictivos que generan la siguiente palabra en una secuencia basándose en el contexto previo proporcionado. Esta característica los distingue de otros modelos predictivos tradicionales en ciencias físicas y naturales, donde la efectividad se mide típicamente por la proximidad entre las predicciones del modelo y la realidad observada. Los modelos meteorológicos, por ejemplo, demuestran su validez cuando sus pronósticos se alinean estrechamente con las condiciones atmosféricas reales observadas. De manera similar, la física newtoniana mantiene su relevancia porque sus predicciones sobre el movimiento de objetos coinciden consistentemente con observaciones empíricas en situaciones cotidianas. Sin embargo, los LLMs presentan una paradoja fundamental: son deliberadamente estocásticos – el azar a lo largo del tiempo - incorporando elementos aleatorios en sus predicciones que los alejan del paradigma determinista de correspondencia directa con la realidad. Esta característica estocástica no representa una limitación técnica, sino una característica diseñada que permite la generación creativa y contextualmente apropiada de contenido lingüístico. La Crisis de los Benchmarks Tradicionales La evaluación temprana de los LLMs, particularmente alrededor de 2020, se basaba en la premisa de que estos sistemas estaban al borde de alcanzar la inteligencia artificial general (AGI). La comunidad académica había establecido seis pruebas fundamentales para encapsular la inteligencia humana: cuatro categorías matemáticas distintas, razonamiento verbal y razonamiento lógico. Las proyecciones lineales basadas en el tamaño del modelo sugerían que los LLMs superarían pronto a los humanos en todas estas métricas. Gráfico utilizado por Sean Williams, CEO de AutoGenAI Efectivamente, para 2023, GPT-4 había superado el rendimiento humano en estas seis pruebas de referencia y muchas más. Sin embargo, este logro no representó la consecución de la AGI, sino que reveló una falla fundamental en nuestros métodos de evaluación. Los exámenes y pruebas estandarizadas demostraron ser proxies inadecuados para la inteligencia humana genuina, exponiendo la necesidad de marcos evaluativos más sofisticados y contextualmente sensibles. Fundamentos Filosóficos: La Perspectiva Wittgensteiniana Para comprender adecuadamente qué significa "hacer lenguaje", debemos recurrir a los insights  filosóficos de Ludwig Wittgenstein, particularmente su evolución conceptual desde el "Tractatus Logico-Philosophicus" hasta las "Investigaciones Filosóficas". El Tractatus  presenta una visión del mundo como la totalidad de hechos determinados por proposiciones lógicas, donde el lenguaje funciona como un espejo directo de la realidad estructurada. Sin embargo, sus “Investigaciones Filosóficas” introducen el concepto revolucionario de "juegos de lenguaje", donde los seres humanos participan en múltiples formas diferentes de actividad lingüística. En esta perspectiva más madura, el lenguaje se conceptualiza como un conjunto de prácticas gobernadas por reglas, donde el significado emerge del uso de palabras en contextos particulares. De manera crucial, el lenguaje se integra en nuestras actividades humanas compartidas y prácticas culturales, requiriendo un examen del contexto más amplio de la vida humana. Es así como comprendemos completamente. Implicaciones para la Evaluación Tecnológica Esta comprensión wittgensteiniana tiene profundas implicaciones para la evaluación de tecnologías basadas en LLMs. El lenguaje sirve múltiples propósitos, siendo la transmisión veraz de hechos sobre el mundo solo uno de ellos. La efectividad de los LLMs en un juego de lenguaje particular depende fundamentalmente de cuál juego específico se está jugando. Consecuentemente, lo que constituye "bueno" depende de la tarea lingüística específica que se intenta lograr. Esta realización requiere un alejamiento de las métricas de evaluación universales hacia enfoques más contextualizados y específicos de dominio. La pregunta ya no es si un LLM es "bueno" en términos absolutos, sino si es efectivo para propósitos comunicativos específicos dentro de contextos particulares. Diversidad de Objetivos en Tecnologías LLM Las tecnologías basadas en LLMs sirven objetivos diversos que requieren marcos evaluativos distintos. Estos incluyen aprobar pruebas estandarizadas, escribir poesía convincente, servir como compañeros conversacionales atractivos y crear propuestas ganadoras. Cada uno de estos objetivos demanda criterios evaluativos únicos y metodologías de medición apropiadas. Evaluación en Generación Poética La investigación reciente en generación poética por IA ha revelado el fenómeno "más humano que humano", donde los participantes no expertos no pueden distinguir de manera confiable entre poesía generada por IA y poesía escrita por poetas humanos reconocidos. Más sorprendentemente, los participantes consistentemente califican la poesía generada por IA más favorablemente que los poemas de poetas tradicionales a través de múltiples factores cualitativos, incluyendo la belleza, las imágenes, la inspiración, las cualidades líricas, el significado, el estado de ánimo, la originalidad, la calidad general, la profundidad, el ritmo, el sonido, el tema y el ingenio. Este hallazgo desafía las nociones tradicionales de la creatividad humana y sugiere que los LLMs pueden haber desarrollado capacidades para producir contenido que resuena con más fuerza en las preferencias estéticas contemporáneas que la poesía humana tradicional. No obstante, esto plantea preguntas profundas sobre la naturaleza de la apreciación artística y si las preferencias humanas por el contenido generado por IA reflejan una comprensión genuina de la calidad poética o simplemente una familiaridad con patrones lingüísticos contemporáneos. Evaluación en Escritura de Propuestas La evaluación de LLMs en la escritura de propuestas requiere un enfoque más granular, desglosando los elementos que forman prosa escrita convincente. Los criterios evaluativos incluyen factores como:  el tejido contextual,  el uso de toda la información relevante,  la retención de tono y estilo,  la citación de estadísticas,  la provisión de ejemplos apropiados,  el mantenimiento de longitud,  la eliminación de duplicaciones,  la referencia a temas,  la evitación de creación de información,  la aplicación de nuevos tonos y estructuras,  el mantenimiento estructural,  las alteraciones de texto ajustadas,  el control de longitud,  la respuesta adecuada,  la unicidad y relevancia de ideas,  la precisión gramatical,  la confianza factual,  las variaciones estructurales,  el tiempo correcto,  el idioma apropiado,  el formato de citación correcto,  la retención de contenido,  las referencias meta,  el uso de adverbios,  la composición de acciones,  la facticidad completa,  la citación de estudios de caso,  la evitación de fuentes irrelevantes,  la longitud apropiada  y la aplicación de modificadores de tono. La efectividad última de las propuestas se mide por su tasa de éxito, como se demuestra en el crecimiento de ingresos año tras año del 20% para los clientes de AutogenAI en comparación con grupos en varios sectores. Esta métrica orientada a resultados proporciona validación del mundo real para los marcos evaluativos teóricos. Desafíos Metodológicos en la Evaluación de LLMs La evaluación efectiva de LLMs enfrenta varios desafíos metodológicos fundamentales. Primero, la naturaleza estocástica de estos modelos significa que las evaluaciones deben tener en cuenta la variabilidad en las salidas a través de múltiples ejecuciones. Las métricas de evaluación tradicionales diseñadas para sistemas deterministas podrían no capturar adecuadamente esta variabilidad inherente. Segundo, la dependencia contextual del rendimiento de un LLM requiere marcos evaluativos que puedan adaptarse a diferentes dominios y tareas. Un modelo que sobresale en escritura técnica puede tener un rendimiento deficiente en escritura creativa, y viceversa. Esta especificidad de dominio exige el desarrollo de suites  evaluativas especializadas en lugar de benchmarks  universales. Tercero, la naturaleza evolutiva de las capacidades de los LLM significa que los marcos evaluativos deben ser dinámicos y adaptables. A medida que estos modelos se vuelven más sofisticados, las métricas evaluativas existentes pueden volverse obsoletas, requiriendo desarrollo continuo de nuevos métodos. Consideraciones Éticas en la Evaluación La evaluación de LLMs también debe abordar consideraciones éticas importantes. La capacidad de estos modelos para generar contenido que los humanos perciben como más atractivo que el contenido creado por humanos plantea preguntas sobre autenticidad, originalidad y el valor de la creatividad humana. Además, el potencial para que los LLMs perpetúen sesgos presentes en sus datos de entrenamiento requiere marcos evaluativos que puedan detectar y cuantificar tales sesgos. La transparencia en los procesos evaluativos es crítica, particularmente cuando los LLMs se despliegan en aplicaciones de alto riesgo como atención médica, sistemas legales o procesos de toma de decisiones financieras. Los marcos evaluativos deben proporcionar no sólo métricas de rendimiento sino también i nsights  sobre los mecanismos de toma de decisiones del modelo y posibles puntos de falla. Direcciones Futuras en la Evaluación de LLMs El futuro de la evaluación de LLMs probablemente involucrará el desarrollo de marcos más sofisticados que incorporen múltiples dimensiones de rendimiento. Estos pueden incluir evaluaciones de coherencia a largo plazo, mantenimiento contextual a través de conversaciones extendidas, adaptabilidad a nuevos dominios y capacidad para manejar tareas multimodales. Además, el desarrollo de métricas evaluativas específicas para humanos que puedan capturar aspectos cualitativos de la comunicación - como empatía, persuasión y compromiso emocional - será crucial para aplicaciones donde los LLMs interactúan directamente con usuarios humanos. La integración de metodologías evaluativas de múltiples disciplinas, incluyendo lingüística, psicología cognitiva, filosofía del lenguaje y estudios de comunicación, proporcionará una comprensión más holística de las capacidades y limitaciones de LLM. En Suma… La evaluación de modelos de lenguaje grandes requiere un alejamiento fundamental de los paradigmas evaluativos tradicionales hacia enfoques más matizados y contextualmente sensibles. La comprensión wittgensteiniana del lenguaje como un conjunto diverso de juegos con reglas específicas proporciona un marco teórico valioso para desarrollar metodologías evaluativas apropiadas. Así es como lo ha presentado AutoGenAI ante el público congregado en el MIT Media Lab. A medida que los LLMs continúan evolucionando y encontrando aplicaciones en dominios cada vez más diversos, nuestros marcos evaluativos deben evolucionar correspondientemente. Esto requiere colaboración continua entre tecnólogos, lingüistas, filósofos y profesionales de dominio para desarrollar métricas que capturen verdaderamente la efectividad de estos sistemas en sus contextos de aplicación previstos . El objetivo final no es crear LLMs que sobresalgan en pruebas abstractas, como ocurre debido al efecto hype  (euforia) tan común en nuestros días, sino desarrollar sistemas que puedan participar efectivamente en los enriquecedores y variados juegos de lenguaje que caracterizan la comunicación humana. Esta comprensión más sofisticada de la evaluación de LLMs será esencial para realizar el potencial transformador de estas tecnologías mientras se abordan sus limitaciones y riesgos inherentes.

  • Diseño centrado en la humanidad + Inteligencia artificial (HAI)

    U n poco de historia y metodología. Uno de los objetivos que compartimos como seres humanos es encontrar sentido en todo lo que hacemos y somos, o por lo menos, intentarlo. Para ello procuramos reducir tensiones en nuestro día a día, mejorar nuestra calidad de vida y superarnos como especie. Al menos, ese es un rasgo que podemos identificar de nuestra programación original, que sin ser una pizarra en blanco está mediada (no determinada) por nuestra genética y más tarde por nuestra educación, entorno y por las tres fuerzas creadoras que nos impulsan y que ya vislumbró Aristóteles: ethos (instinto), pathos (pasión) y logos (razón). Lo que somos invariablemente se va a reproducir en las criaturas y en los proyectos que creamos. En el caso de la inteligencia artificial nos puede llevar a amplificarlo con distintos resultados: el temor, la vigilancia y el abuso o la utilidad, el beneficio mutuo y el servicio. En cualquier punto de la pirámide de necesidades de Maslow en el que nos encontremos, vamos a tener decisiones que tienen un impacto alrededor y que seguramente vayan a estar instrumentalizadas por una máquina, datos o por un algoritmo. A veces no hallamos respuestas y a veces nos equivocamos, pero solemos ser optimistas y trabajar duro en buscar salidas. Últimamente prestamos más atención no sólo hacia lo que tenemos al lado, sino también a lo que hay a cierta distancia. Incluso nos proyectamos hacia el futuro para poder calibrar mejor el presente y, los más conscientes, procuran tener en cuenta el pasado para eludir los bucles. Quiénes somos incluye la pregunta de quiénes fuimos y quiénes podemos llegar a ser. El Diseño centrado en la Humanidad crea un marco de referencia, a modo de brújula, para orientarnos en esta modernidad líquida. Nos invita a la indagación, a plantear preguntas incómodas y también poderosas que ayudan a superar obstáculos y crear experiencias positivas siempre partiendo de la comprensión de qué necesitamos y cómo nos relacionamos entre nosotros y los sistemas de los que formamos parte. Con esa interrelación en mente, descartamos conceptos como diseño centrado en los datos o diseño centrado en el planeta o la vida, ya que consideramos que el diseño, independientemente de su afán integrador y su nivel de consciencia aplicado, continúa siendo en esencia, una actividad humana. Ser quienes podemos o debemos ser Podría parecer que existe un abismo entre las profesiones de ciencias sociales y humanísticas, lo que en la Universidad de Standford denominan conocimiento “fuzzy” o difuso y los profesionales del ámbito STEM (conocimiento techie). Sin embargo, cada vez más se demuestra que esa contraposición o aislamiento de la una de la otra sólo puede llevar al desconocimiento y resultados incompletos. Hasta que no se dé colaboración real entre el enfoque humanista y el tecnológico no se podrá llegar a una solución de valor auténtica. O lo que es lo mismo, hasta que no nos enfoquemos en lo que nos une y a lo que aspiramos, en lugar de lo que nos divide, no podremos “salir de la caja” y desarrollar soluciones transformadoras. E s probable que cuando se escucha hablar de diseño centrado en la humanidad sólo se piensa en la cualidad ornamental o estética del diseño. Sin embargo, esta disciplina ha evolucionado durante el último siglo de manera que se ha orientado sobre todo a ser útil y beneficiosa para el ser humano, a resolver problemas complejos en nuestro mundo multi perspectivista donde todos los sistemas aparecen entrelazados e interdependientes cual red de redes. Es la figura del diseñador centrado en la humanidad con su visión estratégica y multidisciplinar (psicología, antropología, lingüística…), más las metodologías basadas en la solución creativa de problemas, quien ya está generando en las empresas espacios de sinergia, diálogo y ruptura de silos. A la vez va a ser quien pueda conducir conversaciones ricas que indaguen en esa pertinencia de ser quienes podemos o quienes debemos ser, a día de hoy, con base muy probable, aunque no única, en la inteligencia artificial. Un poco de historia del Diseño centrado en la Humanidad Para no remontarnos a la época de las cavernas, podemos partir de la Segunda Guerra Mundial. En este momento de conflagración bélica, se detectó cómo los cuadros de mando de los aviones eran demasiado complejos de entender y usar. Por aquel entonces, los ingenieros se dieron cuenta de que su foco había estado en conseguir unas máquinas precisas e imponentes, pero nadie se estaba ocupando de entender la psicología y las necesidades de los pilotos. Era importante que el diseño priorizara la usabilidad o la resolución de una tarea con eficacia y eficiencia. Nacía así la rama de “h uman factors”. En los años 50, el diseñador industrial Henry Dreifuss orienta su trabajo al “diseño para la gente” y nos recuerda cómo “hay que tener en cuenta que el objeto con el que se trabaja va a tener que ser mirado, activado, manejado o utilizado de alguna manera por las personas, individualmente o en masa. Si el punto de contacto entre el producto y las personas se convierte en un punto de fricción, el diseñador ha fracasado”. Raymond Loewy también se ocupó de introducir en sus creaciones cómo un producto nos puede llegar a hacer sentir, más allá de la pura referencia estética. Más tarde la pareja de arquitectos y diseñadores Charles and Ray Eames, aportaron un punto más integrador incluyendo en el diseño una visión más amplia como la cocreación, la relación entre una persona y una marca o su impacto en el entorno. El Premio Nobel Herbert A. Simon se centró en los años 70 en los conceptos de prototipado rápido y de la prueba a través de la observación y Don Norman nos introduce en el diseño centrado en el usuario como marco de trabajo, investigación y desarrollo del diseño de interfaces de usuario basándose en un modelo conceptual, la interfaz y el modelo mental de las personas. También en los años 80-90 diferentes autores profundizan en el design thinking o pensamiento de diseño. Richard Buchanan, filósofo y profesor de diseño, argumentaba que el diseño de interacción no se detiene en una pantalla del ordenador, sino que se extiende a la vida personal y social de los seres humanos. Del interés en la creación de productos con foco en lo humano, evolucionaron hacia desafíos mucho más complejos como la intervención en programas de erradicación de pobreza, cambio climático, educación o diseño de servicios innovadores. A toda esta riqueza del diseño se unió el trabajo de Donella Meadows quien estudió la complejidad de los sistemas dinámicos y sobre todo, la consultora de Diseño Ideo, quien con los hermanos Kelley la Universidad de Standford extendió el proceso de pensamiento de diseño con sus fases y aplicaciones a compañías e instituciones del mundo grandes y pequeñas. A ctualmente las líneas de trabajo e investigación refuerzan cómo la experiencia de uso y nuestra percepción como humanos va a ser lo que garantice que un proyecto de IA tenga éxito o mayor o menor adopción, más allá de las técnicas de machine learning o el número y la calidad de los datos procesados. Gavin Lew, por ejemplo, ha explorado las relaciones entre IA y UX, cómo es fundamental partir de una propuesta de valor clara y hacer cercana y comprensible la IA a las personas, evitando las trampas que puede haber en los datos y marcando la diferencia entre productos y servicios u otros. Además, si combinamos ética y practicidad podremos impulsar una visión de futuro que marque límites claros y potencie la dignidad humana a partir de la creatividad. Ben Schneiderman, una de las principales eminencias en interacción persona ordenador y visualización de datos, propone un marco de trabajo o framework que incide en los principios de “Human Centered AI”. S obre tecno personas y nuevas nociones de humanidad Ya en el siglo pasado dentro de las corrientes de pensamiento político y social se habla de que el postmodernismo ha sustituido al modernismo y se enfatiza mucho en cómo han variado las relaciones de poder, cómo lo digital afecta a la subjetividad y la representación del mundo del individuo, Y en ese contexto se empieza a repensar QUÉ ES REALMENTE UN HUMANO HOY EN DÍA y cómo ha evolucionado en su relación con la tecnología. La filósofa Donna Haraway con su manifiesto cyborg en 1985 ya consideraba que la noción de humano quedaba obsoleta. Más recientemente, otra filósofa, Rosi Braidotti habla de que no podemos hacer referencia al concepto de HUMANO, por tratarse de una nomenclatura desfasada por el mal uso que se ha dado. Desde la época griega, con Protágoras, se ha considerado al humano como centro de todas las cosas. Pero según Braidotti, si analizamos esa noción de humano en el fondo es muy excluyente, por su preponderancia fundamental hacia la cosmovisión occidental u occidental centrismo. Digamos que actualmente nos encontramos en un proceso de definición de quiénes somos como especie. Rosi Braidotti habla de Posthumanos y el filósofo Javier Echeverría trabaja sobre el concepto de tecnopersona partir del análisis: ¿qué sucede cuando las tecnologías que usamos están tan integradas en nuestra vida que afectan a lo que se considera humano? Los avances tecnológicos también presuponen líneas rojas. Cada vez más se aúnan las voces e intereses en definir como sociedad multidisciplinar la inclusión de nuestros derechos fundamentales en los nuevos contextos digitales donde cada vez más se habla de difuminar la frontera humano/máquina, sin saber muy bien si eso es realmente lo que desean la mayoría de las personas. Nos redefinimos constantemente. No hay nada más allá del cambio como diría el Tao o como suscribiría Heráclito. ¿Qué sucede ahora? Es probable que el factor velocidad exponencial nos haya hecho un poco más difícil mantener nuestro eje como individuos, o saber realmente cómo seguir siendo humanos con esa capacidad que subrayaban H. Dreyfus y S. Dreyfus de deliberar, de no atenerse a reglas que puedan ser expresadas en lenguaje algorítmico, o la integración más que el análisis, “en una consideración holística del problema a tratar en función de su experiencia, su biografía, su memoria corporal, su intuición, su personalidad, movilizando todos los recursos vitales que tenga a su alcance” E l rol del diseño estratégico en proyectos vinculados con IA Como diseñadores centrados en esa visión de humanidad integradora y ampliada, tenemos el papel de generar conversaciones y conectar diferentes antecedentes, experiencias vitales, necesidades, percepciones no sólo de los perfiles que participan en un proyecto (técnicos, negocio, marketing, legal) sino de hacer de observador situando en el centro las necesidades de la humanidad ecléctica, los sistemas en los que está inmersa, los problemas complejos y las interdependencias ,retroalimentaciones e interacciones casuales considerando también el contexto local y global, repercusiones a medio y largo plazo y el impacto en el ecosistema. Siempre hemos valorado conceptos como tener en cuenta la consistencia, escalabilidad, la reducción de incertidumbre y carga cognitiva, la accesibilidad, la facilidad de aprendizaje y uso… ahora incorporamos el uso ético de los productos y servicios digitales, privacidad, sostenibilidad, o cómo pueden afectar nuestras decisiones a las nuevas generaciones. La tecnología ha favorecido que nuestra relación con el medio se haya constreñido y ampliado al mismo tiempo. El proceso y el método crecen pero son las mismas bases en las que la empatía, el extrañamiento, la participación, la colaboración y la comunicación mantienen su validez. T ransformación digital y D esign danish ladder Empresas de toda índole llevan años incorporando en sus metodologías los procesos creativos de resolución de problemas. Como diría el Dr. Prabhjot Singh, director de diseño de sistemas del Earth Institute, “pensamos mucho tiempo diseñando el puente, pero no el suficiente pensando en las personas que lo cruzan”. El nivel de familiaridad y aplicación de estas estas metodologías está bien descrito en la Design danish ladder. Para poder trabajar en procesos de diseño que integran tecnologías exponenciales como la inteligencia artificial, las empresas tendrían que situarse entre el escalón 3 y 4 e idealmente, llevar años en el último, con el fin de disponer de todos los roles y cultura para empujar sinergias. Tanto el design thinking como el diseño participativo o la ingeniería de diseño centrada en el ser humano van a permitir crear los contextos de trabajo donde confluyan: Inquietudes éticas respecto a regulación, bien común, límites, reputación, privacidad, seguridad, transparencia, rendición de cuentas y explicabilidad de los algoritmos… – Valores, intereses y relaciones entre sistemas interdependientes (negocio, tecnología, sociedad…). Falacias, prejuicios y sesgos cognitivos. Comunicación, gestión del cambio y análisis de comportamiento para ayudar a tomar decisiones. Relaciones entre personas a lo largo de la cadena de valor (clientes, empleados, proveedores, socios, inversores, resto de la comunidad). Respeto por la diversidad, diferencia (accesibilidad, inclusividad, etc.) y espacios existenciales (culturales, generacionales, sociales, religiosos, económicos, políticos…). Reflexión acerca de externalidades e impacto ambiental. Potencialidad y barreras de dispositivos e interfaces. Narrativas asociadas y visualización de la información… En este contexto partimos de la visión de un presente y futuro donde la tecnología vaya alineada con la experiencia humana. Rosi Braidotti incluso recuerda que cada vez más tenemos que demostrar nuestra humanidad, como con los captchas, lo que sería indicativo de que “en el centro ya no está lo humano, sino la cultura algorítmica de las redes computacionales”. Como facilitadores de procesos en los que interviene la tecnología y el ser humano, los diseñadores, área de data, patrocinadores y otros stakeholders, tendrían la responsabilidad de participar en el proceso, diseñar una hoja de ruta con workshops, hitos, dependencias, entregables, etc y comenzar planteando preguntas similares a: ¿De qué forma podemos asegurar un uso relevante y responsable de las posibilidades que ofrece la IA? ¿Qué tenemos que adaptar para que equipos multidisciplinares trabajen codo a codo? ¿Cómo se pueden diseñar experiencias, productos y servicios en un contexto donde intervienen múltiples factores a veces inabarcables? A plicación de los procesos de diseño centrados en el ser humano en proyectos de IA Una vez configurado el equipo multidisciplinar del proyecto y sentadas las bases de agendas y recursos se podría dividir en las siguientes fases: 1 . Fase inicial de exploración y mapeo del contexto A la hora de abordar un proyecto en el que es probable que intervenga la IA debemos revisar nuestro reto, saber cuál es realmente el caso que queremos tratar, desde qué prisma, para qué y con qué objetivo final. Es crucial también analizar si para el reto, las técnicas de IA pueden ser o no beneficiosas, si existen datos relevantes y suficientes, su estado, si son representativos, grado de etiquetado y estructuración, cumplimiento normativo, incluso si la organización tiene capacidad suficiente o se tiene que aliar con algún otro actor. En este punto se analizan mejores prácticas de casos similares, todos los riesgos y oportunidades del proyecto, con frameworks muy ligados a la ética, la gestión del cambio y se orienta la investigación cualitativa con diferentes técnicas a conocer audiencias y personas involucradas, sus expectativas, temores y actitud hacia el uso de datos. 2 . Definición del reto e ideación A partir de los hallazgos encontrados durante la investigación exploratoria o generativa en los que se aplican técnicas de análisis y síntesis, se ve desde qué ángulo enfocar mejor el reto y se fijan las métricas más adecuadas a los intereses del proyecto. Es el momento de identificar posibles recurrencias de patrones, límites y líneas de actuación para mitigar posibles daños. Suele suceder que, con un enfoque puramente técnico, los modelos funcionan muy bien en los laboratorios, pero al implementarlo en contextos reales hay múltiples factores que, si no se consideran, pueden invalidar los beneficios esperados. Como diría Edward Deming, “un sistema no puede explicarse a sí mismo” y es necesario comprender factores internos y externos de las personas. Con la comprensión más clara de la situación, datos disponibles, posibles impactos, etc. se generan y priorizan ideas y se aplica un checklist de ética para tener identificado, por ejemplo, si los datos si se van a compartir con terceros u otras organizaciones, qué estilo de comunicación se va a usar para trasladar las ventajas a los destinatarios, cómo se va a hacer para comprometer a los implicados. También se decidirá si hay que añadir alguna medida de gestión de cambio complementaria, qué nivel de automatización y control humano va a ser necesario, cómo se va a medir el impacto que pueden tener un error en el modelo y posibles sesgos, qué nivel de precisión y de comprensión o explicabilidad del modelo se espera. Ya que no sería lo mismo un sistema que te recomienda series o música que otro que va a decidir la probabilidad de incidencia de una persona a la hora de cometer un delito, o un sistema que decida qué tratamiento médico es el más adecuado para un paciente. En estos casos, conviene definir cómo se va a gestionar la responsabilidad con los posibles errores del sistema. A partir de aquí se pueden diseñar journeys y/o blueprints con los diferentes casos de uso de cara a tener en cuenta todo lo anterior y avanzar en la tarea con la identificación de artefactos que pueden ser tan variados como: una aplicación digital, un servicio de atención al paciente, elementos de comunicación, etc. En paralelo se trabajarán todas las tareas propias de los equipos específicos. Por ejemplo, el área de data analizaría qué algoritmos son los más indicados, niveles posibles de predicción, propensión, etc. 3 . Prototipado, construcción y evaluación En este punto el equipo técnico estaría dedicado a desarrollar y validar su modelo de datos y el equipo de diseño a prototipar la interfaz y artefactos identificados donde se incluye cómo es el proceso de contar beneficios de la herramienta, cómo se podría dar de alta y baja del servicio, cómo va a ser la experiencia de uso, cuáles van a ser las métricas para mostrar la confianza en las predicciones del algoritmo, cómo la IA va a entender las intenciones del usuario, qué narrativa es la más adecuada para conectar con las personas y transmitir los valores de la organización, cómo se van a visualizar los datos… Para finalizar, se diseñará un plan de evaluación y análisis y se probará el prototipo con el fin de obtener feedback de usuarios e iterar para tener en cuenta todos los sistemas donde está inmersa la persona: creencias limitantes, nivel cultural, contexto socioeconómico, estado emocional, edad, cómo es la fuerza de la privacidad diseñada, cómo se trasladan las previsiones, grado de fiabilidad y explicabilidad del modelo. Tras la puesta en marcha de piloto se llevarán a cabo acciones de formación, comunicación y gestión del cambio y se hará un seguimiento continuo del modelo por si fuera necesario realizar cualquier ajuste. La opinión y grado de satisfacción y uso de las personas implicadas en el uso de la herramienta va a servir para garantizar su satisfacción y al mismo tiempo para mejorar el comportamiento del modelo y de la interfaz, medir el impacto y garantizar que se han cumplido los objetivos previstos. E ngrasando la maquinaria Tanto Microsoft, como Google o IBM son referentes para diseñadores y equipos deseosos de integrar la metodología de diseño centrado en lo humano con inteligencia artificial. Sus herramientas y prácticas contribuyen a que cada organización adapte el proceso a su medida y a su nivel de madurez. El mundo va súper acelerado y tener como faro la perspectiva antropológica y social de Amber Case, Adam Alter y Marc Masip con su “calm technology” también nos sirve de sostén para diseñar soluciones de IA éticas. La IA presenta la posibilidad de cambios mucho más radicales a los que nos hemos enfrentado hasta ahora con internet, los móviles o las redes sociales: cambios en cómo trabajamos, cómo interactuamos entre nosotros, cómo tomamos decisiones, a quién cedemos el principio de autoridad, qué opinión nos merece el tratamiento de nuestros datos, cómo balanceamos privacidad, libertad y seguridad, qué sucede con las emociones y la conciencia de las máquinas, si defendemos o no el principio de autodeterminación digital… Para que todos, ya nos consideremos posthumanos, tecno personas o simplemente humanos con deseo de contribuir a un mundo más justo, nos podamos beneficiar, tenemos que asegurarnos de que la IA trabaje a n uestro f avor y no en nuestra contra; tenemos que pensar éticamente sobre los sistemas que estamos construyendo y para eso hace falta tener un marco humanista,, un contexto de reflexión y trabajo colaborativo que aúne pensamiento sistémico, filosófico, ingeniería y técnica, antropología, sociología… y ese marco humanista y resolutivo lo proporciona el diseño centrado en la humanidad. María José Téllez- Agosto 2022 Fuentes https://hcil.umd.edu/human-centered-ai/ https://www.tensorflow.org/resources/responsible-ai https://www.ibm.com/design/thinking/page/courses/AI_Essentials https://link.springer.com/chapter/10.1007/978-1-4842-5775-3_5 https://www.trea.es/books/tecnopersonas-como-las-tecnologias-nos-transforman1 https://www.gedisa.com/autor.aspx?codaut=0889 https://re.public.polimi.it/retrieve/handle/11311/1101203/562341/The%20impact%20of%20AI%20on%20DT_last.pdf – https://mjtellez.medium.com/estado-del-arte-de-la-%C3%A9tica-y-la-inteligencia-artificial-b16f0e44153b – (https://www.amazon.es/Mind-over-Machine-Intuition-Expertise/dp/0029080614)

  • Presentación de la monografía sobre el impacto de la IA generativa en el empleo y la sociedad

    En el seno del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) ( www.odiseia.org ) se ha desarrollado el Proyecto cAIre siendo uno de los resultados la publicación en abierto de la monografía “ El impacto de la IA generativa en el empleo y la sociedad. Una mirada con enfoque en casos de uso ” que puede descargarse gratuitamente en la web de la editorial Atelier: https://atelieropenaccess.com/products/el-impacto-de-la-ia-generativa-en-el-empleo-y-la-sociedad-una-mirada-con-enfoque-en-casos-de-uso Se trata de un estudio coordinado por Francisca Ramón Fernández, Catedrática de Derecho civil en la Universitat Politècnica de València, y Nicole Marie Suárez Uribe, Fundadora de NICTECH en el que también han participado Candela García Fernández, Científica de datos en Westinghouse, y Pablo Guillen Riado, Director Analítica Avanzada en Grupo Cooperativo Cajamar. Se estructura la obra en seis apartados: el primero se dedica a realizar una breve introducción sobre los principales aspectos a tratar; el segundo se destina a los aspectos generales de la IA generativa en el que se analiza distintos conceptos y la diferenciación entre IA generativa y otras técnicas, así como las implicaciones éticas y sociales y los desafíos a los que se enfrenta la IA generativa y su marco regulatorio actual; el tercer bloque se ocupa de distintos casos de éxitos dentro del sector de las finanzas, la energía, la tecnología, el derecho, así como un bloque referente a las perspectivas de futuro dentro de la IA generativa sobre la aplicación en el ámbito del empleo, y centrado en la salud, administraciones públicas y la educación, para realizar algunas propuestas y recomendaciones hacia un futuro humano y responsable en la IA generativa. El estudio finaliza con el apartado de conclusiones donde se pone de manifiesto el impacto que la IA generativa tiene en relación con la sociedad y el empleo. Destacando su impacto multifacético, con una regulación que se desarrollará en los próximos años, y que puede resultar muy adecuada para la construcción de una sociedad laboral más equitativa, inclusiva y sostenible. Depende de cada uno de nosotros hacer un uso adecuado de la IA generativa mediante prácticas proactivas y responsables, a través del diseño de políticas públicas que permitan una capacitación, no incrementen la brecha digital y se adapte a las necesidades de la sociedad, en un mercado laboral en continuo cambio y transformación. El ser humano, como ser creador se privilegia frente a la automatización, sirviéndole ésta como herramienta o instrumento en su función, y no como sustitutivo de sus propias habilidades.  Es por ello que la IA generativa debe evitar situaciones discriminatorias, sesgos y disponer de un marco regulatorio claro, específico, transparente y ético con la finalidad de que no se produzcan injerencias en los derechos subjetivos.  Se debe contemplar, como parte de este proceso, una actuación tripartita por parte de los ejecutivos, el mundo académico y empresarial y la sociedad para garantizar una evolución adecuada e idónea de la implementación de la IA generativa en el empleo.  La IA generativa no es un enemigo a batir, sino un aliado en la sociedad del futuro, y por ello es preciso que participemos todos en esta evolución que ya se está produciendo.  La obra también cuenta con un apartado de bibliografía que resulta de interés para poder profundizar en algunos de los aspectos desarrollados.

  • EMTECH AI 2025: INTELIGENCIA ARTIFICIAL PARA EL MUNDO REAL

    Por primera vez en su historia, y gracias al generoso apoyo de Google.org , OdiseIA – Observatorio del Impacto Social y Ético de la Inteligencia Artificial – se hace presente en el EmTech AI , el evento para los líderes de la IA como tecnología emergente, organizado por la revista MIT Technology Review .  OdiseIA se ha dado a la tarea de empezar a construir puentes transatlánticos con empresas del potente ecosistema del Instituto Tecnológico de Massachusetts (MIT), tras la profunda disrupción sufrida por el anuncio del Proyecto Stargate, por parte de la Administración Trump y las consecuencias en la normativa europea. Construimos puentes de entendimiento mutuo, agregando además el componente de una implantación de la IA, consciente con los colectivos vulnerables en un evento enfocado para profesionales de nivel ejecutivo. Con sede en el edificio del legendario MIT Media Lab, el evento congregó a líderes académicos, empresariales y legales para analizar el impacto transformador de la inteligencia artificial. Centrado en aplicaciones prácticas, el simposio abordó desde la monetización de la IA hasta las consideraciones éticas y técnicas en su implementación. Will Douglas Heaven, editor senior de MIT Technology Review, enfatizó la urgencia de adoptar estas tecnologías calificando el “ zeitgeit de la IA como algo abrumador .” Las discusiones destacaron la democratización de herramientas avanzadas (Asha Sharma, de Microsoft), los desafíos legales en propiedad intelectual (Tyler Chou, de Paul Hastings) y la necesidad de plataformas soberanas de datos (Kevin Dallas, de EDB). En sectores críticos como sanidad y defensa, se subrayó la importancia de sistemas transparentes (Ali Farhadi, del Allen Institute) y autónomos confiables (Tom Schaefer, de Shield AI). El evento sirvió como termómetro de las prioridades sectoriales en lo que viene siendo la gran dicotomía de nuestra industria: innovación acelerada versus marcos regulatorios robustos. Este artículo sirve como una entrada a una gran cantidad de opiniones informadas, entrevistas, reuniones ejecutivas sostenidas por nuestra representación, que paulatinamente se irán publicando en nuestro blog. Introducción   En un contexto donde la IA genera avances exponenciales, pero también dilemas éticos sin precedentes, el EmTech AI 2025 emergió como plataforma crucial para dirimir su futuro. El evento priorizó tres ejes:  1) Implementación empresarial concreta,  2) Gobernanza tecnológica, y  3) Innovación técnica responsable.   Will Douglas Heaven contextualizó el debate:" Hoy se trata de encontrar valor tangible en la IA, no sólo de maravillarnos con demostraciones ." Esta premisa guió discusiones con representantes de Microsoft, Google Cloud, y centros de investigación como MIT Sloan School of Management. Temáticamente, se transitó desde casos de uso en diagnóstico médico hasta sistemas autónomos en entornos militares, siempre con foco en escalabilidad y responsabilidad.   La relevancia del evento radica en su enfoque multidisciplinar. Al reunir a ingenieros, abogados y estrategas corporativos, se evidenció cómo la IA está redefiniendo paradigmas sectoriales. Como señaló Scott Penberthy (Google Cloud): " Los aproximadores universales en IA nos permiten modelar cualquier sistema observable, pero el verdadero reto es alinear esto con necesidades humanas ." Algunas Observaciones desde las Mesas de Liderazgo a) Evolución y Capacidades Actuales de la IA   La democratización tecnológica marcó muchas de las discusiones. Asha Sharma, Vicepresidente Corporativa de Microsoft, destacó como dato que 70,000 clientes suyos ya utilizan sus plataformas IA, algo que era impensable hace sólo cinco años. Este crecimiento se sustenta en modelos como GPT-4, que según Scott Penberthy (Google Cloud), actúan como " aproximadores universales capaces de modelar relaciones en cualquier dominio observable. "   En el sector de la sanidad, Sharma ejemplificó avances revolucionarios, de cómo la IA permite el perfilamiento genético y el plegamiento de proteínas a escalas que superan lo humano. Ali Farhadi (Allen Institute) complementó esto mencionando herramientas como Almo Traces, que vinculan resultados de IA con datos de entrenamiento para validar hallazgos científicos.   b) Aplicaciones Empresariales y Monetización   Kevin Dallas (CEO de EDB) presentó estrategias para convertir la IA en valor medible: " El 57% de nuestros clientes en sectores regulados prefieren implementaciones on-premise para proteger su IP ." Andrew Lo (MIT Sloan) ilustró aplicaciones financieras sobre modelos que valoran empresas como Moderna con precisión comparable a analistas senior.  Microsoft reportó casos concretos: " Agentes IA gestionan el 84% de consultas en Salesforce, reduciendo costos operativos un 40% .” La clave, según Sharma, radica en " monitorización continua y ajuste fino sin fugar datos propietarios ."  c) Soberanía de Datos y Seguridad   La soberanía emergió como imperativo estratégico. Dallas alertó que los datos son la nueva moneda competitiva y que “ perder su control es ceder ventajas clave ." EDB propone arquitecturas híbridas donde el núcleo de datos permanece on-premise mientras las capas de IA se actualizan en cloud (nube).  En paralelo, Farhadi advirtió sobre los riesgos en investigación científica en el sentido de que, por falta de acceso a datos de entrenamiento, la comunidad no puede validar hallazgos de IA, retrasando descubrimientos. Su instituto desarrolló protocolos para compartir metadatos sin comprometer la propiedad intelectual.   d) Implicaciones Éticas y Desarrollo Responsable   Este es un punto muy relevante con la labor de OdiseIA, por lo que se tomó especial atención al respecto. El brillante debate legal entre Tyler Chou (Tyler Chou Law for Creators) y Amir Ghavi (Paul Hastings) encapsuló tensiones clave. Era como presenciar el modelo europeo y el americano frente a frente. Chou, por su parte, denunció que " El 90% de la IP actual ya fue entrenada sin consentimiento, desplazando a creadores humanos ", a lo que Ghavi contraargumentó que " El copyright no es herramienta adecuada; necesitamos nuevos marcos laborales. "  En respuesta, Chou destacó tendencias alentadoras, como que los acuerdos de licencia para IA pasarán de $75 millones a $10,000 millones en tres años. Ambos coincidieron en que la IA no debe replicar obras existentes sustancialmente, responsabilizando a los ingenieros en evitar "alucinaciones" técnicas. Todo un estamento de cómo se podría solucionar esta particular brecha.   e) Transparencia y Confianza en Sistemas de IA   En este punto, es cierto que hay tecnologías en Estados Unidos que están básicamente prohibidas en la Ley de Inteligencia Artificial de la Unión Europea, pero es esencial recalcar el avance y la precisión de estas. Farhadi enfatizó la transparencia radical indicando que " Almo Traces permite rastrear cada salida de IA hasta su fuente de entrenamiento, esencial en sanidad y finanzas. " Criticó el hermetismo de modelos privativos sin acceso a datos de entrenamiento, por lo que, como ya dijimos, la comunidad científica no puede avanzar.  Matthew Owen (Wicket) mostró aplicaciones prácticas con resultados publicados realmente sorprendentes. Por ejemplo, su sistema de reconocimiento facial en los estadios la Liga Nacional de Fútbol Americano (NFL) tiene un 99,99% de precisión, con sólo la probabilidad de falso positivo de 1/4.5 millones. La clave reside, explicó Owen, en la autenticación opt-in  y el cifrado de plantillas biométricas.   f) Autonomía Habilitada por IA   Tom Schaefer (Shield AI) detalló sistemas autónomos militares primero poniendo a prueba los drones en simulaciones, miles de veces, antes de realizar despliegues reales. Distinguió la autonomía de plataforma (control físico) de la misión (toma de decisiones), requiriendo marcos de validación distintos.   En el sector civil, Jeff Boehm (Wicket) describió agentes IA para ventas en estadios, añadiendo a manera de comedia, que los fans son capaces de comprar cervezas con reconocimiento facial, sin usar billeteras físicas. Schaefer advirtió asimismo sobre ciertos retos pendientes, en que, en entornos no estructurados, la IA aún requiere supervisión humana.   g) Trayectoria Futura de Modelos de IA   Penberthy (Google Cloud) vislumbró " modelos capaces de predecir enfermedades una década antes que los métodos actuales ", usando datos longitudinales de naciones como Singapur. Para el sector de la cultura y la creatividad, anticipó sobre herramientas que superarán el uncanny valley  (el ‘valle de la intriga’) en generación de vídeo para 2027.   Farhadi proyectó por su parte una convergencia disciplinar, una característica de la disrupción tecnológica que ya viene manifestándose durante años: " La IA en biología celular requerirá nuevos paradigmas, no meras adaptaciones de GPT ." Mientras, Heaven concluyó que " El futuro pertenece a quienes integren IA ética en flujos de valor existentes ", siendo también una forma de convergencia de dos grandes áreas del conocimiento.  Un Resumen de los Puntos El evento reveló tensiones tanto dinámicas como fundamentales. Mientras empresas como Microsoft priorizan la escalabilidad (Sharma: " La democratización tecnológica es irreversible "), académicos como Farhadi exigen una apertura radical para alimentar la validación científica. Legalmente, la pugna entre protección de los creadores de contenido (Chou) y la innovación acelerada (Ghavi) permanece sin resolver, aunque sí existan puntos para un posterior acuerdo o al menos una serie de soluciones equilibradas.   En lo técnico, Schaefer demostró que la autonomía militar madura más rápido que las aplicaciones civiles, debido a presupuestos generosos y una mayor tolerancia al riesgo. Contradictoriamente, Owen mostró que sistemas biométricos en deportes –menos críticos– logran mayor precisión, sugiriendo que la complejidad regulatoria frena las implementaciones civiles.   Conclusión   El EmTech AI 2025 delineó, en lo general, un futuro donde la IA transcenderá las herramientas aisladas para convertirse en tejido conectivo empresarial y social. Los grandes consensos emergentes incluyen:  1) La necesidad de plataformas soberanas administrables (Dallas),  2) La urgencia de marcos éticos actualizados (Chou/Ghavi), y  3) La priorización de la transparencia en aplicaciones críticas (Farhadi).   Quedan desafíos abiertos que exploraremos en próximas publicaciones: ¿Cómo equilibrar protección de la IP con innovación abierta? ¿Qué nivel de autonomía es éticamente aceptable en sistemas militares? Las respuestas, según Heaven, surgirán de " diálogos continuos entre tecnólogos, legisladores y sociedad ” siendo los ejecutivos asistentes, en su gran mayoría, reticente a la regulación ex ante y de alguna manera preventiva, como la que exhibe la Ley de Inteligencia Artificial de la Unión Europea.  El evento no solo mapeó el estado actual de la IA, sino que esbozó la hoja de ruta para su adopción responsable en la próxima década, a lo que también aspira OdiseIA.

  • La inteligencia artificial ya vive con nosotros

    La inteligencia artificial pasó del laboratorio a la vida diaria. Así se expresa en el AI Index Report del 2025  publicado por el Stanford University Human - Centered Artificial Intelligence, dejando claro que han aumentado las expectativas y el reconocimiento del impacto de la IA en nuestra vida cotidiana. De ahí que, a nivel global el porcentaje de las personas que perciben esta nueva tecnología como más beneficiosa que perjudicial es ahora de un 55% conforme el citado informe. Sin embargo, la preocupación en materia de protección de datos personales, la discriminación y la dependencia excesiva de la tecnología crece.  Es por esto que hemos reflexionado sobre inteligencia artificial con una perspectiva del día a día en el podcast The Housewives Society bajo la conducción de Carla Chalas. Un episodio apto para todo público ( enlace de acceso a entrevista completa ), que inicia desmitificando el concepto de inteligencia artificial con una analogía muy sencilla entre la IA y un buen plato en la cocina, donde solo se necesitan buenos ingredientes (datos) y una receta al estilo de la abuela (algoritmos) para que un conjunto de tecnologías permitan a las máquinas realizar tareas que normalmente requerían de la inteligencia humana, como analizar información, reconocer patrones o tomar decisiones. IA como aliada Se hizo un recorrido destacando cómo la IA se encuentra presente en cada aspecto de nuestra vida: desde asistentes virtuales impulsados por esta tecnología que ayudan a organizar las agendas de toda la familia, los electrodomésticos inteligentes, los sistemas de monitoreo de salud, apps de control parental, hasta aplicaciones que nos sugieren qué hacer con los ingredientes disponibles en casa. Siendo evidente que la IA puede ser de gran utilidad para nosotros en las responsabilidades que nos corresponden en cada rol que desempeñamos.  Pero… ¿cuáles son los riesgos? Aunque las ventajas son claras, se hace necesario advertir de los riesgos. Se abordaron los peligros, informando que el uso responsable es clave, ya que cuando compartimos nuestros datos, muchas veces no sabemos exactamente cómo se usan o quién tiene acceso a ellos. Asimismo, se reflexionó sobre el sedentarismo cognitivo. De igual modo, se compartieron casos reales de deepfakes  y de manipulación, brindando recomendaciones para detectar contenido falso.  ¿Cómo prepararnos? El mensaje principal fue demostrar que no debemos temer a la IA, sino comprenderla y que es posible sin ser Alan Turing. Lo anterior, porque quienes dominen la inteligencia artificial tendrán más oportunidades que nunca y quienes la ignoren pueden quedar atrás. En definitva, solo conociendo cómo funciona y cómo puede afectar nuestras vidas, podremos decidir cuándo y cómo utilizarla apegados a la ética.  Se concluyó invitando a la audiencia a visitar la página web de OdiseIA y el proyecto cAIre para que conozcan investigaciones como las del subgrupo 2.4 sobre: Casos de éxito de IA Gen en el empleo y la sociedad , resaltando el papel del Observatorio del impacto social y ético de la inteligencia artificial en áreas como gobernanza de IA y el impacto de estos sistemas inteligentes en nuestro entorno, con enfoque en colectivos vulnerables.

bottom of page