top of page
Diseño sin título (1).png

Blog Odiseia

Sigue nuestro blog y mantente al día de todos los avances y noticias en el mundo de la inteligencia artificial y su impacto social y ético.

Cuando un papel se convierte en un muro y cómo la Inteligencia Artificial puede abrir puertas

Autor: Fabián García Pastor; miembro del equipo del proyecto cAIre. 


¿Alguna vez has tenido que releer tres veces un texto de la administración para intentar entender qué se te pedía? Imagina ahora que eres una persona mayor, alguien con discapacidad intelectual o una persona con baja alfabetización digital. Esa incomprensión no es solo frustrante: es una barrera real al acceso a tus derechos.

Hace unos días compartí una reflexión sobre cómo la inteligencia artificial puede ayudarnos a simplificar la burocracia y convertirla en un puente en lugar de un muro. Puedes leerlo aquí si te lo perdiste.

Hoy quiero ir un paso más allá: no se trata solo de hacer más fáciles los trámites, sino de cuestionarnos algo aún más básico. ¿Entendemos realmente lo que la administración nos dice? ¿Y cómo podemos exigir que la IA sea explicable si ni siquiera lo es la propia administración?


El derecho a entender lo que te afecta


La administración nos habla sobre educación, salud, trabajo o impuestos. Pero a menudo lo hace en un idioma opaco. No entender un texto no debería implicar quedar fuera del sistema. Entender lo que nos afecta no es un privilegio: es un derecho.

Poder comprender de forma autónoma lo que se nos exige o lo que podemos solicitar es una base elemental para una ciudadanía plena. No se trata de simplificar la ley, sino de hacerla accesible. De lo contrario, muchos acaban renunciando por frustración, miedo o desconfianza.


La administración no habla difícil por casualidad


El lenguaje administrativo está lleno de fórmulas, tecnicismos y estructuras que lo alejan de la vida cotidiana. No es solo un problema de palabras, es un problema de diseño institucional. Y aunque nos parezca normal, no debería serlo.

DiloClaro, proyecto nacido en el marco del hackathon OdiseIA4Good, surge precisamente para romper esa lógica: traducir textos oficiales al lenguaje claro, adaptado, accesible. No para simplificar el contenido, sino para dignificar la comunicación entre administración y personas.

Esta iniciativa no es un experimento académico, sino una respuesta práctica a un problema estructural: la brecha entre lo que se escribe en el Boletín Oficial y lo que la gente puede comprender sin ayuda.

Todo esto lo abordamos también en una conversación muy especial con Alicia Romero y Francisco Luque, impulsores del proyecto DiloClaro. En ella exploramos no solo cómo traducir la administración al lenguaje claro, sino también cómo hacerlo desde una mirada técnica, empática y con visión de futuro.

🎥 Puedes ver la entrevista completa aquí: Sesión cAIre con DiloClaro


La IA también tiene que explicarse


Así como usamos la IA para hacer comprensible un texto jurídico, también deberíamos exigir que sus propias decisiones sean entendibles.

Existe un paralelismo claro: la "explicabilidad" no es solo un término técnico en IA. Es un principio que debería guiar cualquier sistema que tome decisiones que nos afectan: desde una resolución administrativa hasta una recomendación algorítmica.

La transparencia no debería ser un añadido: debería ser parte del diseño. En el caso de DiloClaro, esto significa que las traducciones no solo deben ser correctas, sino comprensibles y verificadas por quienes las van a usar.

Si pedimos transparencia a los algoritmos, pidámosla también a nuestras instituciones.


Colectivos vulnerables: los más afectados por la opacidad


Cuando el lenguaje es oscuro, no lo es por igual para todos. Afecta más a quienes ya tienen menos: menos recursos, menos formación, menos red de apoyo. Personas con discapacidad intelectual, personas mayores o con baja alfabetización digital... Para ellas, entender no es un lujo: es la condición mínima para ejercer sus derechos.

Las dificultades aumentan además en entornos digitales, donde no hay posibilidad de pedir una aclaración cara a cara. La administración en línea, cuando no es comprensible, no empodera: excluye.

DiloClaro pone a estos colectivos en el centro. Y lo hace con tecnología, pero también con escucha y responsabilidad. Incorporando su voz no solo como usuarios finales, sino como validadores activos del proceso.


Validar con personas reales: cuando la empatía se convierte en método


Lo más valioso de DiloClaro no es solo su tecnología, sino su enfoque: las traducciones se prueban con los propios colectivos destinatarios. Hay validación real, humana, y acompañamiento en el uso.

La IA no es un oráculo: necesita ser contrastada, corregida, validada. Y si va dirigida a colectivos vulnerables, ese cuidado debe ser doble.

Además, este modelo de co-creación tiene un efecto secundario positivo: empodera a los propios colectivos. Les hace parte activa del proceso, les reconoce como expertos en sus propias dificultades, y refuerza su protagonismo en la sociedad digital.


Explicar es una forma de cuidar


Traducir no es rebajar el contenido: es elevar la comunicación. Explicar no es una concesión: es un acto de respeto.

Si pedimos que la inteligencia artificial sea transparente, hagamos lo mismo con nuestros sistemas públicos. Y si la tecnología puede ayudarnos a entender mejor el mundo, pongámosla al servicio de quienes más lo necesitan.

Porque solo una administración que se explica, es una administración que cuida. Y una sociedad que cuida es una sociedad que no deja a nadie atrás.


Un paso más: acompáñanos el 9 de julio


Si quieres profundizar en estas ideas, te invitamos a una sesión especial el próximo 9 de julio a las 09:00h en Cuatrecasas (Madrid), organizada por OdiseIA en colaboración con Cuatrecasas, donde presentaremos los resultados y conclusiones del proyecto CAIRE, con el apoyo de Google.org.

🔗 Inscripciones y más información: https://shorturl.at/wljUf

Commentaires


bottom of page