top of page
Diseño sin título (1).png

Blog Odiseia

Sigue nuestro blog y mantente al día de todos los avances y noticias en el mundo de la inteligencia artificial y su impacto social y ético.

¿Puede la regulación de la IA proteger a los más vulnerables?

Autores: Carmen Muñoz García y William Lúligo Monsalve

Subproyecto 1.1 – AI Governance para Poryecto cAIre Google.orgOdiseIA Blog



¿Puede la regulación de la IA proteger a los más vulnerables?


La inteligencia artificial generativa —la cara más visible de los modelos de IA de uso general—, se ha incorporado a nuestra vida cotidiana. Desde una perspectiva positiva y genérica mejora nuestra vida, contribuye a nuestra forma de trabajar, estudiar y comunicarnos. Sin embargo, desde una perspectiva negativa desafía los derechos, principios y valores del Derecho debidamente asentados a nivel de la Unión y en otros muchos Estados democráticos. Este desafío negativo amplifica los riesgos para los más vulnerables frente a una tecnología disruptiva: menores, mayores, personas con discapacidad, migrantes, personas con problemas de salud o en situación de pobreza. El reto no es frenar la innovación, sino encauzarla con normas claras y unas prácticas responsables para que nadie se quede atrás.


¿Por qué poner ahora el foco en la protección en la era de la IA?


En los últimos años, hemos visto casos preocupantes: adolescentes que, tras interactuar con ChatBot, han tomado decisiones trágicas; adultos que, influidos por respuestas de IA, han sufrido consecuencias graves. Estos ejemplos reales han encendido las alarmas en Europa y el mundo.

La IA generativa no solo responde preguntas o crea contenido en distintos formatos y para múltiples fines, sino que ahora también puede tomar decisiones, ejecutar tareas complejas e, incluso, en algunos casos, influir en la salud mental o la seguridad de las personas. Por este motivo, la Unión Europea, con el firme propósito de innovar de manera ética, segura y fiable, y también para garantizar los derechos de las personas, ha dado un paso adelante con el Reglamento de Inteligencia Artificial (RIA), que busca proteger especialmente a los colectivos más vulnerables.


¿Cuáles son algunas de las señales de alerta para las personas y, especialmente, para los vulnerables?


Ante los múltiples riesgos de la IA, especialmente para las personas y colectivos vulnerables, es preciso identificar las posibles amenazas que se presentan y los riesgos ciertos que ya se han producido, sin que por ello la lista sea exhaustiva: 

• Difusión de información falsa convincente (deepfakes) que afecta a la reputación, incita al odio o pone en riesgo la seguridad personal o colectiva.

• Sesgos algorítmicos que excluyen en decisiones de alto impacto (como el acceso a la vivienda, empleo, crédito, a la administración pública o la atención sanitaria).

• Interacciones automatizadas que refuerzan pensamientos autodestructivos o conductas de riesgo, especialmente en personas con vulnerabilidades emocionales o psicológicas.

• Falta de transparencia sobre cómo funciona la IA, qué datos utiliza y qué limitaciones tiene, lo que impide una evaluación informada por parte del usuario.

• Automatizaciones de servicios sin canales de ayuda humana claros y accesibles.

• Exposición desproporcionada a publicidad personalizada o manipulación emocional, especialmente en menores, personas mayores o con baja alfabetización digital.

• Acceso desigual a tecnologías de calidad, donde colectivos vulnerables quedan relegados a sistemas menos seguros, menos precisos o más invasivos.


¿Cómo regula Europa la IA?


El RIA clasifica los sistemas de IA según el riesgo que representan:

  • Riesgo inaceptable: prohibidos por suponer una amena para “la salud, la seguridad o los derechos fundamentales” (por ejemplo, IA que manipule a menores).

  • Alto riesgo: por suponer un riesgo elevado para lo antedicho en el párrafo anterior, estará bajo una supervisión estricta (IA en sanidad, educación, justicia).

  • Riesgo limitado o mínimo: para estos, se imponen pbligaciones de transparencia y buenas prácticas.


Los modelos de IA de uso general, como los grandes chatbots, tienen reglas específicas. Si un modelo puede causar daños a gran escala (por ejemplo, desinformación masiva o “deepfakes” difíciles de detectar), se le exige cumplir requisitos adicionales: evaluaciones de riesgo, notificación de incidentes y medidas de ciberseguridad.

Además, la UE ha creado códigos de buenas prácticas para que los proveedores de IA demuestren que cumplen la ley y protegen a los usuarios.





Exigencias regulatorias en términos cotidianos 


Documentación y trazabilidad: saber cómo se entrenó el modelo, con qué datos y para qué sirve.

Transparencia y advertencias: explicar límites y riesgos de uso; marcar contenido sintético.

Supervisión humana: que exista intervención y recursos accesibles cuando haga falta.

Ciberseguridad y pruebas: evaluar, mitigar y volver a evaluar ante fallos o abusos.

Notificación de incidentes: comunicar y corregir incidentes graves con rapidez.

Códigos de buenas prácticas: una vía para demostrar cumplimiento de forma uniforme.


Guía breve para su implementación 


Para administraciones y empresas

• Inventario de sistemas de IA y clasificación por riesgo.

• Evaluación de impacto sobre derechos (especial foco en colectivos vulnerables).

• Controles sobre los datos: calidad, sesgo, privacidad y accesibilidad del contenido.

• Canales de apoyo humano y mecanismos de reclamación fáciles de usar.

• Pruebas de robustez y planes de respuesta ante incidentes.

• Uso de model cards y documentación técnica compartible con proveedores posteriores.


Para escuelas, ONGs y ciudadanía


• Formación básica para reconocer desinformación y contenido sintético.

• Normas de seguridad: no compartir datos sensibles, contrastar fuentes, reportar abusos.

• Uso de herramientas con buenas prácticas verificables y sellos de confianza.

• Exigir explicaciones claras y accesibles sobre cómo funciona un asistente de IA.


¿El Reglamento de IA es suficiente para proteger a los vulnerables?


La regulación europea es pionera y necesaria, pero no es infalible. La tecnología avanza rápido y los riesgos cambian. Por eso, además de leyes, principios y valores, necesitamos vigilancia, educación y una sociedad atenta a los nuevos desafíos.

La clave está en combinar normas claras, supervisión activa y una cultura de cumplimiento y de responsabilidad. Solo así la IA podrá ser una aliada, y no una amenaza, para quienes más protección necesitan. El objetivo puede parecer simple, pero no lo es: ante una IA tecnológicamente ilimitada, son necesarios límites éticos y normativos, así como actuaciones globales. De ahí que podamos afirmar: progreso sí, pero con garantías.

bottom of page