top of page
Diseño sin título (1).png

Blog Odiseia

Sigue nuestro blog y mantente al día de todos los avances y noticias en el mundo de la inteligencia artificial y su impacto social y ético.

Protección de Menores Migrantes: ¿Puede la Inteligencia Artificial Prevenir Devoluciones Ilegales?

Introducción


La regulación de la inteligencia artificial (IA) en Europa, especialmente a través del AI Act, marca un hito a nivel global en cuanto pone el foco en el desarrollo tecnológico en beneficio de todos, y a la vez, supone enormes riesgos y desafíos para la protección de las personas, de ahí que, tiene por finalidad proteger principalmente: la salud, la seguridad y los derechos fundamentales. Por lo que este reglamento establece un marco de gobernanza orientado a mitigar los riesgos asociados a los sistemas de IA, con especial atención a las personas en situación de vulnerabilidad. La protección de menores, migrantes, personas con discapacidad o individuos socialmente excluidos se encuentra implícita en varias disposiciones del texto legal. No obstante, la experiencia demuestra que la mera existencia de un marco normativo no es garantía suficiente de justicia ni de protección real, particularmente en contextos complejos como el de la devolución de menores migrantes, donde convergen factores políticos, tecnológicos y éticos.


Desde una perspectiva bioética y humanista, ampliamente compartida en los marcos regulatorios europeos, la centralidad de la persona —especialmente del más vulnerable— debe ser un principio rector del diseño, implementación y evaluación de sistemas de IA. Este enfoque coincide con una tradición espiritual profundamente arraigada en la cultura occidental: la enseñanza de Jesús de Nazaret, quien colocó en el centro de su mensaje a los pobres, a los marginados, y a los “pequeños” del mundo.


Si revisamos este pasaje bíblico Mateo (25:40)1, nos damos cuenta de que esta declaración no solo refleja una ética de la compasión, sino también un principio operativo de inclusión: las acciones políticas o tecnológicas deben ser evaluadas en función de su impacto en los más vulnerables. Este enfoque teológico es coherente con el principio de “non-maleficencia” y el de “justicia distributiva” en bioética, y debería estar explícitamente incorporado en el diseño de políticas públicas como el AI Act.


La gestión migratoria en Europa enfrenta retos crecientes, especialmente en lo que respecta a la protección de menores no acompañados. En mayo de 2021, durante la crisis en la frontera de Ceuta, España repatrió decenas de niños migrantes sin aplicar evaluaciones individualizadas ni garantizar el cumplimiento del interés superior del menor. Estos hechos, posteriormente declarados ilegales por el Tribunal Supremo, revelaron las debilidades institucionales para garantizar derechos fundamentales en situaciones de presión política y operativa.

En paralelo, la Unión Europea ha avanzado con la creación del AI Act, el primer marco legal integral que regula el uso de la inteligencia artificial según niveles de riesgo para el ser humano, así, principalmente, para la salud, la seguridad y los derechos fundamentales. Este reglamento busca evitar abusos, garantizar derechos y fomentar un uso responsable de las tecnologías emergentes en sectores críticos, incluida la gestión fronteriza. Sin embargo, un análisis transversal de la normativa sugiere la conveniencia de reforzar el artículo 9 del AI Act (relativo a la gestión de riesgos en relación con los sistemas de alto riesgo) con una cláusula que exija una evaluación diferenciada del impacto sobre personas vulnerables, incluyendo la participación efectiva de estas comunidades en los procesos de evaluación ética (¡Atención! En el apartado 9 del artículo 9 se hace alusión a que los proveedores “prestarán especial atención a si, en vista de su finalidad prevista, es probable que el sistema de IA de alto riesgo afecte negativamente a las personas menores de dieciocho años y, en su caso, a otros colectivos vulnerables”. Esta participación sería una expresión práctica del principio de equidad. La inclusión no debe ser entendida como un resultado deseado, sino como una condición estructural del proceso.


En este contexto, surge una pregunta clave: ¿puede la inteligencia artificial convertirse en una herramienta para proteger, y no vulnerar, los derechos de los menores migrantes?. Este artículo propone una lectura crítica y propositiva del AI Act, desde la perspectiva de la protección de menores migrantes en contextos de alta vulnerabilidad: demostrar que, si se aplica con un enfoque ético y legal, la IA puede fortalecer los procesos migratorios, reducir errores humanos y actuar como una barrera preventiva frente a decisiones arbitrarias o apresuradas.

A través de un modelo conceptual inspirado en el AI Act y principios de derechos humanos, exploramos cómo tecnologías como la identificación biométrica supervisada, la evaluación algorítmica de riesgos individuales y los sistemas de trazabilidad pueden integrarse en los protocolos migratorios para asegurar que los derechos de la infancia sean siempre respetados.



1 Evangelio según Mateo (25:35-40), Jesús declara: “Porque tuve hambre, y me disteis de comer; tuve sed, y me disteis de beber […] En verdad os digo que en cuanto lo hicisteis a uno de estos mis hermanos más pequeños, a mí lo hicisteis”. Jesús no solo ratifica estas enseñanzas humanitarias, son que las trasciende y radicaliza al introducir una ética basada no el cumplimiento de leyes, sino en el amor incondicional, situándolo como principio fundamental de la vida moral.




La crisis de Ceuta y la vulneración de derechos


Entre el 17 y el 19 de mayo de 2021, más de 8.000 personas cruzaron la frontera hacia Ceuta tras la relajación del control fronterizo por parte de Marruecos1. De ellas, aproximadamente 1.500 eran menores no acompañados. En agosto, el Ministerio del Interior español, bajo presión política y diplomática, procedió a devolver a 55 de estos menores a Marruecos sin una evaluación individualizada de sus casos, en clara contradicción con la Ley de Extranjería, la Convención sobre los Derechos del Niño y el principio del interés superior del menor.


A pesar de la existencia de un acuerdo bilateral con Marruecos (2007), ninguna disposición legal puede justificar una repatriación que no garantice que el menor será protegido en su país de origen ni que haya sido escuchado adecuadamente. Las actuaciones y decisiones humanas fueron objeto de duras críticas y finalmente, la sentencia del Tribunal Supremo de 22 de enero de 2024 (Sala Tercera) dejó claro que se trató de una actuación ilegal y desprovista de garantías. 

El AI Act, clasifica los sistemas de inteligencia artificial en función de su nivel de riesgo2. Los sistemas utilizados en contextos migratorios —como los de evaluación de riesgos o reconocimiento biométrico— están clasificados como “de alto riesgo”, lo que exige:


  • Evaluaciones de impacto en derechos fundamentales.

  • Transparencia algorítmica.

  • Supervisión humana constante.

  • Registro y trazabilidad de decisiones automatizadas.


Aunque el AI Act no obliga a utilizar IA, sí establece un marco riguroso para su uso ético y seguro. Este reglamento puede servir como palanca para exigir que las decisiones administrativas que afecten a menores estén respaldadas por sistemas auditables, objetivos y trazables.



2 Clasificación RIA: (63) «Modelo de IA de uso general: un modelo de IA, también uno entrenado con un gran volumen de datos utilizando auto supervisión a gran escala, que presenta un grado considerable de generalidad significativa y es capaz de realizar de manera competente una gran variedad de tareas distintas, independientemente de la manera en que el modelo se introduzca en el mercado, y que puede integrarse en diversos sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o creación de prototipos antes de su introducción en el mercado». 

(66) «Sistema de IA de uso general: un sistema de IA basado en un modelo de IA de uso general y que puede servir a diversos fines, tanto para su uso directo como para su integración en otros sistemas de IA».



Un modelo Ético de IA para Proteger a los Menores


Se propone un modelo conceptual de aplicación ética de la IA en procesos migratorios que contemple cuatro fases clave:


  1. Identificación Segura

Uso de tecnologías biométricas no invasivas para estimar la edad o verificar identidad, siempre con validación humana. Esto puede evitar errores como confundir menores con adultos.



Relación con el Artículo 9


  • Identificación y análisis de riesgos (9.3.a): El uso de tecnologías biométricas debe considerar riesgos como la falsa clasificación de menores como adultos (sesgos en los datos de entrenamiento), lo que puede vulnerar derechos fundamentales.

  • Supervisión humana (9.6): La validación humana obligatoria responde al principio de mitigación de riesgos mediante intervención humana, especialmente en decisiones sensibles como la edad o identidad.

  • Contexto de uso (9.7): Se debe tener en cuenta que los menores migrantes pueden no tener documentos o estar en situaciones de estrés, lo que afecta la precisión de los sistemas.


  1.  Evaluación Individual Automatizada

Sistemas de IA pueden organizar y cruzar datos para priorizar casos vulnerables. Algoritmos entrenados con criterios éticos pueden ayudar a identificar riesgos de explotación, trata o abandono.


Relación con el Artículo 9:


  • Evaluación de riesgos previsibles (9.3.b): Los algoritmos deben prever el riesgo de discriminación algorítmica o sesgos que invisibilicen casos de vulnerabilidad.

  • Diseño ético y mitigación (9.4 y 9.5): El entrenamiento con criterios éticos y datos representativos es una medida estructural para reducir riesgos sistémicos.

  • Riesgos residuales aceptables (9.6): Solo si los riesgos no pueden eliminarse completamente, deben ser justificados y comunicados claramente a los operadores del sistema.


  1. Protección y Trazabilidad

La IA puede gestionar con eficiencia la distribución de menores a servicios de acogida, asegurar su seguimiento, y generar alertas si no se cumple el protocolo legal.


Relación con el Artículo 9:


  • Gestión de riesgos durante todo el ciclo de vida (9.2): La trazabilidad y seguimiento continuo permiten detectar fallos o incumplimientos en tiempo real.

  • Medidas específicas (9.3.d): Alertas automáticas ante desviaciones del protocolo son una forma activa de mitigación.

  • Interacción entre requisitos (9.5): La trazabilidad debe integrarse con otros requisitos como la transparencia (art. 13) y la supervisión humana.


  1. Repatriación Responsable

En caso de retorno, un sistema puede verificar las condiciones del país de origen, la existencia de una red familiar segura y la legalidad de cada paso, dejando un rastro digital completo y auditable.


Relación con el Artículo 9:


  • Evaluación de riesgos adicionales (9.3.c): Antes de repatriar, el sistema debe evaluar nuevos riesgos en el país de origen, como violencia o ausencia de red familiar.

  • Aceptación de riesgos residuales (9.6): La repatriación solo debe proceder si los riesgos han sido mitigados y se garantiza la legalidad y seguridad del proceso.

  • Documentación y trazabilidad (9.6.c): El rastro digital auditable es clave para garantizar la rendición de cuentas y la protección de derechos.



Garantías Éticas y Límites Necesarios


Todo sistema de IA aplicado en este contexto debe regirse por principios fundamentales:


  1. Proporcionalidad: solo se justifica si mejora la protección del menor.

  2. Supervisión humana: ninguna decisión debe ser completamente automatizada.

  3. Evitar sesgos: los algoritmos deben ser entrenados y auditados regularmente para evitar discriminación.

  4. Acceso a recursos: los menores y sus representantes deben poder recurrir cualquier decisión tomada con apoyo tecnológico.


Conclusión     

                                                           

La crisis migratoria de Ceuta en 2021 dejó en evidencia una profunda falla institucional: la incapacidad de proteger adecuadamente a menores no acompañados frente a decisiones políticas apresuradas. El uso de inteligencia artificial, bien regulada y aplicada con criterios éticos pudo haber cambiado el curso de los acontecimientos. 


El AI Act, la nueva legislación europea sobre inteligencia artificial ofrece un marco sólido para garantizar que toda tecnología utilizada en frontera respete los derechos fundamentales, especialmente cuando se trata de niños. Desde sistemas biométricos con supervisión humana hasta algoritmos que alertan sobre riesgos de vulneración, la IA puede convertirse en aliada de la infancia si se diseña para proteger y no solo para controlar.


Este artículo propone un modelo conceptual que integra tecnología, derecho y ética para evitar que errores como los de Ceuta se repitan. Porque proteger a los menores migrantes no es una opción: es una obligación legal, moral y humana.

Comentarios


bottom of page