top of page
Diseño sin título (1).png

OdiseIA Blog

Follow our blog and stay up to date with all the advances and news in the world of artificial intelligence and its social and ethical impact.

¿Puede la Inteligencia Artificial Prevenir Devoluciones Ilegales de Menores Migrantes?

Autores: William Lúligo Monsalve, Carmen Muñoz García, Pedro Albarracín García.

Subproyecto 1.1 – AI Governance para Google.org



¿Por qué es urgente hablar de menores migrantes y decisiones automatizadas?


Porque la gestión migratoria en Europa, especialmente en contextos de crisis como la de Ceuta en 2021, ha demostrado que los derechos de los menores no acompañados pueden ser vulnerados por decisiones políticas apresuradas. En ese episodio, España repatrió a 55 menores sin evaluaciones individualizadas, violando la Ley de Extranjería y la Convención sobre los Derechos del Niño. La sentencia del Tribunal Supremo en 2024 lo confirmó: fue ilegal.


¿Qué propone el estudio frente a esta realidad?


Una lectura crítica y propositiva del AI Act, el reglamento europeo sobre inteligencia artificial, desde la perspectiva de los menores migrantes. El objetivo: demostrar que la IA, si se aplica con ética y legalidad, puede prevenir errores humanos, garantizar derechos y actuar como barrera frente a decisiones arbitrarias.


¿Qué papel juega el AI Act en la protección de menores?


El AI Act clasifica los sistemas de IA según su nivel de riesgo. Los sistemas usados en migración —como reconocimiento biométrico o evaluación de riesgos— son considerados de alto riesgo, lo que exige:


  • Evaluaciones de impacto en derechos fundamentales

  • Supervisión humana constante

  • Transparencia algorítmica

  • Registro y trazabilidad de decisiones automatizadas

Aunque no obliga a usar IA, sí establece un marco riguroso para su uso ético y seguro.


¿Cómo puede la IA proteger a los menores migrantes?


El estudio propone un modelo ético de aplicación de IA en procesos migratorios, dividido en cuatro fases:


1. Identificación Segura

¿Puede la IA evitar errores en la identificación de menores?

Sí. Tecnologías biométricas no invasivas, validadas por humanos, pueden estimar la edad y verificar identidad. Esto evita que menores sean tratados como adultos por error.


Riesgos clave:

  • Sesgos en datos de entrenamiento

  • Falsa clasificación

  • Estrés o falta de documentos que afectan precisión


2. Evaluación Individual Automatizada


¿Puede la IA priorizar casos vulnerables?

Sí. Algoritmos éticos pueden cruzar datos para identificar riesgos de explotación, trata o abandono. Pero deben estar entrenados con criterios representativos y auditados para evitar discriminación algorítmica.


Garantías necesarias:

  • Evaluación de riesgos previsibles

  • Justificación de riesgos residuales

  • Transparencia en el diseño


3. Protección y Trazabilidad


¿Puede la IA asegurar el seguimiento legal de los menores?

Sí. Sistemas automatizados pueden gestionar la distribución a servicios de acogida, generar alertas ante incumplimientos y asegurar trazabilidad completa.


Innovación clave:

  • Alertas automáticas ante desviaciones

  • Integración con supervisión humana y transparencia

  • Ciclo de vida completo del sistema trazado


4. Repatriación Responsable


¿Puede la IA garantizar que una devolución sea legal y segura?


Sí. Antes de repatriar, el sistema debe verificar condiciones del país de origen, existencia de red familiar y legalidad del proceso. Todo debe quedar documentado y auditable.


Condiciones éticas:

  • Evaluación de riesgos adicionales

  • Justificación de riesgos residuales

  • Rastro digital completo


¿Qué principios éticos deben regir estos sistemas?


El estudio subraya cuatro principios fundamentales:


  • Proporcionalidad: solo se justifica si mejora la protección del menor

  • Supervisión humana: ninguna decisión debe ser completamente automatizada

  • Evitar sesgos: entrenamiento y auditoría constante

  • Acceso a recursos: posibilidad de recurrir decisiones tecnológicas


¿Qué lecciones deja la crisis de Ceuta?


Que la falta de herramientas éticas y tecnológicas adecuadas puede llevar a vulneraciones graves de derechos. La IA, bien aplicada, podría haber evitado esas devoluciones ilegales. El AI Act ofrece una oportunidad para que la tecnología se convierta en aliada de la infancia, no en amenaza.



¿Qué propone el estudio como conclusión?


Un modelo conceptual que integra tecnología, derecho y ética para garantizar que los errores del pasado no se repitan. Porque proteger a los menores migrantes no es una opción: es una obligación legal, moral y humana.

 
 
 

留言


bottom of page