Tras la publicación del Reglamento Europeo de Inteligencia Artificial el pasado 12 de julio, comenzó el calendario de progresiva entrada en vigor de sus previsiones, y sobre todo de la interpretación práctica de sus disposiciones. No solo a nivel jurídico, sino a nivel técnico y organizacional.
Con este objetivo, y de modo acorde a lo previsto en el artículo 96 del reglamento, la Comisión Europea está promoviendo diversas iniciativas para elaborar directrices que complementen el reglamento europeo facilitando su interpretación práctica.
El día 12 de diciembre realizamos una contribución de OdiseIA a la Consulta Europea multi-stakeholder para la elaboración de las directrices de aplicación del Reglamento Europeo a la definición de los sistemas de IA y las prácticas prohibidas. La elaboración de estas directrices específicas está prevista en el artículo 96 apartado 1. letras b) y f).
(“Artículo 96. Directrices de la Comisión sobre la aplicación del presente Reglamento
1. La Comisión elaborará directrices sobre la aplicación práctica del presente Reglamento y, en particular, sobre:
.../…
b) las prácticas prohibidas a que se refiere el artículo 5;
.../…
f) la aplicación de la definición de sistema de IA que figura en el artículo 3, punto 1.”)
Las definiciones y prohibiciones del reglamento europeo serán aplicables seis meses después de su entrada en vigor, es decir a partir del 2 de febrero de 2025. Con este horizonte la Comisión ha promovido una consulta europea para disponer de un documento de directrices a principios de de 2025.
El objetivo de las directrices es proporcionar una interpretación coherente y orientaciones prácticas para ayudar a las autoridades competentes en sus medidas de ejecución, así como a los proveedores e implantadores sujetos a la Ley de la IA en sus medidas de cumplimiento, con vistas a garantizar una aplicación coherente, eficaz y uniforme de las prohibiciones y la comprensión de lo que constituye un sistema de IA en el ámbito de aplicación de la Ley de la IA.
El interés de la Comisión está sobre todo en recabar ejemplos prácticos con el fin de aportar más claridad sobre los aspectos prácticos y los casos de uso.
Sobre la definición de sistema de IA
Se espera que las directrices expliquen y clarifiquen los distintos elementos de la definición del sistema de IA con el objetivo esencial de proporcionar características que distingan los sistemas de IA de los “sistemas de software o enfoques de programación tradicionales más sencillos”.
Como es sabido uno de los principales cambios en la evolución del borrador del reglamento fue el cambio de la definición europea original hacia un alineamiento con la definición de la OCDE:
Definición inicial: ‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with;
Definición final: ‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments;
Además de aportar diversas consideraciones y ejemplos, en la contribución de OdiseIA, hemos destacado la necesidad de una mayor claridad técnica para evitar la interpretación como sistemas de IA en sistemas informáticos que no lo son. Y de la conveniencia de clarificación de la caracterización de los sistemas de IA respecto al conjunto de los sistemas informáticos, no solo los sistemas algoritmos más o menos complejos, sino los basados en cualquier tecnología (por ejemplo la informática cuántica), o los sistemas integrados (sistemas informáticos que integran múltiple sistemas de diversas tecnologías, incluida la IA)
Sobre los usos prohibidos de la IA
La segunda parte de la consulta es mucho más extensa, abarcando cada uno de los usos prohibidos establecidos en el artículo 5 del reglamento.
Prácticas subliminales, manipuladoras o engañosas
Prácticas de explotación de vulnerabilidades
Prácticas de clasificación de personas o colectivos (social scoring)
Prácticas de evaluación y predicción del riesgo de comisión de un delito por una persona física
Prácticas de extracción no selectiva de imágenes faciales
Prácticas de reconocimiento de emociones
Prácticas de categorización biométrica de personas físicas
Prácticas de identificación biométrica remota en tiempo real.
Relación con otras normativas legales europeas.
En los diferentes epígrafes hemos aportado consideraciones y ejemplos como los casos de manipulación para influir en procesos electorales, los sistemas de publicidad personalizada, sistemas de reconocimiento de emociones, job scoring, extracción no selectiva de imágenes faciales, etc.
Subrayando la necesidad de establecer unos límites claros en cada una de las prácticas prohibidas, así como en sus excepciones, por ejemplo en relación a la seguridad ciudadana o a los cometidos de las fuerzas de seguridad, en relación a los derechos de las personas. También hemos remarcado que además de las directrices correspondientes a cada caso se debería aclarar por qué estas prácticas sólo se prohíben a los sistemas de IA. Es decir, si se permiten este tipo de prácticas en sistemas algorítmicos (en terminología del reglamento “sistemas de software o enfoques de programación tradicionales más sencillos”) o, en general, en sistemas de otras tecnologías informáticas.
Más info sobre OdiseIA y el Reglamento Europeo de Inteligencia Artificial en el post “
Diciembre de 2024
Contribución a la consulta de la Comisión Europea y post elaborado por
Juan Pablo Peñarrubia, Alberto González, Guido Ricca, y Richard Benjamins.
Commenti