
Search Results
175 resultados encontrados
Eventos (34)
- 30 de octubre de 2025 | 8:00Finca Torre Juana, Av. Pintor Pérez Gil, 16, 03540 Alicante (Alacant), Alicante, España
- 9 de julio de 2025 | 7:00C. de Almagro, 9, Chamberí, 28010 Madrid, España
- 6 de mayo de 2025 | 8:00
Entradas del blog (94)
- Protección de Menores Migrantes: ¿Puede la Inteligencia Artificial Prevenir Devoluciones Ilegales?
Introducción La regulación de la inteligencia artificial (IA) en Europa, especialmente a través del AI Act , marca un hito a nivel global en cuanto pone el foco en el desarrollo tecnológico en beneficio de todos, y a la vez, supone enormes riesgos y desafíos para la protección de las personas, de ahí que, tiene por finalidad proteger principalmente: la salud, la seguridad y los derechos fundamentales. Por lo que este reglamento establece un marco de gobernanza orientado a mitigar los riesgos asociados a los sistemas de IA, con especial atención a las personas en situación de vulnerabilidad. La protección de menores, migrantes, personas con discapacidad o individuos socialmente excluidos se encuentra implícita en varias disposiciones del texto legal. No obstante, la experiencia demuestra que la mera existencia de un marco normativo no es garantía suficiente de justicia ni de protección real, particularmente en contextos complejos como el de la devolución de menores migrantes, donde convergen factores políticos, tecnológicos y éticos. Desde una perspectiva bioética y humanista, ampliamente compartida en los marcos regulatorios europeos, la centralidad de la persona —especialmente del más vulnerable— debe ser un principio rector del diseño, implementación y evaluación de sistemas de IA. Este enfoque coincide con una tradición espiritual profundamente arraigada en la cultura occidental: la enseñanza de Jesús de Nazaret, quien colocó en el centro de su mensaje a los pobres, a los marginados, y a los “pequeños” del mundo. Si revisamos este pasaje bíblico Mateo (25:40) 1 , nos damos cuenta de que esta declaración no solo refleja una ética de la compasión, sino también un principio operativo de inclusión: las acciones políticas o tecnológicas deben ser evaluadas en función de su impacto en los más vulnerables. Este enfoque teológico es coherente con el principio de “non-maleficencia” y el de “justicia distributiva” en bioética, y debería estar explícitamente incorporado en el diseño de políticas públicas como el AI Act . La gestión migratoria en Europa enfrenta retos crecientes, especialmente en lo que respecta a la protección de menores no acompañados. En mayo de 2021, durante la crisis en la frontera de Ceuta, España repatrió decenas de niños migrantes sin aplicar evaluaciones individualizadas ni garantizar el cumplimiento del interés superior del menor. Estos hechos, posteriormente declarados ilegales por el Tribunal Supremo, revelaron las debilidades institucionales para garantizar derechos fundamentales en situaciones de presión política y operativa. En paralelo, la Unión Europea ha avanzado con la creación del AI Act , el primer marco legal integral que regula el uso de la inteligencia artificial según niveles de riesgo para el ser humano, así, principalmente, para la salud, la seguridad y los derechos fundamentales. Este reglamento busca evitar abusos, garantizar derechos y fomentar un uso responsable de las tecnologías emergentes en sectores críticos, incluida la gestión fronteriza. Sin embargo, un análisis transversal de la normativa sugiere la conveniencia de reforzar el artículo 9 del AI Act (relativo a la gestión de riesgos en relación con los sistemas de alto riesgo) con una cláusula que exija una evaluación diferenciada del impacto sobre personas vulnerables, incluyendo la participación efectiva de estas comunidades en los procesos de evaluación ética (¡Atención! En el apartado 9 del artículo 9 se hace alusión a que los proveedores “prestarán especial atención a si, en vista de su finalidad prevista, es probable que el sistema de IA de alto riesgo afecte negativamente a las personas menores de dieciocho años y, en su caso, a otros colectivos vulnerables”. Esta participación sería una expresión práctica del principio de equidad. La inclusión no debe ser entendida como un resultado deseado, sino como una condición estructural del proceso. En este contexto, surge una pregunta clave: ¿puede la inteligencia artificial convertirse en una herramienta para proteger, y no vulnerar, los derechos de los menores migrantes? . Este artículo propone una lectura crítica y propositiva del AI Act , desde la perspectiva de la protección de menores migrantes en contextos de alta vulnerabilidad: demostrar que, si se aplica con un enfoque ético y legal, la IA puede fortalecer los procesos migratorios, reducir errores humanos y actuar como una barrera preventiva frente a decisiones arbitrarias o apresuradas. A través de un modelo conceptual inspirado en el AI Act y principios de derechos humanos, exploramos cómo tecnologías como la identificación biométrica supervisada, la evaluación algorítmica de riesgos individuales y los sistemas de trazabilidad pueden integrarse en los protocolos migratorios para asegurar que los derechos de la infancia sean siempre respetados. 1 Evangelio según Mateo (25:35-40), Jesús declara: “ Porque tuve hambre, y me disteis de comer; tuve sed, y me disteis de beber […] En verdad os digo que en cuanto lo hicisteis a uno de estos mis hermanos más pequeños, a mí lo hicisteis”. Jesús no solo ratifica estas enseñanzas humanitarias, son que las trasciende y radicaliza al introducir una ética basada no el cumplimiento de leyes, sino en el amor incondicional, situándolo como principio fundamental de la vida moral. La crisis de Ceuta y la vulneración de derechos Entre el 17 y el 19 de mayo de 2021, más de 8.000 personas cruzaron la frontera hacia Ceuta tras la relajación del control fronterizo por parte de Marruecos 1 . De ellas, aproximadamente 1.500 eran menores no acompañados. En agosto, el Ministerio del Interior español, bajo presión política y diplomática, procedió a devolver a 55 de estos menores a Marruecos sin una evaluación individualizada de sus casos, en clara contradicción con la Ley de Extranjería, la Convención sobre los Derechos del Niño y el principio del interés superior del menor. A pesar de la existencia de un acuerdo bilateral con Marruecos (2007), ninguna disposición legal puede justificar una repatriación que no garantice que el menor será protegido en su país de origen ni que haya sido escuchado adecuadamente. Las actuaciones y decisiones humanas fueron objeto de duras críticas y finalmente, la sentencia del Tribunal Supremo de 22 de enero de 2024 (Sala Tercera) dejó claro que se trató de una actuación ilegal y desprovista de garantías. El AI Act , clasifica los sistemas de inteligencia artificial en función de su nivel de riesgo 2 . Los sistemas utilizados en contextos migratorios —como los de evaluación de riesgos o reconocimiento biométrico— están clasificados como “de alto riesgo”, lo que exige: Evaluaciones de impacto en derechos fundamentales. Transparencia algorítmica. Supervisión humana constante. Registro y trazabilidad de decisiones automatizadas. Aunque el AI Act no obliga a utilizar IA, sí establece un marco riguroso para su uso ético y seguro. Este reglamento puede servir como palanca para exigir que las decisiones administrativas que afecten a menores estén respaldadas por sistemas auditables, objetivos y trazables. 2 Clasificación RIA: (63) «Modelo de IA de uso general: un modelo de IA, también uno entrenado con un gran volumen de datos utilizando auto supervisión a gran escala, que presenta un grado considerable de generalidad significativa y es capaz de realizar de manera competente una gran variedad de tareas distintas, independientemente de la manera en que el modelo se introduzca en el mercado, y que puede integrarse en diversos sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o creación de prototipos antes de su introducción en el mercado». (66) «Sistema de IA de uso general: un sistema de IA basado en un modelo de IA de uso general y que puede servir a diversos fines, tanto para su uso directo como para su integración en otros sistemas de IA». Un modelo Ético de IA para Proteger a los Menores Se propone un modelo conceptual de aplicación ética de la IA en procesos migratorios que contemple cuatro fases clave: Identificación Segura Uso de tecnologías biométricas no invasivas para estimar la edad o verificar identidad, siempre con validación humana. Esto puede evitar errores como confundir menores con adultos. Relación con el Artículo 9 Identificación y análisis de riesgos (9.3.a) : El uso de tecnologías biométricas debe considerar riesgos como la falsa clasificación de menores como adultos (sesgos en los datos de entrenamiento) , lo que puede vulnerar derechos fundamentales. Supervisión humana (9.6) : La validación humana obligatoria responde al principio de mitigación de riesgos mediante intervención humana , especialmente en decisiones sensibles como la edad o identidad. Contexto de uso (9.7) : Se debe tener en cuenta que los menores migrantes pueden no tener documentos o estar en situaciones de estrés, lo que afecta la precisión de los sistemas. Evaluación Individual Automatizada Sistemas de IA pueden organizar y cruzar datos para priorizar casos vulnerables. Algoritmos entrenados con criterios éticos pueden ayudar a identificar riesgos de explotación, trata o abandono. Relación con el Artículo 9: Evaluación de riesgos previsibles (9.3.b) : Los algoritmos deben prever el riesgo de discriminación algorítmica o sesgos que invisibilicen casos de vulnerabilidad. Diseño ético y mitigación (9.4 y 9.5) : El entrenamiento con criterios éticos y datos representativos es una medida estructural para reducir riesgos sistémicos. Riesgos residuales aceptables (9.6) : Solo si los riesgos no pueden eliminarse completamente, deben ser justificados y comunicados claramente a los operadores del sistema. Protección y Trazabilidad La IA puede gestionar con eficiencia la distribución de menores a servicios de acogida, asegurar su seguimiento, y generar alertas si no se cumple el protocolo legal. Relación con el Artículo 9: Gestión de riesgos durante todo el ciclo de vida (9.2) : La trazabilidad y seguimiento continuo permiten detectar fallos o incumplimientos en tiempo real. Medidas específicas (9.3.d) : Alertas automáticas ante desviaciones del protocolo son una forma activa de mitigación. Interacción entre requisitos (9.5) : La trazabilidad debe integrarse con otros requisitos como la transparencia (art. 13) y la supervisión humana. Repatriación Responsable En caso de retorno, un sistema puede verificar las condiciones del país de origen, la existencia de una red familiar segura y la legalidad de cada paso, dejando un rastro digital completo y auditable. Relación con el Artículo 9: Evaluación de riesgos adicionales (9.3.c) : Antes de repatriar, el sistema debe evaluar nuevos riesgos en el país de origen, como violencia o ausencia de red familiar. Aceptación de riesgos residuales (9.6) : La repatriación solo debe proceder si los riesgos han sido mitigados y se garantiza la legalidad y seguridad del proceso. Documentación y trazabilidad (9.6.c) : El rastro digital auditable es clave para garantizar la rendición de cuentas y la protección de derechos. Garantías Éticas y Límites Necesarios Todo sistema de IA aplicado en este contexto debe regirse por principios fundamentales: Proporcionalidad: solo se justifica si mejora la protección del menor. Supervisión humana: ninguna decisión debe ser completamente automatizada. Evitar sesgos: los algoritmos deben ser entrenados y auditados regularmente para evitar discriminación. Acceso a recursos: los menores y sus representantes deben poder recurrir cualquier decisión tomada con apoyo tecnológico. Conclusión La crisis migratoria de Ceuta en 2021 dejó en evidencia una profunda falla institucional: la incapacidad de proteger adecuadamente a menores no acompañados frente a decisiones políticas apresuradas. El uso de inteligencia artificial, bien regulada y aplicada con criterios éticos pudo haber cambiado el curso de los acontecimientos. El AI Act, la nueva legislación europea sobre inteligencia artificial ofrece un marco sólido para garantizar que toda tecnología utilizada en frontera respete los derechos fundamentales, especialmente cuando se trata de niños. Desde sistemas biométricos con supervisión humana hasta algoritmos que alertan sobre riesgos de vulneración, la IA puede convertirse en aliada de la infancia si se diseña para proteger y no solo para controlar. Este artículo propone un modelo conceptual que integra tecnología, derecho y ética para evitar que errores como los de Ceuta se repitan. Porque proteger a los menores migrantes no es una opción: es una obligación legal, moral y humana.
- ¿Puede la regulación de la IA proteger a los más vulnerables?
Autores: Carmen Muñoz García y William Lúligo Monsalve Subproyecto 1.1 – AI Governance para Poryecto cAIre Google.orgOdiseIA Blog ¿Puede la regulación de la IA proteger a los más vulnerables? La inteligencia artificial generativa —la cara más visible de los modelos de IA de uso general—, se ha incorporado a nuestra vida cotidiana. Desde una perspectiva positiva y genérica mejora nuestra vida, contribuye a nuestra forma de trabajar, estudiar y comunicarnos. Sin embargo, desde una perspectiva negativa desafía los derechos, principios y valores del Derecho debidamente asentados a nivel de la Unión y en otros muchos Estados democráticos. Este desafío negativo amplifica los riesgos para los más vulnerables frente a una tecnología disruptiva: menores, mayores, personas con discapacidad, migrantes, personas con problemas de salud o en situación de pobreza. El reto no es frenar la innovación, sino encauzarla con normas claras y unas prácticas responsables para que nadie se quede atrás. ¿Por qué poner ahora el foco en la protección en la era de la IA? En los últimos años, hemos visto casos preocupantes: adolescentes que, tras interactuar con ChatBot, han tomado decisiones trágicas; adultos que, influidos por respuestas de IA, han sufrido consecuencias graves. Estos ejemplos reales han encendido las alarmas en Europa y el mundo. La IA generativa no solo responde preguntas o crea contenido en distintos formatos y para múltiples fines, sino que ahora también puede tomar decisiones, ejecutar tareas complejas e, incluso, en algunos casos, influir en la salud mental o la seguridad de las personas. Por este motivo, la Unión Europea, con el firme propósito de innovar de manera ética, segura y fiable, y también para garantizar los derechos de las personas, ha dado un paso adelante con el Reglamento de Inteligencia Artificial (RIA), que busca proteger especialmente a los colectivos más vulnerables. ¿Cuáles son algunas de las señales de alerta para las personas y, especialmente, para los vulnerables? Ante los múltiples riesgos de la IA, especialmente para las personas y colectivos vulnerables, es preciso identificar las posibles amenazas que se presentan y los riesgos ciertos que ya se han producido, sin que por ello la lista sea exhaustiva: • Difusión de información falsa convincente (deepfakes) que afecta a la reputación, incita al odio o pone en riesgo la seguridad personal o colectiva. • Sesgos algorítmicos que excluyen en decisiones de alto impacto (como el acceso a la vivienda, empleo, crédito, a la administración pública o la atención sanitaria). • Interacciones automatizadas que refuerzan pensamientos autodestructivos o conductas de riesgo, especialmente en personas con vulnerabilidades emocionales o psicológicas. • Falta de transparencia sobre cómo funciona la IA, qué datos utiliza y qué limitaciones tiene, lo que impide una evaluación informada por parte del usuario. • Automatizaciones de servicios sin canales de ayuda humana claros y accesibles. • Exposición desproporcionada a publicidad personalizada o manipulación emocional, especialmente en menores, personas mayores o con baja alfabetización digital. • Acceso desigual a tecnologías de calidad, donde colectivos vulnerables quedan relegados a sistemas menos seguros, menos precisos o más invasivos. ¿Cómo regula Europa la IA? El RIA clasifica los sistemas de IA según el riesgo que representan: Riesgo inaceptable : prohibidos por suponer una amena para “la salud, la seguridad o los derechos fundamentales” (por ejemplo, IA que manipule a menores). Alto riesgo : por suponer un riesgo elevado para lo antedicho en el párrafo anterior, estará bajo una supervisión estricta (IA en sanidad, educación, justicia). Riesgo limitado o mínimo : para estos, se imponen pbligaciones de transparencia y buenas prácticas. Los modelos de IA de uso general, como los grandes chatbots, tienen reglas específicas. Si un modelo puede causar daños a gran escala (por ejemplo, desinformación masiva o “deepfakes” difíciles de detectar), se le exige cumplir requisitos adicionales: evaluaciones de riesgo, notificación de incidentes y medidas de ciberseguridad. Además, la UE ha creado códigos de buenas prácticas para que los proveedores de IA demuestren que cumplen la ley y protegen a los usuarios. Exigencias regulatorias en términos cotidianos • Documentación y trazabilidad: saber cómo se entrenó el modelo, con qué datos y para qué sirve. • Transparencia y advertencias: explicar límites y riesgos de uso; marcar contenido sintético. • Supervisión humana: que exista intervención y recursos accesibles cuando haga falta. • Ciberseguridad y pruebas: evaluar, mitigar y volver a evaluar ante fallos o abusos. • Notificación de incidentes: comunicar y corregir incidentes graves con rapidez. • Códigos de buenas prácticas: una vía para demostrar cumplimiento de forma uniforme. Guía breve para su implementación Para administraciones y empresas • Inventario de sistemas de IA y clasificación por riesgo. • Evaluación de impacto sobre derechos (especial foco en colectivos vulnerables). • Controles sobre los datos: calidad, sesgo, privacidad y accesibilidad del contenido. • Canales de apoyo humano y mecanismos de reclamación fáciles de usar. • Pruebas de robustez y planes de respuesta ante incidentes. • Uso de model cards y documentación técnica compartible con proveedores posteriores. Para escuelas, ONGs y ciudadanía • Formación básica para reconocer desinformación y contenido sintético. • Normas de seguridad: no compartir datos sensibles, contrastar fuentes, reportar abusos. • Uso de herramientas con buenas prácticas verificables y sellos de confianza. • Exigir explicaciones claras y accesibles sobre cómo funciona un asistente de IA. ¿El Reglamento de IA es suficiente para proteger a los vulnerables? La regulación europea es pionera y necesaria, pero no es infalible. La tecnología avanza rápido y los riesgos cambian. Por eso, además de leyes, principios y valores, necesitamos vigilancia, educación y una sociedad atenta a los nuevos desafíos. La clave está en combinar normas claras, supervisión activa y una cultura de cumplimiento y de responsabilidad. Solo así la IA podrá ser una aliada, y no una amenaza, para quienes más protección necesitan. El objetivo puede parecer simple, pero no lo es: ante una IA tecnológicamente ilimitada, son necesarios límites éticos y normativos, así como actuaciones globales. De ahí que podamos afirmar: progreso sí, pero con garantías .
- El Valor Normativo de las Directrices Éticas en la Gobernanza de la IA Generativa
Introducción La inteligencia artificial (IA) está transformando todos los ámbitos de nuestra sociedad, desde la salud y la educación hasta la justicia y la economía. En particular, la IA generativa, que puede crear textos, imágenes, música y muchas otras formas de contenido, ha abierto nuevas posibilidades pero también ha generado enormes desafíos éticos y sociales. Frente a estos desafíos, los gobiernos, organismos internacionales, instituciones académicas y empresas tecnológicas han desarrollado una serie de directrices éticas que pretenden orientar el desarrollo y uso responsable de la IA. Sin embargo, surge una pregunta crucial: ¿qué valor normativo tienen estas directrices? ¿Son simplemente recomendaciones, o realmente constituyen un marco de obligaciones éticas y legales que deben ser respetadas y promovidas? Esta ponencia busca analizar el valor normativo de las directrices éticas, con foco en los principales marcos internacionales, en especial las directrices del Reglamento Europeo de IA (2019) y los principios promovidos por la OCDE, en un contexto de gobernanza global de la IA generativa. La naturaleza de las directrices éticas: ¿normas, recomendaciones o principios? 1. es fundamental entender qué son exactamente estas directrices. Generalmente, las directrices éticas en IA funcionan en la categoría de principios rectores o normas de comportamiento. Su carácter legal, en muchos casos, es flexible, pero eso no implica que carezcan de peso o valor normativo. 2.2 Son obligatorias o voluntarias? En el caso del Reglamento Europeo de IA (2019), las directrices se enmarcan como obligaciones no vinculantes (soft law), aunque con fuerte impacto en la futura legislación y en la regulación sectorial. La OCDE y otros marcos internacionales emiten recomendaciones y principios que, si bien no son de cumplimiento obligatorio, ejercen un poder normativo mediante la influencia en políticas públicas, estándares técnicos y buenas prácticas. Este carácter dual —de recomendaciones que pueden convertirse en obligaciones— refuerza el valor normativo de estas directrices, ya sea como marco de referencia ético-legal o como compromiso político internacional. Valor normativo: una cuestión de legitimidad y obligatoriedad Lo que diferencia a las directrices éticas de las simples buenas intenciones es su capacidad de influir en el diseño, desarrollo y regulación de la IA. Estas directrices adquieren un valor normativo cuando: Son adoptadas formalmente por gobiernos o instituciones internacionales. Se convierten en referencia obligatoria en licitaciones, contratos o proyectos. Existen mecanismos de supervisión y sanción por incumplimiento. Por tanto, su valor normativo radica en su capacidad de establecer deberes y obligaciones en los actores que desarrollan y despliegan IA. El valor normativo de las directrices éticas en los principales marcos internacionales: 1. El Reglamento Europeo de IA (2019) El Considerando 27 del RIA, aunque no es una norma vinculante en sí misma, establece un** marco ético** que busca que los sistemas de IA sean responsables, transparentes y alineados con derechos fundamentales. La Comisión Europea ya ha avanzado en propuestas de regulación que hacen obligatorio el cumplimiento de ciertos principios, como la explicabilidad, la transparencia y el control humano. Este marco refleja un valor normativo que, en el futuro, puede convertirse en obligaciones legales obligatorias para todos los desarrolladores y usuarios en la Unión Europea, consolidando la ética en la ley. 2. La OCDE y su Marco de Principios sobre la IA (2019) La OCDE establece cuatro principios fundamentales: 1.Inclusión y equidad 2.Transparencia y explicabilidad 3.Seguridad y protección contra riesgos 4. Responsabilidad Estos principios, aunque inicialmente voluntarios, se han adoptado como referencia por más de 50 países y por organizaciones internacionales. La OCDE ha trabajado activamente para que estos principios se implementen en marcos regulatorios nacionales, de manera que su influencia transforma estos principios en obligaciones de facto. 3. Otros estándares internacionales: Directrices de la Comisión Europea para la IA Confiable (2020): Estas directrices refuerzan la naturaleza normativa de los principios éticos mediante requisitos específicos que las organizaciones deben cumplir, como la gobernanza de los datos, la evaluación de riesgos y la supervisión humana. La adopción de estas directrices en el sector privado y público otorga un fuerte valor normativo que puede traducirse en regulaciones vinculantes en el futuro cercanoLa Declaración de la UNESCO sobre la Ética de la IA (2021): Un marco normativo global Contexto y objetivos La UNESCO, como organismo de las Naciones Unidas dedicado a la ciencia y la cultura, reconoce que la inteligencia artificial tiene un potencial transformador, pero también plantea riesgos significativos si no se regula de manera adecuada. La Declaración busca promover una gobernanza ética de la IA que sea universal, inclusiva y respetuosa de los derechos humanos, fortaleciendo la cooperación internacional. La Declaración establece temas clave y principios que deben guiar el desarrollo y la implementación de la IA, entre ellos: -Beneficencia y no maleficencia: La IA debe promover el bienestar, reducir riesgos y evitar daños. -Justicia y equidad: Asegurar que los beneficios de la IA se distribuyan de manera equitativa, evitando sesgos discriminatorios. -Respeto por la dignidad y los derechos humanos: La IA debe respetar derechos fundamentales, incluyendo la privacidad, la libertad y la igualdad. -Responsabilidad y rendición de cuentas: Los desarrolladores, usuarios y responsables deben rendir cuentas por los efectos y decisiones de la IA. -Transparencia y explicabilidad: La tecnología debe ser comprensible y explicable para todos los actores involucrados. Inclusión y participación: Implicar a todos los sectores de la sociedad en la formulación de políticas sobre IA para garantizar que se reflejen diversas voces y necesidades. -Valor normativo y su relación con otros marcos -La principal contribución de la Declaración de la UNESCO es su carácter universal y moral, ya que establece principios éticos que deben guiar la acción de todos los países. Esto aporta un valor normativo global, que, aunque no tiene fuerza jurídica vinculante, establece un pacto ético internacional. En relación con la OCDE y el Reglamento Europeo, la Declaración complementa y refuerza estos marcos: -Similitudes: Todos enfatizan la importancia de la transparencia, responsabilidad, equidad y el respeto a los derechos humanos. -Diferencias: La Declaración incluye aspectos culturales, sociales y éticos más amplios, promoviendo el necesario diálogo intercultural y participación ciudadana en la gobernanza de la IA. Un ejemplo relevante es la referencia que hacen algunas políticas nacionales y organizaciones internacionales a la Declaración como marco ético de referencia para diseñar regulaciones nacionales que sean coherentes con los principios internacionales. Por ejemplo, países como Canadá, Francia y Argentina han mencionado que alinearán sus políticas con los principios de la Declaración de la UNESCO en sus marcos regulatorios. La Declaración sobre la Ética de la IA de la UNESCO (2021) cumple una función crucial en el escenario global, puesto que: Establece valores universales que orientan el desarrollo de la IA hacia el bien común. Potencia la cooperación internacional y la armonización de principios éticos en distintos marcos regulatorios. Refuerza el valor normativo de las directrices éticas, aún cuando no sea jurídicamente vinculante, en tanto que fomenta una responsabilidad compartida de todos los actores sociales, políticos, académicos y económicos. Para futuros profesionales del derecho, la tecnología y la gobernanza, entender y promover estos principios ayudará a construir una regulación ética y efectiva, que garantice que la IA sirva a los valores humanos y sociales, en línea con los desafíos y oportunidades de la era digital. Principios de la AAAS (2019): La American Association for the Advancement of Science promovió principios relacionados con la beneficencia, justicia, autonomía y responsabilidad, orientados a fortalecer la confianza pública en la IA. Aunque de carácter moral, estos principios se convierten en un referente necesario para el diseño de políticas públicas y normativas nacionales. La fuerza del valor normativo: de recomendaciones a obligaciones La transición de la ética recomendada a la normativa obligatoria es una tendencia clara en la gobernanza internacional de la IA. Como abogados, académicos y responsables en innovación, debemos comprender las implicancias de este proceso: legitimidad y confianza: Las directrices éticas se tornan obligatorias en la medida en que son aceptadas, monetizadas en políticas públicas y adoptadas por actores económicos y sociales. Mecanismos de cumplimiento: La existencia de auditorías, certificaciones y supervisión pública refuerzan su carácter vinculante. Innovación responsable: La incorporación temprana de los principios en el diseño del sistema de IA favorece la innovación sostenible, fomentando la confianza y promoviendo la aceptación social. Ejemplo de éxito: La regulación del sector financiero en la UE, que obliga la transparencia en algoritmos de crédito y mecanismos de responsabilidad, muestra cómo los principios éticos pueden formalizarse en un marco legal efectivo que fomenta la innovación segura. La IA generativa, por sus características de autonomía y creatividad, plantea desafíos éticos y jurídicos específicos, como la responsabilidad por contenido generado, derechos de autor, sesgos en datos, y riesgos de desinformación. Para establecer los límites ético-legales en la creación y uso de contenido generado automáticamente. Para definir responsabilidades claras en casos de daños o uso indebido. Para promover prácticas que aseguren transparencia y explicabilidad en estos sistemas. El éxito en la gobernanza de la IA generativa dependerá, en buena medida, de cómo las directrices éticas se conviertan en principios obligatorios y sean operacionalizadas en regulaciones y estándares técnicos. A pesar de los avances, existen desafíos importantes para consolidar el valor normativo de las directrices éticas: -Globalización: La multiplicidad de marcos reguladores puede generar incoherencias, por lo que la cooperación internacional es clave. -Tecnologías emergentes: La rápida innovación en IA requiere que las directrices sean revisadas periódicamente y adaptadas a nuevas realidades. -Cuestiones de cumplimiento: Es necesario fortalecer los mecanismos de supervisión, auditoría y sanción para dar peso legal a estas directrices. Es fundamental que académicos, legisladores y actores tecnológicos trabajen conjuntamente para convertir estos principios en un verdadero estándar de regulación y control que asegure el desarrollo responsable de la IA. Conclusión Las directrices éticas en IA, en particular aquellas promovidas por el Reglamento Europeo y la OCDE, poseen un enorme valor normativo. No solo actúan como principios rectores, sino que gradualmente están configurando un marco legal y regulatorio que obliga a los actores a actuar de manera responsable. En la era de la IA generativa, donde la innovación avanza a pasos agigantados, el valor normativo de estas directrices proporciona una base sólida para garantizar que la tecnología sirva al bien común, respetando los derechos humanos y promoviendo una sociedad más inclusiva, segura y justa. Para los jóvenes abogados, tecnólogos y académicos, comprender y promover la vigencia y estricta aplicación de estos principios no solo es un deber ético, sino la clave para construir un futuro en el que la IA genere valor real y sostenible. REFERENCIAS, Bibliografia. Reglamento (UE) 2019, RIA (Reglamento de IA) OCDE, Principios sobre IA (2019) Comisión Europea, Directrices para la IA confiable (2020) UNESCO, Declaración sobre la Ética de la IA (2021) Maria Gabriela Busellini Abogada. Poder judicial. Investigadora.
Otras páginas (23)
- Quiénes somos | OdiseIA
OdiseIA es un espacio de pensamiento, debate y acción sin ánimo de lucro formado, en noviembre 2019, por empresas, universidades, instituciones y personas físicas que conjuntamente velan por el buen uso de la inteligencia artificial. Conoce al equipo fundador, que también forma la primera junta directiva, así como a los directores de las áreas de trabajo. Quiénes somos OdiseIA es un espacio de pensamiento, debate y acción sin ánimo de lucro formado, en noviembre 2019, por 10 personas que conjuntamente pensaban que era necesario velar por el uso ético y responsable de la inteligencia artificial. En la actualidad está apoyado por empresas, universidades, instituciones y personas individuales. Conoce a la junta directiva, así como a algunos de los socios y colaboradores más activos. Junta directiva Fundadora y presidenta Idoia Salazar AI ETHICIST & AI Regulation,Sandbox | PhD | EU Parliament AI Observatory Expert | UNESCO’s Women4Ethical Expert | USP CEU University Professor |AI for Good | Author Fundador y CEO Richard Benjamins Co-founder OdiseIA | Former Chief Responsible AI Officer | Ethical AI | AI for Good | EC and EU Parliament data AI Expert | AI Advisor to Vatican | Board director CDP Europe | Author Fundador y Secretario Jesús Avezuela Letrado del Consejo de Estado, Director General de la Fundación Pablo VI, Abogado y Académico Co. Real Academia de Jurisprudencia y Legislación, confundador de OdiseIA Fundador y Vocal Ángel Gómez Geopolitical Analyst. Air Force Colonel. Eng PhD., confundador de OdiseIA Fundadora y Vocal Mónica Priefert Formación Profesional Head of Department | Innovación | TechEd | Ethics | IA | confundadora de OdiseIA Vocal Rosa Romero Soler AI & CENIT | Educación & OdiseIA | Public Policy AI | Governance AI | Responsible AI | Regulation AI | AI Researcher Fundador y Tesorero Ricardo Palomo Decano y Catedrático de Finanzas de la Universidad CEU San Pablo. Asesor en transformación digital y disrupción organizacional. Socios Destacados & Colaboradores OdiseIA Borja Adsuara Profesor, Abogado y Consultor, Experto en Derecho, Estrategia y Comunicación Digital. Apasionado por la divulgación. Premio “Día de Internet” 2020 al Mejor Comunicador en Redes Sociales. Coral Calero Mujer, madre, divulgadora e investigadora del impacto del software en el medioambiente. Catedrática de lenguajes y sistemas informáticos en UCLM Lorenzo Cotino Catedrático Derecho Constitucional U. Valencia, coord. www.derechotics.com , Consejo Transparencia C. Val., TSJ contencioso C. Val. hasta 2019. Anna Danés Experta en ética digital que trabaja con organizaciones para crear marcos y métodos prácticos que garanticen los desarrollos éticos de la IA Juan José Escribano Profesor e investigador interesado en el impacto de la tecnología como puente de inclusión social. Fabián García Pastor Senior Advisor for Innovation and Digital Transformation en ENLANZA | Profesor de Emprendimiento y Creación de Empresas en la UPM Patricia Llaque Profesional de las Tecnologías de la Información y las Comunicaciones, con experiencia en empresas y organizaciones internacionales. Trabaja en la intersección de la Inteligencia Artificial y la Psicología Cognitiva y del Comportamiento Juan Murillo Director de Innovación y Desarrollo de Negocio de Zubi Cities Mónica Villas Profesora de tecnologías exponenciales Universidad de Deusto Ignacio G. R. Gavilán Asesor, profesor, escritor y speaker especializado en innovación y transformación digital de modelos de negocio, con foco en la robotización. Fundador y CEO de Reingeniería Digital. Autor del libro “Robots en la sombra”. Socios institucionales Únete al observatorio Instituciones educativas Colaboradores Institucionales Global AI Ethics Consortium Colaboramos con el “Global AI Ethics Consortium (GAIEC)” basado en la universidad de Munich en Alemania, que agrupa a líderes mundiales en ética y IA de institutos como el Oxford Internet Institute, The Alan Turing Institute, The GovLab (US), the Beijing Academy of Artificial Intelligence, Imperial College, and the Singapore Management University. Fundadores del Consejo Editorial de la entrevista “AI Ethics” de Springer Idoia Salazar y Richard Benjamins son miembros fundadores del consejo editorial de la revista academica “AI Ethics” de Springer. La España Azul Colaboramos con “La España Azul” que busca generar un impacto medioambiental a través de de la investigación científica que se llevará a cabo mediante la recolección de datos y muestras en puntos geo-localizados para su posterior análisis en laboratorio. Alianza con TECNALIA OdiseIA y TECNALIA Research & Innovation se unen para impulsar el uso responsable de la Inteligencia Artificial en las empresas. El centro de investigación y desarrollo tecnológico y OdiseIA fomentarán a través de su colaboración acciones en torno a la ética, la responsabilidad y la legislación vigente de esta tecnología. Diploma de alta especialización en inteligencia artificial y su impacto en el derecho en la Escuela de Práctica Jurídica Curso diseñado para profesionales del ámbito jurídico y otros sectores, ofreciendo una comprensión profunda sobre la inteligencia artificial (IA) y su regulación en la Unión Europea. Cubre aspectos técnicos, casos de uso, regulación ética y legal, y el impacto de la IA en diversos ámbitos regulatorios. Además, se analiza el nuevo Reglamento Europeo de Inteligencia Artificial, con un enfoque en la alfabetización digital y la adaptación a normativas vigentes. Enlace al curso aquí .
- OdiseIA | Observatorio del Impacto Social y Ético de la IA
OdiseIA es un observatorio del impacto social y ético de la inteligencia artificial con un equipo fundador de renombre internacional. OdiseIA Observatorio del impacto social y ético de la inteligencia artificial Únete al observatorio Eventos Iniciativas Blog y comunicación Proyecto cAIre OdiseIA lanza el nuevo proyecto cAIre: “caring for vulnerable groups through AI Governance and fair AI in the work place” con el apoyo de Google.org para evaluar el impacto de la inteligencia artificial en nuestra sociedad. Concretamente, se estudiarán las implicaciones en áreas como la gobernanza de la IA, el impacto de los sistemas inteligentes en el ámbito laboral y la repercusión en la ciberseguridad de instituciones públicas y empresas. Acerca del proyecto Protección de Menores Migrantes: ¿Puede la Inteligencia Artificial Prevenir Devoluciones Ilegales? Introducción La regulación de la inteligencia artificial (IA) en Europa, especialmente a través del AI Act , marca un hito a nivel global en cuanto pone el foco en el desarrollo tecnológico en beneficio de todos, y a la vez, supone enormes riesgos y desafíos para la protección de las personas, de ahí que, tiene por finalidad proteger principalmente: la salud, la seguridad y los derechos fundamentales. Por lo que este reglamento establece un marco de gobernanza orientado a m hace 4 días 8 Min. de lectura ¡Forma parte del cambio con OdiseIA4Good! Descubre el segundo hackathon internacional de inteligencia artificial con impacto social organizado por OdiseIA y con el apoyo de Google.org y la Fundación Pablo VI. Innova, colabora y crea soluciones de IA ética para mejorar la vida de colectivos vulnerables. 👉 INSCRÍBETE AHORA Sobre OdiseIA es una asociación civil independiente y abierta a cualquier profesional particular o entidad de cualquier tipo (académica, civil, pública o empresarial) interesada en la IA responsable, que además sirve de nexo entre todas ellas. MISIÓN / VISIÓN QUÉ APORTAMOS QUÉ HACEMOS Trabajamos activamente para impulsar el uso de la inteligencia artificial ética, responsable y legítima. Buscamos soluciones prácticas para conseguir este objetivo. El gran conocimiento y experiencia de nuestra comunidad. Nexo entre sociedad civil, universidad y empresas de toda tipología y tamaño. No nos quedamos en la opinión . Realizamos acciones concretas que permitan a sociedad y empresa asimilar una IA responsable de manera aterrizada a sus necesidades. Compromiso con la sociedad realizando parte de nuestra actividad de manera pro-bono. Volumen y relevancia de actividades con más de 100 acciones abiertas a la sociedad desde nuestra fundación en 2019. Podemos dividir nuestras actividades en: Iniciativas en marcha : acciones concretas para lograr nuestra misión. Eventos : con el objetivo de difundir conocimiento y conectar visiones. Comunicación : para que todos comprendamos esta ola tecnológica. Únete al observatorio Nuestro blog Construyamos juntos el futuro Estamos abiertos a colaborar a diferentes niveles con todas las organizaciones y personas con interés en el impacto social y ético de la inteligencia artificial. Puedes hacerte socio de OdiseIA o escribirnos para cooperar de otra manera. ÚNETE AL OBSERVATORIO Apariciones en prensa Trabajamos activamente para impulsar el uso de la inteligencia artificial, facilitando el balance con la ética, responsabilidad y legislación vigente. Buscamos soluciones prácticas para conseguir este objetivo. Círculo de Comunicación: Inteligencia Artificial, una aliada para el dircom con múltiples retos formativos y éticos Aldeas Infantiles SOS se une a OdiseIA, el observatorio de referencia en España sobre inteligencia artificial responsable Corresponsables y OdiseIA firman un acuerdo de colaboración para promover una comunicación ética sobre la Inteligencia Artificial Carrefour crea un consejo asesor de Inteligencia Artificial para consolidar su transformación digital Un foro clave sobre IA y empleo en la Universidad Complutense Evento — 'II Jornada de Inteligencia Artificial: transformando el presente, creando el futuro' OdiseIA impulsa la formación en Inteligencia Artificial para evitar la exclusión laboral El experto Richard Benjamins aprecia que “nos estaríamos pasando al dotar de moralidad” a la inteligencia artificial Ángel Gómez de Ágreda participa en la mesa redonda sobre IA y seguridad del III Forum Europeo de Inteligencia Artificial Idoia Salazar y Richard Benjamins opinan en el panel de expertos sobre si las organizaciones deben revelar cómo utilizan la IA sus productos. IA verde: cómo hacer la IA más sostenible Idoia Salazar en el Congreso EBEN «Hay que normalizar el uso de la Inteligencia Artificial, la visión apocalíptica no nos lleva a nada» Idoia Salazar opina sobre la regulación de la Inteligencia Artificial en El Español Richard Benjamins e Idoia Salazar opinan sobre la adopción de la IA en las organizaciones en MIT Sloan Richard Benjamins & Sanjeev Ranjan Lorenzo Cotino: "Hoy día no hay seguridad de datos ni ciberseguridad sin IA" ¿Cómo será un mundo en el que convivan humanos y robots? OdiseIA presenta el primer documento GuIA OdiseIA presenta el primer documento GuIA La opacidad es el principal desafío ético de la inteligencia artificial Nace el Observatorio del Impacto Social y Ético de la IA Anuncio del mapa de capacidades de IA en España Se crea un Observatorio del Impacto Social y Ético de la IA Socios institucionales Únete al observatorio Instituciones educativas
- Proyecto Google Charity de OdiseIA
Descrubre cuáles son las iniciativas de nuestra asociación para lograr una IA ética y responsable. Proyecto cAIre cAIre: “Caring for vulnerable groups through AI Governance and fair AI in the work place”. Investigamos la gobernanza de la IA, reimaginamos el futuro del trabajo y fortalecemos la colaboración digital paneuropea para un impacto positivo, equitativo e inclusivo en la sociedad. Objetivos Gobernanza y Grupos Vulnerables Futuro del trabajo Colaboración Paneuropea Impulsando la Gobernanza de la IA, el Futuro del Trabajo y la Colaboración Paneuropea Se investigarán enfoques de gobernanza, se explorarán oportunidades de IA para apoyar a grupos vulnerables, y se promoverá la colaboración entre beneficiarios del Fondo de Futuros Digitales en Europa. Gobernanza de la IA y Oportunidades para Grupos Vulnerables: Investigación de gobernanza de la IA y apoyo a grupos vulnerables. Impacto de la IA en el Futuro del Trabajo: Análisis de la transformación laboral y desarrollo de programas educativos. Colaboración Paneuropea en el Ámbito Digital: Promoción del intercambio de ideas y mejores propuestas en Europa. Saber más Explorando la Gobernanza de la IA y Oportunidades para Grupos Vulnerables Este proyecto investiga los enfoques de gobernanza de la IA y las oportunidades para apoyar a los grupos vulnerables. Compara la situación de la gobernanza de la IA en Europa con el resto del mundo y explora cómo la IA puede beneficiar a estos grupos. Los hallazgos se compartirán a través de documentos, eventos y liderazgo de pensamiento, con el objetivo de crear beneficiarios informados y mitigar los riesgos asociados a la IA. Saber más Preparándose para el Impacto de la IA en el Futuro del Trabajo Este proyecto examina cómo la IA transformará las industrias, los mercados laborales y las estructuras socioeconómicas. Se centra en abordar desafíos como el desplazamiento laboral y la desajuste de habilidades, especialmente para los grupos vulnerables. La iniciativa incluye investigación, eventos de difusión, programas educativos y la promoción de una adopción ética de la IA para asegurar una distribución equitativa de sus beneficios. Saber más Fomentando la Colaboración Paneuropea e Ideas sobre el Futuro Digital El objetivo de este proyecto es mejorar la colaboración entre los beneficiarios del Fondo de Futuros Digitales en toda Europa. A través de discusiones temáticas, documentos de liderazgo de pensamiento y un evento anual presencial, el proyecto promueve el intercambio de ideas y muestra los mejores documentos de liderazgo de pensamiento a los medios y las partes interesadas. Saber más Directorio de documentación en IA Directorio de recursos Inteligencia artificial sobre Gobernanza e impacto en el empleo en el marco de la acción cAIre de OdiseIA (Proyecto cAIre ) presentamos la mayor recopilación de informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia (seleccione “tipo de documento”) sobre temas de Gobernanza de la Inteligencia Artificial y el Impacto de la Inteligencia Artificial en el Empleo, así como ciberseguridad o enseñanza. El presente directorio está realizado por más de 60 miembros del equipo de dichos subgrupos. Gobernanza de la IA Documentación sobre las iniciativas de gobernanza de la IA, su impacto en procesos democráticos, iniciativas de Al for Good y la jurisprudencia asociada. Ver sección Impacto en el empleo Documentación desde múltiples perspectivas del impacto que la IA tiene y tendrá sobre el empleo como: casos de éxito, profesiones del futuro, inclusión, enseñanza y ciberseguridad Ver sección Resultados La adquisición de competencias en IA a través del sistema de educación y formación español Descargar Este estudio analiza cómo el sistema educativo y formativo español puede adaptarse para dotar a los trabajadores de competencias en inteligencia artificial, abordando los desafíos del mercado laboral actual, la transformación digital y la necesidad urgente de recualificación para garantizar la empleabilidad y la competitividad. Estudio de casos de uso: Beneficios y riesgos de la IA generativa en grupos vulnerables tradicionales en el mercado laboral Descargar Este estudio analiza casos de uso de IA generativa que ofrecen beneficios y riesgos para la inclusión laboral de personas con discapacidades, destacando su potencial para mejorar la accesibilidad y autonomía, pero también subrayando la necesidad de reducir brechas tecnológicas y garantizar un uso ético y equitativo. Libro blanco sobre el impacto, regulación y garantías ante el uso de la IA por el empleador respecto de sus trabajadores Descargar Este libro blanco analiza el uso de la inteligencia artificial por los empleadores, sus implicaciones legales, éticas y laborales, proponiendo garantías y recomendaciones para proteger los derechos de los trabajadores y asegurar un uso justo, transparente y responsable de estas tecnologías. El impacto de la IA generativa en el empleo y la sociedad Descargar Este estudio analiza el impacto transformador de la inteligencia artificial generativa en el empleo y la sociedad, explorando fundamentos técnicos, retos éticos y legales, casos de uso exitosos y recomendaciones para un desarrollo responsable y humano. Garantía de inclusión y accesibilidad de IA en entornos laborales Descargar Este subproyecto examina cómo garantizar la inclusión y accesibilidad en los entornos laborales frente al avance de la inteligencia artificial, proponiendo un enfoque ético, regulado y centrado en las personas para que la tecnología potencie la equidad y la participación de todos. Uso de la Inteligencia Artificial de manera responsable en la gestión de RRHH Descargar El informe analiza cómo aplicar la inteligencia artificial de forma ética y responsable en la gestión de recursos humanos, destacando sus beneficios, riesgos y marcos normativos para garantizar transparencia, equidad y respeto a los derechos fundamentales. Cargar más Lineas de trabajo Google Apariciones en medios Publicaciones 1 2 3