
Search Results
94 resultados encontrados
- Posicionamiento de Odiseia sobre el Reglamento Europeo deInteligencia Artificial
La inteligencia artificial (IA) supone una nueva etapa y oportunidad para la humanidad como una herramienta que, regida por principios éticos firmes, puede mejorar la vida de todos. En este momento en el que la IA avanza a pasos agigantados, la aprobación por el Parlamento de la Unión Europea del Reglamento europeo de inteligencia artificial el 13 marzo de 2024 supone un hito histórico. La Unión Europea se sitúa como líder mundial en la regulación del uso de la IA, en la fomentación de una innovación responsable y ética y reforzando la defensa de los derechos humanos, la democracia y el Estado de Derecho. Odiseia, como asociación de referencia en España dedicada a la ética en IA, celebra esta regulación como oportunidad sin precedentes para modelar el futuro de la IA y aprovecha este momento histórico para afirmar públicamente que el Reglamento Europeo de Inteligencia Artificial: Supone una transición de los principios de la ética del uso de la IA a normativas concretas y obligatorias. Ha sido un logro en los últimos años poder asentar y generalizar unos principios éticos de la IA. Los mismos han sido una base sólida para orientar la evolución y expansión de la IA y precisamente para orientar las regulaciones que deben implantarse. No obstante, la evolución tecnológica exige ir más allá de declaraciones. El Reglamento supone una la aplicación efectiva de los principios éticos mediante obligaciones claras y precisas, garantizando así un desarrollo y uso responsable de la IA. Expresa el liderazgo mundial de la Unión Europea en la defensa de valores y la protección de los derechos fundamentales, la democracia y el Estado de Derecho. La Unión Europea adopta un papel pionero al regular varios usos de la IA. Este Reglamento no solo protege a los ciudadanos europeos sino que también podría servir de modelo para otras regiones del mundo. Da seguridad jurídica y confianza en la tecnología. Aunque Europa no lidera la carrera tecnológica en IA, con el Reglamento establece un referente que da seguridad jurídica que facilita también las inversiones estables y brinda confianza pública hacia la IA. El Reglamento es primera regulación general en el mundo, con vocación de permanencia ante el cambio. Este Reglamento no solo es el primero en su tipo a nivel mundial. Pese a la dificultad de regular el uso de una tecnología tan innovadora, como lo ha demostrado la eclosión de la IA generativa, cabe subrayar que está diseñado para perdurar, actualizarse, evaluar su efectividad y adaptarse a las futuras innovaciones tecnológicas. El nuevo Reglamento como punto de partida determina unas líneas rojas de la IA prohibida, que se considera inaceptable en la UE. Así sucede con los sistemas dañinos, manipulativos o que explotan las vulnerabilidades de diversos colectivos. Las prohibiciones evitan la vigilancia masiva y la política predictiva. Igualmente se prohíben sistemas de “crédito social”, existentes en otras latitudes del mundo. Cuanto menos se limita o evita el uso de herramientas policiales discriminatorias y peligrosas especialmente de identificación biométrica y reconocimiento facial en espacios públicos. El Reglamento sigue un muy acertado enfoque basado en el riesgo: clasifica los sistemas de IA según su nivel de riesgo y establece obligaciones preventivas necesarias, evitando obstaculizar la innovación en los sistemas que no son de alto riesgo. determina con bastante precisión los sistemas que son de alto riesgo para la salud, seguridad, vida e integridad de las personas y sus derechos fundamentales. Respecto de estos sistemas de alto riesgo establece un sistema de cumplimiento de obligaciones preventivas y en el diseño. asienta un marco relativamente definido para la IA de propósito general y la generativa permite el desarrollo de todo un ecosistema de sellos y certificaciones de asunción voluntaria para la IA que no se considere de alto riesgo. El nuevo Reglamento se enfoca en garantizar la confianza y seguridad de la tecnología. Busca equilibrar el progreso tecnológico con las garantías y los intereses públicos a través de un mecanismo de supervisión efectivo, el cual incluye evaluaciones de riesgos y auditorías regulares para asegurar el cumplimiento de la normativa. Se enfatizan técnicas de análisis de riesgos y estudios de impacto para la identificación y mitigación de riesgos. También la calidad y la gobernanza de datos juega un papel crucial. Estas obligaciones con las de robustez y precisión de los sistemas de IA pasan a ser esenciales para la evitación de los sesgos y la discriminación algorítmica. La supervisión y control humanos y la ciberseguridad de los sistemas de IA pasan a ser elementos centrales del sistema de garantías en el diseño. En cualquier caso, cabe recordar que todos los sistemas de IA también deben cumplir las normas ya existentes. Especialmente el RGPD ya impone no pocas obligaciones respecto de la calidad de los datos, la explicabilidad & la transparencia, la seguridad y la privacidad. Además, el Reglamento también cubre la IA Generativa, llamada como “General Purpose AI”. En caso de usar estos sistemas para alto riesgo, existe una obligación de transparencia por parte de los proveedores para que el implementador (“deployer”) pueda cumplir con el Reglamento, dado que varios de los requisitos del Reglamento requieren información que solo tiene el proveedor. Para GPAI sistémicos (los muy grandes de las grandes tecnológicas), existen también varias obligaciones como monitorear los impactos, informar de incidencias y el “red teaming”. Sin perjuicio de una valoración general positiva, el Reglamento tiene insuficiencias y elementos que son susceptibles de críticas. Asimismo, hay que evitar que el Reglamento de IA suponga una barrera innecesaria a la innovación, al tiempo de sus desafíos en la implementación y eficacia normativa. La experiencia del RGPD nos lleva a subrayar la importancia de que la implantación del nuevo Reglamento de IA persiga la efectividad de sus objetivos. El Reglamento no ha de convertirse en un conjunto de barreras que limiten innecesariamente el uso de la IA y supongan un freno para la innovación y el desarrollo de una IA que sea positiva para la sociedad así como una barrera a la prosperidad en la UE. También el Reglamento o una mala interpretación o aplicación del mismo puede no ser una garantía efectiva de los derechos e intereses que intenta proteger. Es por ello que con el Reglamento ya aprobado, la ética de la IA debe guiar el desarrollo y criterios de interpretación y aplicación del Reglamento para una IA responsable hacia el bien común. Es esencial desarrollar instituciones, normativas, criterios, directrices, normas armonizadas y normas técnicas, guías de aplicación y de buenas prácticas. Resta una inmensa labor por delante que debe seguir estando inspirada por ética de la IA. En ello ha participado activamente Odiseia y va a seguir haciéndolo en primera línea de España y de la Unión Europea para asegurar que la IA sirva al bien común. Odiseia quiere ahora resaltar el papel insustituible de la ética de la IA y reivindicar también el papel de la sociedad civil en la interpretación y aplicación del nuevo Reglamento europeo de inteligencia artificial. La ética de la IA ha inspirado este Reglamento y los principios éticos también deben favorecer su interpretación y aplicación efectiva. Asimismo, es importante recordar que la mayoría de sistemas de IA no son de alto riesgo. Respecto de ellos el Reglamento actúa como una fuente de inspiración para el cumplimiento voluntario de prácticas éticas en el desarrollo y aplicación de toda tecnología de IA. Odiseia va a continuar la intensa y amplia labor por delante relativa al fomento de la adopción voluntaria de estos principios éticos y regulatorios en estos ámbitos que el Reglamento no alcanza a obligar. Alentamos a todas las partes interesadas, independientemente del nivel de riesgo asociado con sus sistemas de IA, a considerar los principios y directrices establecidos en el Reglamento como un modelo a seguir. El uso responsable de la IA, promovido por el Reglamento, también provee varios beneficios para el negocio y la innovación, como por ejemplo: Cada vez más los inversores miran cómo las empresas gobiernan los sistemas de IA antes de tomar decisiones de inversión. Los clientes cada vez más exigen responsabilidad a las empresas en vez de solo beneficios. La detección temprana de riesgos del uso de la IA permite mitigar o evitar consecuencias negativas mucho más económicas, comparado con una mitigación una vez en el mercado. Atraer talento es un reto importante para las empresas. Promover un uso responsable de la IA atrae y retiene al talento humano. Marzo de 2024 Documento elaborado por Idoia Salazar, Richard Benjamins y Lorenzo Cotino
- La importancia de la diversidad cultural en la ética de la IA
Slava on Unsplash La inteligencia artificial (IA) está progresando. Y si no tenemos cuidado, bien puede convertirse en un caballo de Troya por una sola premisa: la imposición de un enfoque universal para la toma de decisiones éticas. La búsqueda de este Santo Grial de un Código deontológico universal en IA ha dejado a su paso una cantidad notable, si no preocupante, de proyectos destinados a establecer un corpus de estándares éticos para enmarcar su desarrollo. Esta intención es loable. Pero es vital que cuestionemos la base sobre la que se asienta este corpus. La gran cantidad de iniciativas que crecen rápidamente y requieren esta herramienta hace que la necesidad de garantizar la base sea aún más urgente. Debemos hacer dos preguntas fundamentales. ¿Es posible crear una sola herramienta para todo y existe un deseo generalizado de crear una herramienta de este tipo? Un debate dominado por Occidente Yannick Meneceur evidencia el llamado a un código ético al enumerar 126[1] iniciativas en su libro L’intelligence artificelle en procès. En su Inventario global de directrices éticas de IA, el proyecto Algorithm Watch identifica 166[2]. Y un estudio realizado por un equipo de ETH Zúrich encontró 1180 códigos “pertenecientes a principios éticos”[3]. La necesidad de una herramienta universal para la ética de la IA debería hacernos cuestionar su pertinencia y las razones que motivan el crecimiento de tales iniciativas. Lo más preocupante de estos informes es que, en esencia, son publicados esencialmente por un número reducido de personas en un número reducido de países. En el meta-análisis elaborado por ETH Zúrich, que abarca 84 documentos, los autores destacan que “En términos de distribución geográfica, los datos muestran una representación significativa de más países económicamente desarrollados (MEDC), con EE. UU. (n = 20; 23,8%) y el Reino Unido (n = 14; 16,7%) en conjunto representan más de un tercio de todos los principios éticos de la IA “, mientras que “los países Africanos y Sudamericanos no están representados independientemente de las organizaciones internacionales o supranacionales “[4]. En otras palabras, los países occidentales están liderando en lo que respecta a la toma de decisiones éticas. Si le sumamos el peso de la Unión Europea (UE), que está afirmando claramente su voluntad de establecerse como actor normativo, Occidente representa el 63% (53 documentos) de los códigos relacionados con la ética de la IA. Según los autores de “El panorama global de las pautas éticas de la IA”, esta sobrerrepresentación indica una falta de igualdad global en el tratamiento de la IA y muestra que los países económicamente más avanzados están dando forma al debate al “descuidar el conocimiento local, el pluralismo cultural y equidad global”.[5] Algo que limita aún más el alcance de esta asignatura es el hecho de que está monopolizada por un pequeño círculo de “los que saben”, concentrados en el área privada, pública y académica. Incluso dentro de los países occidentales, está claro que el debate está prácticamente cerrado al público. El resultado de este dominio occidental en el campo de la ética en la IA es que el enfoque es exclusivamente a través de la filosofía continental y sus tres teorías de la ética: ética de la virtud, deontología y consecuencialismo. De hecho, en una inspección más detallada, vemos que hay un predominio real del enfoque deontológico. Esto es controvertido porque simplifica al extremo el pensamiento kantiano. Lo reduce a un programa de ética de bajo costo con un conjunto de reglas de arriba hacia abajo. Como vemos, el pensamiento occidental ocupa el espacio de la ética abierto por la IA y a su vez niega la diversidad cultural, la variedad de perspectivas normativas y, en última instancia, la verdadera complejidad del análisis ético. De hecho, la proliferación de códigos, cartas éticas y regulaciones aplicadas a la inteligencia artificial ilustra el estancamiento en el que nos encontramos cuando se trata de intentar alcanzar un consenso sobre estándares universales. Abrirse a la pluralidad ética Necesitamos abrir la discusión sobre las reglas éticas de la IA a diferentes culturas y, por lo tanto, a diferentes perspectivas filosóficas. Sin esto, la IA podría convertirse muy rápidamente en un instrumento de dominación intelectual y del imperialismo moderno. Esto, a su vez, obstaculizaría cualquier posibilidad que tengamos de establecer un conjunto de normas universalmente aceptadas. Más allá de la cuestión de la representación geográfica, la ética de la IA debe pensarse a través de varias filosofías y principios. Y quienes toman decisiones deben abstenerse de basarse en juicios previos. El objetivo de tener un estándar universal ético en IA es que desempeñe su papel en la separación de lo aceptable de lo inaceptable sin un sesgo predeterminado del Bien o del Mal. Y esto solo puede suceder realmente si se tienen en cuenta las diversas identidades culturales y sus filosofías. La negación de la diversidad cultural en esta área se ejemplifica en China, cuyos valores pueden pasarse por alto en Occidente. El punto no es tomar partido y cuestionarse si se debe adherir o no a las posiciones chinas. Es comprenderlos y analizarlos. Como el segundo más poderoso del mundo en términos de IA y con sus 1.400 millones de habitantes, China tendrá un asiento en la mesa cuando se trate de debates sobre IA. Por lo tanto, es importante conocer la larga historia filosófica que tiene China para comprender las perspectivas de las personas y, por lo tanto, poder interactuar con ellas de manera constructiva. Como escribió Anna Cheng en La pensée en Chine aujourd’hui en 2007, “lo primero que siente la gente cuando escucha el adjetivo “chino” y la palabra “filosofía” es incómodo. Puede ser un sentimiento muy sutil, pero ciertamente está ahí”[6]. Este sigue siendo el caso, no solo en el contexto de la IA, sino también en términos de geopolítica. Anna Cheng continúa diciendo que “muchos de nuestros contemporáneos mantienen la impresión de que los chinos no son parte de la conversación debido a su sumisión a un régimen autocrático”[7]. Estas ideas preconcebidas son las que se interponen en el camino para que China desempeñe su papel en las discusiones sobre IA. El controvertido Reino Medio no está solo en ser objeto de este ostracismo. Hay otros países y culturas que son completamente invisibles en este debate, el cual debería ser abierto universalmente. Latinoamérica también se queda al margen a pesar de verse afectada por las decisiones que se toman. Julio Pertuzé, profesor asistente de la Pontificia Universidad Católica de Chile, escribe que “las discusiones sobre ética de la IA están dominadas por otras voces, especialmente las europeas”[8]. Partiendo de la observación de que “si bien el impacto de la IA es global, su debate ha estado dominado por un conjunto muy restringido de actores’’[9], el Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés en Argentina lanzó el GuIA.ai en 2019. Esta iniciativa fue creada para fortalecer “un espacio donde los investigadores regionales puedan discutir la ética, principios, normas y políticas de los sistemas de Inteligencia Artificial y los problemas particulares de América Latina y el Caribe”[10]. Incluso cuando “el tema de la ética de la IA se encuentra en una etapa temprana en la región y aún no hay suficiente información disponible para evaluarlo de manera integral”[11], no faltan países de América Latina y el Caribe que deseen participar. India tampoco se debe pasar por alto. Su presencia en la tecnología, a pesar de ser considerada superficialmente y marcada por el pasado colonial del país, está emergiendo. Y, al mismo tiempo, está poniendo en práctica su estrategia de IA[12]. Mirando más profundamente, las filosofías y sabidurías africanas, como Ubuntu, necesitan su lugar en la conversación. Su etnofilosofía, con ejes temáticos propios marcados por la experiencia[13] y su nacionalismo cultural[14], deben integrarse en nuestros pensamientos sobre la ética en la IA. El continente africano es rico en historia intelectual, experiencias, relaciones con los humanos y la naturaleza, así como en diversidad cultural que es esencial para los debates sobre la ética de la IA. Al igual que en China, “es como si el adjetivo ‘africano’ cubriera un particularismo excluyente”[15]. La filosofía africana, como otras, puede abrir a las personas a nuevas perspectivas y ayudarlas a cuestionar sus convicciones. Como afirma acertadamente Alassane Ndaw, “ser filósofo en África consiste en comprender que no puede haber un monopolio de la filosofía”[16]. Esto es cierto para la filosofía en general, sin importar de dónde venga. En términos del mundo musulmán y el lugar del Islam en el pensamiento ético, nuevamente los prejuicios prohíben su aceptación. Y al hacerlo, se evita que contribuya esta religión centenaria que cubre una increíble diversidad cultural e intelectual. La reducción del Islam a su dimensión geopolítica y componentes islamistas marginales fomenta un rechazo global. Y así esta cultura extraordinaria que enriquecería el debate sobre la ética de la IA no puede participar. Algunos ya han entendido la importancia de liberarse de sus propias convicciones. En Canadá, el reconocimiento de la cultura indígena está surgiendo en el campo de la IA[17], y en Nueva Zelanda la cultura Maorí, están siendo consideradas en las recomendaciones relacionadas con la ética de la IA[18]. Dos ejemplos que conviene seguir. En conclusión La diversidad cultural, sus particularismos y las diferentes perspectivas esbozadas a grandes rasgos son elementos que debemos considerar en la construcción de la ética en IA. Sin prejuicio. Sin juicio de valor. Tenemos que aprender a escuchar para despolarizar y despolitizar el debate. Y al hacerlo, podremos abrirlo a más perspectivas. Actualmente estamos en un callejón sin salida porque no hemos abordado este tema. Y porque, a pesar de tener buenas intenciones, imponemos una visión occidental al resto del mundo. Al imponer ese miedo a otras personas, como es la naturaleza de los seres humanos, asumimos que nuestras ansiedades son universales. Efectivamente, proveemos soluciones a problemas que afectan a la minoría de la población, como si afectaran a todos y todas por igual y descuidando considerar las mismas especificidades de los problemas a los que se enfrentan los demás. Este es el quid de la cuestión: lo universal. Este concepto se ha convertido en una ideología. Pretende abolir las diferencias culturales y rechaza la diversidad lo cual, hoy en día, limita con la tiranía. La indiferencia hacia los demás, la indiferencia que a menudo raya en la hostilidad es el compañero natural de las formas de lenguaje que reduce y a menudo se burla, que Edward Saïd ha denunciado. De hecho, negar la diferencia de los demás es una forma de compensar nuestras propias fragilidades y dudas. Estamos pidiendo a gritos la universalidad de los valores y al mismo tiempo que elogiemos la diversidad cultural. Protestamos contra los prejuicios y la discriminación, pero nos alejamos de ideas que no podemos o no queremos entender. Al tiempo que condenamos los imperialismos chinos o estadounidenses, nosotros mismos estamos imponiendo nuestro propio imperio ético al resto del mundo. En otras palabras, hacemos a los demás lo que no queremos que nos hagan a nosotros mismos. A la luz de esto, el Observatoire Éthique & Intelligence Artificielle del Institut Sapiens, ha decidido dedicar el próximo año a una profunda reflexión sobre el multiculturalismo y la regulación ética de la IA. Esto se hará junto con varios socios como el Illinois Institute of Technology Centre for the Study of Ethics in Professions; el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA); la Artificial Intelligence Society Bahrain; el Institut Français des Études Académique; INDIAai; la Indian Society of Artificial Intelligence and Law; la Université Mohammed Premier à Oujda y muchos otros de América Latina, Asia, África y Oriente Medio. El Institut Sapiens trabajará en la creación de un informe que cubra la importancia del pluralismo cultural en la evaluación de la ética en la inteligencia artificial. Al hacer este informe, así como publicaciones y eventos, el grupo se está fijando el objetivo de ampliar el campo de posibilidades de la ética en la IA. Sin invalidar ninguna perspectiva, ampliará la red de contribuciones de las culturas que conforman nuestra humanidad. Artículo de Emmanuel R. Goffi, traducido del inglés por Arlette Román Emmanuel R. Goffi es un filósofo de IA y director del Observatoire Éthique & Intelligence Artificielle del Institut Sapiens. Anteriormente, sirvió 27 años en la Fuerza Aérea Francesa. Posee un doctorado en Ciencias Políticas de Science Po-Paris y es profesor de ética de IA en Aivancity, School for Technology, Business and Society, París-Cachan. También es investigador asociado en el Centre for Defence and Security Studies en la Universidad de Manitoba, Winnipeg en Canadá. Emmanuel ha enseñado e investigado en universidades de Francia y Canadá y habla regularmente en conferencias, así como en la prensa. Publicó The French Armies Facing Morality: A Reflection at the Heart of Modern Conflicts (París: L’Harmattan, 2011) y coordinó el libro de referencia Aerial drones: past, presente y future- A Global Approach (París: La Documentation francaise, coll. Stratégie Aérospatiale, 2013), así como muchos artículos y capítulos. Referencias [1] Yannick Meneceur, L’intelligence artificielle en procès: plaidoyer pour une réglementation internationale et européene, Paris Brulant, 2020, p. 201 [2] AI Ethics Guidelines Global Inventory, AlgorithmWatch, available at https://inventory.algorithmwatch.org/databas [3] Anna Jobin, Marcello Ienco, Effy Vayena, ‘The Global landscape of AI ethics guidelines’, Nature Machine Intelligence, Vol. 1, 20019, p. 391 [4] Idem [5] Ibid., p. 396. [6] Anna Cheng, ‘Les tribulations de la « philosophie chinoise » en Chine’, La pensée en Chine aujourd’hui, Paris, Gallimard, 2007, p. 156–160. [7] Anna Cheng, Introduction, Op, cit., p. 11–12 [8] Julio Pertuzé, cited in The global AI agenda: Latin America, MIT Technology Review Insights, 2020, p. 6 [9] Norberto Andrade, Promoting AI ethics research in Latin America and the Caribbean, Facebook Research blog, July 2 2020 [10] CETyS| GuIA.ia, Artificial Intelligence in Latin America and the Caribbean: Ethics, Governance and Policies, GuAI.ia [11] Constanza Gómez Mont, Claudia May Del Pozo, Cristina Martínez Pinto, Ana Victoria Martín de Campo Alcocer, Artificial Intelligence for Social Good in Latin America and the Caribbean: The Regional Landscape and 12 Country Snapshots, Inter-American Development Bank, fAIr LAC intuitive report, July 2020, p.34. [12] See in particular Avik Sarkar, Ashish Nayan, Kartikeya Asthana, National Strategy for Artificial Intelligence #AIFORALL, Discussion Paper, NITI Aayog, June 2018; Abhivardhan, Dr Ritu Agarwal, AI Ethics in a Multicultural India: Ethnocentric or Perplexed? A Background Analysis, Discussion Paper, Indian Society of Artificial Intelligence and Law, 2020 [13] Jean-Godefroy Bidima, Philosophies, démocraties et pratiques: à la recherche d’un « universal latéral», Critique, Tome LXVII, N° 771–772 ‘Philosopher en Afrique’, August- September 2011, p. 672–686 [14] Chike Jeffers, Kwasi Wiredu et la question du nationalisme culturel, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 639–649. [15] Séverine Kodjo-Grandvaux, Vous avez dit « philosophie africaine », Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 613 [16] Alassane Ndaw, « Philosopher en Afrique, c’est comprendre que nul n’a le monopole de la philosophie », carried out by Rammatoulaye Diagne-Mbengue, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 625. [17] Karina Kesserwan, How Indigenous Knowledge Shapes our View of AI? Policy Options, February 16, 2018 [18] See Karaitiana Taiuru, Treaty of Waitangi/Te Tiriti and Māori Ethics Guidelines for: AI, Algorithms, Data and IOT, May 04, 2020 or The Algorithm charter for Aotearoa New Zealand, New Zealand Government, July 2020.
- Desafíos de la ciberseguridad en la IA. Análisis del informe de ENISA
Pablo Ballarín Usieto analiza los desafíos de la ciberseguridad en la inteligencia artificial, basándose en el informe publicado recientemente por la Agencia de la Unión Europea para la Ciberseguridad (ENISA). 1. INTRODUCCIÓN ENISA, la Agencia de la Unión Europea para la Ciberseguridad, publicó el pasado mes de diciembre 2020 un informe acerca de los desafíos de ciberseguridad de las soluciones de Inteligencia Artificial. Dicho informe se enmarca en una serie de iniciativas europeas relacionadas con la IA, entre las cuales destacamos el Libro Blanco de la UE sobre IA, el Plan coordinado sobre IA, la política común y las recomendaciones para crear una IA de confianza así como las Guías Éticas para una IA de confianza, la taxonomía para la IA en el ámbito de la defensa desarrollada por la Agencia de Defensa Europea (EDA) o el ya conocido Reglamento General de Protección de Datos de la UE pone la seguridad como uno de sus principios básicos (Art. 5 y Art. 32). Este informe es relevante para OdiseIA porque la ciberseguridad es uno de los pilares fundamentales de la fiabilidad que requerimos a la IA. Sólo cuando tenemos la garantía de que una tecnología es segura, se ganará nuestra confianza. La IA no es solo novedosa, sino que también resulta poco transparente al gran público, por lo que la confianza en su seguridad será clave para que su uso y adopción se generalice. Como sabemos, la IA tiene una serie de características que la diferencian del resto de soluciones tecnológicas, y es fundamental saber cuáles son las amenazas que pueden sufrir y el impacto que pueden llegar a tener. Cuando tenemos claras las nuevas vulnerabilidades y las amenazas, podemos poner en marcha una estrategia de protección adecuada. Esto es especialmente importante en un momento en el que el crimen organizado en Internet es cada vez más relevante, los ciberataques no paran de crecer de forma exponencial y aprovechan cualquier nueva superficie que ofrecen las tecnologías (IoT, Big Data, IA, Cloud, …). En el presente artículo presentaremos los aspectos más relevantes del Informe de ENISA, así como una serie de conclusiones que hacemos desde OdiseIA. 2. ANÁLISIS DEL INFORME Los objetivos del informe abarcan los siguientes puntos: Identificación de los activos que componen las soluciones basadas en IA y que constituyen una nueva superficie de ataque. Identificación de las amenazas en base a una nueva taxonomía, así como una descripción de los escenarios de ataque en los diferentes estadios del ciclo de vida de la IA. Contar con una taxonomía de amenazas de ciberseguridad específica a las soluciones de IA debe permitir a las empresas evaluar riesgos de ciberseguridad de una forma uniforme y repetible para este tipo de aplicaciones, así como identificar identificar cuáles son los controles de seguridad más adecuados. Para poder gestionar la complejidad de estas soluciones, el estudio arranca con una descripción genérica del ciclo de vida de las soluciones basadas en IA. Ello facilita la identificación de los activos que están involucrados (y por lo tanto la superficie de ataque que representan), así como las posteriores amenazas que pueden sufrir. El ciclo de vida de la IA es el conjunto de fases interdependientes que transforman datos de entrada (por ejemplo, imágenes) en una salida (por ejemplo, la identificación de personas) a través de un modelo de predicción que tiene un valor comercial y que está basado en algoritmos (por ejemplo, algoritmos de Machine Learning). Dichas fases abarcan el diseño y desarrollo, la instalación, la operación, mantenimiento, y la retirada. En dicho ciclo, los datos son parte de los activos de más valor, y están en constante transformación a lo largo del ciclo de vida. Al fin y al cabo, datos brutos provenientes de múltiples fuentes son ingeridos y transformados en datos estructurados, que son a su vez procesados para diferentes usos: datos de entrenamiento y datos de prueba usados en modelos de entrenamiento, y datos de evaluación usados en modelos de tuning. 2.1. Activos que intervienen en las soluciones de IA En ciberseguridad, se define un activo como un elemento que puede tener un valor para un individuo o una organización. Partiendo del modelo de referencia del ciclo de vida de la IA, ENISA establece una taxonomía de activos que abarcan activos genéricos que se encuentran en otras soluciones TIC (datos, software, hardware, redes, …), y activos que son específicos a las soluciones de IA (modelos, procesos, artefactos). Los Anexos A y C del informe complementan la descripción e identifican el estado del ciclo de vida de IA al cual pertenece cada uno de los activos. 2.2. Amenazas a las soluciones de IA Las soluciones de IA pueden producir resultados inesperados y pueden ser manipulados para generar resultados no deseados. La taxonomía de amenazas establecida por ENISA parte del trabajo realizado por el Grupo de Expertos de la UE para la IA (EC AI HLEG) que identificó un conjunto de atributos que deben ser evaluados para medir la confianza de las aplicaciones de IA. Estos atributos son la autenticidad, autorización, no repudio, así como otras que son más específicas al ámbito de la IA, como son la solidez, fiabilidad, safety, transparencia, explicabilidad, responsabilidad y protección de datos. Al considerar estos atributos como propiedades de la seguridad, ENISA establece que los impactos potenciales de las amenazas de ciberseguridad a soluciones de IA también pueden ser los siguientes: Autenticidad: los datos de entrenamiento o de test de un sistema de reconocimiento facial han sido modificados y para alterar los resultados. Autorización: una persona ajena al equipo de desarrollo accede de forma no autorizada a una solución de IA y cambia el código, dañando con ello la legitimidad de la aplicación. No Repudio: un emisor no puede demostrar el envío de un correo electrónico con información crítica. Solidez de una aplicación o solución de IA: un asistente virtual usado por un banco en la comunicación con sus clientes deja de funcionar en momentos de máximo tráfico. Fiabilidad de una aplicación o solución de IA: los datos de entrenamiento de un sistema de predicción de crímenes tienen un sesgo racial marcado. Safety[1]: una persona malintencionada logra modificar las funcionalidades esperadas de un coche automático, resultando en un daño al conductor y a las personas del entorno. Transparencia: una empresa se niega a explicar los criterios que ha seguido para enseñar un chatbot a responder frente a determinadas situaciones, aludiendo a que ello daría ventaja a la competencia. Explicabilidad: una empresa es incapaz de explicar los criterios que ha seguido para enseñar un chatbot a responder frente a determinadas situaciones; incluso para ella hay funcionalidades que son cajas negras. Rendición de cuentas: en un accidente donde está involucrado un coche de conducción automática cuyo software de Machine Learning no ha funcionado adecuadamente, no se puede discernir la autoría de la culpa (el desarrollador de la aplicación de IA, el integrador, el fabricante del coche, …). Protección de datos personales: una persona no autorizada accede a los perfiles de usuario generados por una aplicación de ML y los divulga. Haciendo un mapeo de los impactos potenciales sobre los activos identificados en el ciclo de vida de las soluciones de IA, ENISA establece una taxonomía de amenazas dividida en las siguientes 7 categorías: Actividad/Abuso Malicioso: acciones destinadas a robar, alterar o destruir un determinado activo. Escucha/Intercepción/Secuestro: acciones destinadas a escuchar interrumpir o tomar el control de la comunicación de terceros sin ningún tipo de consentimiento. Ataques Físicos: acciones destinadas a destruir, alterar, deshabilitar, robar o acceder de forma no autorizada a activos físicos como infraestructura o hardware. Daño No Intencionado: acciones no intencionadas que causan destrucción o daño de la propiedad o a personas y resulta en un fallo o reducción de la funcionalidad de la aplicación. Fallo o Funcionamiento Fallido: funcionamiento insuficiente de un activo. Interrupción: corte inesperado de servicio o degradación de la calidad del servicio por debajo del nivel esperado. Desastre: accidente fortuito o catástrofe natural que causa daño o pérdida de vida. Legal: acciones de terceros basadas en la legislación, y destinadas a prohibir acciones o a compensar frente a pérdidas producidas. En total, estas 7 categorías se desglosan en 74 amenazas, complementadas a través de los Anexos B y D que especifican el activo afectado y su impacto, así como el mapeo con el ciclo de vida de la IA. 3. CONCLUSIONES El Informe de ENISA aparece en un momento oportuno: La IA se integra de forma progresiva en cada vez más aspectos de nuestra vida. Se están empezando a definir diferentes estrategias de IA, tanto en España como en otros países de la UE y del resto del mundo. El crimen organizado es cada vez más eficaz y rentable, y golpea con cada vez más crudeza organizaciones y ciudadanos. Es por lo tanto indispensable contar con una taxonomía de amenazas que sean específicas a la IA para conocer de qué manera el crimen organizado (u otros actores malintencionados como Estados o Ciberactivistas) pueden poner en riesgo las aplicaciones basadas en IA y cuál es el daño que pueden realizar. Este conocimiento debe ser aprovechado para identificar las estrategias de protección que, no debemos olvidar, es uno de los pilares de la confianza en la IA. Por otra parte, este estudio debe tomarse como un punto de partida. La investigación de la ciberseguridad en el campo de la IA es un trabajo constante que debe revisarse periódicamente. Cada nueva tecnología emergente traerá consigo nuevas amenazas y nuevos impactos que deberán ser evaluados. Por lo tanto, la Taxonomía de amenazas de ENISA deberá ser revisada de forma periódica para asegurar que sigue vigente. Además, hay que tener presente que dicha taxonomía es genérica y aplicable a cualquier sistema o aplicación basado en IA por igual. Cuando se realice un análisis de riesgos, habrá que tener en cuenta el contexto y se deberá evaluar las amenazas que son específicas a cada sector en el que está siendo usado (automóvil, sanitario, industrial, defensa, …). Finalmente, desde OdiseIA somos conscientes que estas iniciativas sólo serán efectivas si las administraciones públicas incentivan que las empresas adopten medidas de seguridad en las soluciones de IA, y los usuarios son cada vez más conscientes y piden seguridad en los productos. Por ello apoyamos este tipo de iniciativas que tienen como objetivo hacer que la IA pueda ser usada de forma fiable, y ayudamos a su divulgación. [1] Entendida como seguridad que no produce daño (al ser humano) o perjuicio. [Para tener acceso al documento de análisis de mayor extensión, no dudes en encontrarlo uniéndote a nuestras redes sociales de Twitter y Linkedin]
- “El dilema de las redes sociales”. Una cuestión de poder
El debate La tecnología que nos conecta también nos controla, manipula, polariza, distrae, monetiza, divide… El mensaje y las conclusiones de los autores y protagonistas del documental son claros y directos. Sobre ellas, sobre el “dilema de las redes sociales”, las reacciones que ha provocado o las posibles actuaciones o soluciones frente al poder de las redes han debatido dos decenas de socios de OdiseIA, profesionales de distintas áreas, muy vinculados y conocedores de las últimas tecnologías en sus distintas aplicaciones. Apenas empezado el diálogo un primer punto, de acuerdo, haberlo visto o saber de qué va el documental está siendo el origen de una conversación que ha transcendido más allá de él, expandiéndose exponencialmente sin limitarse por fronteras, para poner fuera de las redes cuestiones como la consciencia social o cómo se diseña y funciona la tecnología que usamos tan habitualmente y a la que, en general, tan poca atención se presta con toda la importancia e impacto que tiene en nuestras vidas. Salud mental En el ¿bienestar digital? en el que vivimos esta ficción de Netflix explica cómo funcionan los algoritmos y sus objetivos y nos plantea distintos dilemas, como el de la salud mental. Tal como recoge un estudio de 2017 de la American Journal of Epidemiology se comprobó que un mayor uso de los medios sociales se correlacionaba con un descenso de la salud mental y física y de la satisfacción con la vida. Algunos de los participantes en el debate, por propia experiencia, hablaron de esa fatiga, de acabar siendo profesionales “quemados”, de la hiperconectividad sin horarios y de cómo acaba afectando a la salud física y mental, en demasiadas ocasiones, sin que nosotros mismos queramos ser conscientes de ello pensado que lo tenemos controlado. También, pese a todas estas contrariedades, de la oportunidad que encontraron para un cambio, para descubrir de dónde viene esta tecnología, de la necesidad de la ética y de hablar y tener en cuenta un bienestar digital real, de hacer y fomentar el uso responsable de la tecnología y de la ocasión, tanto personal como en la sociedad, para tomar decisiones y acciones. Propuestas planteadas fueron mantener relaciones más saludables con la tecnología, como el Digital Wellness, o “tomar acción” para que se diseñe, regule y use pensando en la sociedad. Un apunte, muy presente en la serie y cotidiano en nuestros días, el impacto que tiene en la juventud el uso de las redes, su dependencia, las relaciones que establecen en ellas, etc. en un momento clave de sus vidas, el de la construcción de sus propias identidades y la formación de su personalidad. Ahora además se produce, con esta pandemia, con un enorme distanciamiento afectivo, con la alteración de referencias que permitan entender lo que se ve, lo que se siente… Discriminación y sesgos Entre otros temas de trabajo de OdiseIA está uno de los dilemas planteados, el de la discriminación y los sesgos. La propia Facebook, protagonista indiscutible del documental, recogía en un informe interno de 2018 que el 64% de las personas que se unieron a grupos extremistas en Facebook lo hicieron porque los algoritmos los guiaron hasta allí, al igual que le sucede a uno de los actores que interpreta un papel principal en “El dilema de las redes sociales”. No deja de sorprender que la tecnología, que es agnóstica en sí misma, tenga tantos efectos positivos y, a la vez, tantos negativos. Es paradójico que nos haya dado acceso a la mayor cantidad de información abierta jamás imaginada por el ser humano, haciendo visible tanto la histórica como la actual, pero que, al mismo tiempo, los algoritmos sean los creadores de burbujas basadas en recomendaciones personalizadas que, finalmente, limitan nuestro acceso y conocimiento de múltiples contenidos por estar en un bucle continuo de información, datos o contactos similares a los “supuestamente” preferidos por el usuario. Es en este círculo limitado en el que coinciden las opiniones y preocupaciones de la mayoría de los participantes en el debate, en estos nichos que restringen el conocimiento o en los que, para los juristas y especialistas en IA del grupo, priman los beneficios dando al usuario “lo que sea”, los intereses empresariales y, en especial tener poder, sobre la ética, el respeto o en la definición de cómo será un futuro claramente tecnológico. Encuentran en este modelo de negocio un gran riesgo de “destrucción masiva” ya que, opinan, “no predicen el futuro, lo causan” y es difícil de discernir si estas actuaciones o los comportamientos de los algoritmos, como los sesgos, son inevitables, involuntarios o voluntarios, responsables… Debate sobre “El dilema de las redes sociales” en OdiseIA Para las personas juristas del grupo, el aislamiento de la realidad, la creación de vidas paralelas que forman sociedades digitales virtuales que replican al mundo real o crean nuevas con sus ciudadanos, sus principios, sin fronteras… supone un desafío y una preocupación ya que, en nuestra vida cotidiana el marco normativo es muy importante, pero ¿con qué reglas, valores, principios, etc. se rigen estas sociedades virtuales? ¿Cuáles pueden considerarse como correctas? ¿Cómo podría ser su traslación al mundo real? Democracia y fake news Un dilema crítico en la actualidad es el de la democracia, con el aumento de las fake news y las campañas de desinformación, recogidos en múltiples informes de gobiernos, organizaciones, instituciones, ONGs… o con el impacto que han tenido en distintas elecciones, como fue el caso de las presidenciales estadounidenses de 2008 o el escándalo Cambridge Analytica. El control y uso de los datos, basado en el conocimiento de la psicología social y en los hábitos, costumbres y preferencias de los usuarios/clientes, carente de preocupación por cumplir o proteger derechos fundamentales por la obtención de beneficios empresariales, ha demostrado que marca y condiciona comportamientos individuales y colectivos pero, ¿deberían ser así? ¿Es suficiente el criterio de un algoritmo para conceder, restringir o denegar información o servicios? ¿Para determinar actuaciones humanas?… Como pueda ser desde la compra de una prenda de vestir a la orientación de un voto en cualquier democracia consolidada y libre. Estos condicionantes del comportamiento inquietan por la amenaza que supone que un algoritmo, o los intereses que estén detrás, puedan causar una “uniformidad de manipulados” con un comportamiento predecible por los dictados de la IA o por cumplir con los requisitos que esta supuesta inteligencia superior pueda plantear, aunque ésta sea “estúpida”. Surge, incluso, la pregunta de si las tecnologías “inteligentes”, o sus aplicaciones, deberían ser un servicio público, con sus reglas, instrumentalizadas y definidas dentro de un modelo social. Impacto personal Con todas estas cuestiones en debate entre los socios se planteó una cuestión personal: “¿Qué os ha parecido, qué os ha hecho sentir el documental?”. Respuestas habituales fueron “sorpresa, impotencia, preocupación, inquietud, pena, escepticismo…” por el uso que se da a la IA, por los sesgos y el modelo de negocio basado en la extracción de datos de los usuarios, por el “¿dónde vamos o hasta qué punto llegaremos?”. También felicidad por que este tema empiece a ser conocido, que genere impacto en la sociedad y que seamos conscientes de los grandes beneficios de la tecnología, de los avances o de las ventajas de conectar y compartir, pero siendo conscientes de que “el mal está ahí”. Por otro lado, se echó en falta determinados contenidos o la participación de responsables o personal actual de Facebook, dado que las personas protagonistas fueron empleadas hace años o son ajenas completamente a ellos. También que pueda ser en algunas cuestiones amarillista, excesiva o carente de matices. Es importante destacar que Facebook, en una acción poco habitual, ha dado en siete puntos una respuesta oficial a este documental de Netflix, cuyo algoritmo, no dejó de ser comentado. ¿Acciones? Y si estamos concienciados e impactados, ahora: ¿qué acciones se podrían tomar? Hay una primera reflexión histórica: las audiencias siempre se han buscado. Desde hace décadas se estudian comportamientos para adaptar los contenidos a la demanda, intereses o, más recientemente, la experiencia de usuario. Hace unos años llegaron la IA y los algoritmos, con todos sus beneficios y de la mano de dos cuestiones negativas: el concepto de burbuja (ejercicio de eficiencia como modelo de negocio) y la vinculación emocional. Las redes sociales podrían, de alguna manera, asemejarse al modelo de negocio del narcotráfico: crean adicción y redes clientelares para influir en las acciones de las personas, modificar su conducta y, esencialmente, tener dinero y poder. Un primer paso sería identificar qué acciones están en manos de las redes o de quiénes las controlan y cuáles en las nuestras. Como usuarios deberíamos recuperar capacidad crítica y sentido común para tener la oportunidad de decidir y definir quiénes somos y qué queremos. Como ciudadanía es importante ser consciente de que tenemos un problema colectivo, así como trabajar y demandar mejoras en la educación, en que se enseñe a manejar la tecnología y a tomar decisiones o en el conocimiento y protección de la ética y los derechos, sin olvidar los deberes. ¿Cómo podemos llevarlo desde abajo hasta arriba? Frente al escepticismo y falta de acción de las compañías, ya que la ética no es rentable económicamente, sí que se puede sensibilizar y movilizar a la sociedad (usuarios y clientes de las redes) y convencer a los anunciantes (financian este modelo de negocio), para que tomen acciones que obliguen a las empresas a tomar decisiones directas. Como usuarios/consumidores tenemos margen de influencia y responsabilidad, las empresas anunciantes, que se juegan su dinero e imagen, también. Además, frente a los modelos estadounidense y chino, en los que priman el mercantilismo, el control y la homogeneización para beneficio de empresas y estado, nunca para el individuo (al que se ha privado de sentido crítico y responsabilidad), en Europa contamos con el amparo del marco legal que proporcionan las instituciones comunitarias y que, en la mayoría de los estados miembros, se aplica en las legislaciones nacionales. En el tintero China, al igual que otras cuestiones “elefantes” como el uso de perfiles falsos o el flujo de datos a las agencias de inteligencia, quedaron apenas comentados por falta de tiempo. También si ahora sabemos que nuestros datos cuestan y generan negocio y dinero ¿hasta qué punto queremos ceder nuestra privacidad gratuitamente? ¿Qué consideramos como irrenunciable? Seguro que en próximas citas de OdiseIA estas y otras preguntas encontrarán debate y respuesta. David Corral Hernández es Responsable de Innovación de Contenidos en RTVE y Socio de OdiseIA. [Este artículo no representa la posición oficial de RTVE ni de OdiseIA en su conjunto]
- Hablemos de ética de los robots: Área Relación Robots-Personas
Desde OdiseIA prestamos especial atención al Área de Relación Robots-Personas, donde nos ocuparemos de soluciones como los robots sociales o la interacción cerebro-ordenador, proporcionando criterios éticos y buscando sobre todo el impacto social positivo. En OdiseIA seguimos avanzando y cubriendo más y más desafíos éticos y sociales ligados a la inteligencia artificial y también más y más enfoques sectoriales que van a encontrar un fuerte impulso con la puesta en marcha de nuestra iniciativa GuIA. En el apartado de desafíos ya trabajamos en aspectos tan importantes como la privacidad o la Inteligencia Artificial Inclusiva. Pero además, y en esa línea de avanzar en nuevos desafíos, prestamos especial atención a un área cuyo objeto de trabajo son los robots y, más concretamente, la interacción de los robots con las personas. Y, por ello, hemos bautizado a esta área como “Área de relación robots-personas”. Se trata de un área muy transversal. Un área en cuyo desarrollo y análisis se entrecruzan, por supuesto, elementos tecnológicos y problemáticas éticas, pero donde tienen también mucha cabida las aportaciones provenientes de campos como pueden ser la psicología, la antropología o la sociología. En el área de relación robots-personas nos centraremos principalmente en el análisis de tres tipos de soluciones y sus implicaciones éticas y sociales: 1) Robots sociales: un tipo de robots que salen del ámbito de la fábrica o el almacén para llegar al mundo de los servicios e, incluso, al ocio, a los hogares o a la atención socio-sanitaria. Un tipo de robot que con mucha frecuencia adopta formas humanoides y que se relaciona con las personas usando nuestros mismos medios de comunicación social como puede ser la voz, la mirada, el gesto, la expresión facial o el movimiento. Y unos robots que son capaces de detectar emociones en las personas y de expresarlas ellos mismos de una forma consistente y natural. En la base tecnológica y científica de este tipo de soluciones se encuentran, aparte de todos los aspectos propios de la robótica general y de la inteligencia artificial, incluyendo la visión artificial o el procesamiento de lenguaje natural, disciplinas más especializadas como HRI (Human-Robot Interaction) o ‘Affective computing’. 2) Asistentes virtuales y altavoces inteligentes: un tipo de soluciones ya bien conocidas por el gran público y que se relacionan con las personas fundamentalmente mediante el lenguaje y la voz. Aunque en su diseño y aspecto son planteamientos quizá algo más alejados de lo que normalmente entendemos por robot, al menos un robot humanoide, comparten con la robótica social algunos de sus desafíos éticos y posibilidades sociales y por ello parece conveniente unirlos bajo un mismo paraguas de estudio. 3) Exoesqueletos e interacción cerebro-máquina: unas tecnologías y soluciones que cambian el paradigma usado en los dos anteriores. En este caso, la relación entre la persona y la máquina o estructura robótica (como puede ser un exoesqueleto), no se produce mediante mecanismos de interacción social como el lenguaje, sino mediante una conexión directa de la máquina con el cerebro o el sistema nervioso de la persona según las tecnologías agrupadas bajo la denominación BCI (Brain Computer Interface). RELEVANCIA ÉTICA DEL ÁREA RELACIÓN ROBOTS-HUMANOS Los planteamientos éticos en lo relativo a la relación de los robots con las personas presentan facetas muy especiales. Es cierto que algunas de las problemáticas éticas que nos podemos encontrar son comunes a otro tipo de sistemas y soluciones. Así, por ejemplo, sigue siendo un reto el mantener la privacidad e intimidad de las personas. Al fin y al cabo, los robots, en su interacción con las personas, recogen información proveniente de éstas. Polémicas como la eventual escucha y procesamiento de conversaciones por parte de sistemas de altavoz inteligente están encima de la mesa y forman parte de la actualidad. Sin embargo, una parte importante de los retos éticos relacionados con los robots son sutiles y singulares. Sin abandonar todavía lo relativo a la privacidad, conviene tener en cuenta que algunos robots sociales captan información emocional de las personas. Es más, las personas pueden aportar, en la confianza que adquieren con el robot, información sensible sobre ellos mismos o su entorno. Y qué decir cuando esa información puede provenir directamente del cerebro o sistema nervioso de la persona. Se trata, pues, de una forma de enfocar la privacidad algo diferente, no tanto quizá en sus fundamentos éticos e incluso legales, pero sí probablemente en cuanto a su estudio teórico y procedimentación práctica. Quizá uno de los retos éticos más relevantes en lo relativo a la relación de los robots con las personas tenga que ver con la vinculación afectiva. Las personas tienden a establecer una vinculación emocional con los elementos con los que interactúan, sean estos animados o inanimados. Esto es especialmente relevante en el caso de los robots sociales en que con frecuencia su diseño intenta de forma intencionada, precisamente, establecer una relación satisfactoria con el interlocutor humano. Esto se suele hacer con la mejor de las intenciones y con frecuencia, con el mejor de los resultados, ya que la interacción es más natural, más fácil, más agradable y más productiva. Sin embargo, conviene estar prevenidos ante una vinculación emocional excesiva de los humanos con los robots, una vinculación que pueda degenerar en dependencia emocional del robot o incluso en aislamiento de otros seres humanos. Y, por desgracia, los robots, como cualquier sistema digital, pueden ser objeto de uso malicioso o de ciberdelincuencia y ser usados, por ejemplo, para la manipulación de las personas o la obtención de información sensible. Nuestro último bloque de soluciones objetivo, las interfaces cerebro-ordenador y los exoesqueletos, compartiendo algunos retos con los otros tipos de soluciones robóticas, abren algunos debates éticos tal vez más futuristas y quizá también de un mayor calado filosófico y trascendental, entrando en relación con temáticas como la propia naturaleza humana, el transhumanismo o la humanidad aumentada. VISIÓN Todos esos retos éticos forman parte del campo de trabajo de esta área. Sin embargo, la existencia de esas problemáticas éticas, no debe ser impedimento para una visión optimista y orientada a la acción. Los robots tienen muchísimo que aportar a nuestra sociedad. Y no hablamos únicamente, de todo lo que tiene que ver con avance tecnológico, con eficiencia de procesos, con nuevos productos y servicios o con desarrollo económico. Todo ello justifica, de sobra, el interés por los robots y la apuesta por su desarrollo e implantación. Pero además los robots ofrecen unas posibilidades fantásticas de impacto social positivo, un impacto que, más allá de lo estrictamente económico, nos permite de hablar del uso de los robots para el bien. Existen experiencias exitosas, por ejemplo, del empleo de robots en educación y no sólo en educación general de niños o personas, sino también en la educación de niños, por ejemplo, con trastornos del espectro autista. Existen también pilotos de soluciones basadas en interacción cerebro-ordenador para mejorar las condiciones de enfermos de Parkinson, y, combinados con exoesqueletos o estructuras robóticas, para la rehabilitación incluso de tetrapléjicos. Se ha experimentado también con éxito en el alivio de la soledad, en la compañía y ayuda a ancianos e, incluso a personas afectada de demencia empleando robots sociales. Las posibilidades de uso de los robots para el bienestar de las personas, especialmente de colectivos vulnerables o desfavorecidos, constituyen por sí mismos una exigencia ética. Y, en el fondo, es esta última exigencia ética la que más nos anima e impulsa. En esta nueva área que ahora lanzamos, el área de relación robots-personas, queremos crear conciencia y hacer divulgación. Queremos también proporcionar criterios éticos para el uso de este tipo de soluciones basadas en robots. Pero, sobre todo, nos encantaría conseguir ese impacto social positivo. Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es Profesor, Director académico y mentor de proyectos en Escuela de Organización Industrial y colaborador en otras escuelas de negocio. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y en 2021 ha publicado “Robots en la sombra: RPA, robots conversacionales y otras formas de automatización cognitiva” (Anaya Multimedia).
- ¿Qué implicaciones va a tener la AI Act europea sobre las soluciones para Ciudades Inteligentes?
El borrador de la ley europea sobre inteligencia artificial establece nuevos requisitos para las soluciones tecnológicas que hagan uso de la inteligencia artificial en casi todos sus ámbitos de aplicación. En este análisis desgranamos las implicaciones para aquellas soluciones destinadas a optimizar procesos de gestión urbana. El pasado mes de abril de 2021 la Comisión Europea presentó una propuesta de ley sobre inteligencia artificial que en la actualidad se encuentra en tramitación parlamentaria. En aquel momento debatimos sus principales novedades en esta jornada organizada por OdiseIA y FIAL. Hoy queremos aterrizar sus implicaciones en un ámbito bastante transversal como es el de las soluciones orientadas a mejorar la gestión urbana, IA para ciudades inteligentes. Ante la regulación hay básicamente dos actitudes: hay quienes la consideran una barrera para la innovación, y quienes consideramos que ha sido precisamente la regulación la que ha contribuido de forma determinante a la seguridad en muchísimos ámbitos: el transporte terrestre, aéreo o la seguridad alimentaria son ejemplos del pasado. Hoy llega al ámbito de los desarrollos tecnológicos, y sin duda será positivo para evitar determinados riesgos a través de protocolos y controles de calidad. El primer punto a destacar es la definición amplia de inteligencia artificial que hace el borrador en su artículo 3 y en su anexo I. Así, cualquier sistema que recabe datos y los procese para generar un resultado (desencadenar una acción o decisión, esté o no automatizada) cae bajo dicha definición y por tanto bajo lo dictado por esta nueva norma, independientemente del nivel de sofisticación analitica de los algoritmos empleados en el procesamiento de datos para generar la información de salida. El segundo punto relevante es que la AI Act hace una jerarquización de las soluciones específicas en función de su riesgo potencial. Esta taxonomía no se basa en sectores específicos (salud, justicia, movilidad, ciudades inteligentes, etc.) sino que reconoce que dentro de cada uno de estos sectores puede haber multitud de casuísticas de nivel de riesgo muy dispar, y por tanto es más granular: se centra en aplicaciones específicas que pueden aplicar a uno o varios de estos sectores. Así, distingue entre las siguientes clases: Aplicaciones prohibidas (título II, art. 5) Aplicaciones de alto riesgo (título III, art. 6 y siguientes) Aplicaciones sujetas a obligaciones de transparencia (título IV, art. 52) Resto de aplicaciones, que podrán estar sujetas a códigos de conducta voluntarios (título IX, art. 69) Recorramos a continuación las soluciones utilizadas en ciudades inteligentes de acuerdo a esta jerarquización según su primera versión, que será revisada periódicamente. 1.-Aplicaciones prohibidas Entre otras, prohíbe las aplicaciones de IA para vigilancia y seguridad ciudadana mediante identificación biométrica remota «en tiempo real» en espacios de acceso público*. *salvo que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes: i) la búsqueda selectiva de posibles víctimas concretas de un delito, incluidos menores desaparecidos; ii) la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de un atentado terrorista; iii) la detección, la localización, la identificación o el enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido algún delito grave (para los que la normativa en vigor en el Estado miembro implicado imponga una pena privativas de libertad cuya duración máxima sea al menos de tres años) Aquí hay varios aspectos por revisar: ¿qué riesgo se quiere evitar? Si es la vigilancia indiscriminada por el problema de privacidad que supone, entonces debería prohibirse no solo «en tiempo real» sino también «en diferido», y además debería vetarse que se haga cuando es un humano el que está tras la cámara, o en caso contrario estaríamos penalizando una tecnología como la IA, y no una aplicación. La segunda cuestión abierta es si por «espacio de acceso público» estamos abarcando no solo espacios de titularidad pública (calles, plazas, edificios administrativos, terminales de transporte) sino además todo inmueble abierto al público y accesible por la población general (comercios, oficinas bancarias, etc.). Recordemos que el vigente reglamento general de protección de datos europeo y la LOPD nacional ya fueron suficientes para sustentar la sanción de AEPD frente a Mercadona. 2.-Aplicaciones de alto riesgo Entre ellas, las que pueden afectar a un gobierno local o a una empresa de prestación de servicios urbanos son: Sistemas de IA que manejen maquinaria con efectos potenciales sobre la seguridad física de sus usuarios, lo que afecta a las soluciones de movilidad mediante vehículos autónomos, entre muchas otras. Sistemas de IA de identificación de personas por imagen, voz o cualquier otra característica personal, lo que afecta a los sistemas autenticación biométrica utilizados por cualquier entidad, incluídos los desarrollados para facilitar las interacciones entre un ayuntamiento y los ciudadanos, o los de control de acceso a edificios públicos por parte de ciudadanos o empleados municipales. Relaciones laborales y gestión de recursos humanos: sistemas de IA que guíen decisiones de contratación, promoción, despido, o la asignación de tareas y evaluación del rendimiento de empleados. Algo que afectará a entidades tanto públicas como privadas y que responde a preocupaciones desencadenadas por determinadas consecuencias del uso de algoritmos para estos propósitos. Acceso a servicios públicos esenciales: sistemas de IA para evaluar la admisibilidad de las personas físicas de cara a regular su acceso a prestaciones de asistencia pública, o que prioricen la respuesta en el envío de servicios de primera intervención en situaciones de emergencia (bomberos, policía, protección civil, restablecimiento de servicios urbanos, etc.) Asuntos relacionados con procesos democráticos: queda por ver si se ciñe a sistemas informáticos para facilitar procesos electorales, o abarca también las herramientas utilizadas en procesos de participación ciudadana. Todas estas aplicaciones estarán sujetas a una serie de requisitos que comenzarán por la obligación de registrar la solución desarrollada en una una base de datos pública para toda la UE, lo que permitirá que las autoridades competentes, los usuarios y otras personas interesadas verifiquen si un sistema de IA de alto riesgo cumple los requisitos estipulados, y que se resumen en el siguiente cuadro: 3.-Aplicaciones sujetas a obligaciones de transparencia Los sistemas de IA destinados a interactuar con personas físicas -por ejemplo, los chatbots de atención ciudadana, ya sea por comunicación escrita u oral-estarán diseñados de forma que dichos ciudadanos estén informados y sean conscientes de que están manteniendo una conversación con un sistema de IA, excepto en las situaciones en las que esto resulte evidente debido a las circunstancias y al contexto de utilización. 4.-Códigos de conducta voluntarios para el resto de aplicaciones La Comisión y los Estados miembros fomentarán y facilitarán la elaboración de códigos de conducta destinados a promover entre el resto de sistemas de IA no considerados de alto riesgo la aplicación voluntaria de todos o algunos de los mencionados requisitos establecidos para el control de dichos sistemas. Conclusiones La propuesta de ley sobre inteligencia artificial de la Unión Europea es pionera a nivel mundial al establecer un marco claro de desarrollo y uso de la IA sobre la base de las consideraciones que las diferentes estrategias nacionales de IA ya habían avanzado en los últimos años. Los estándares de trabajo, controles de calidad, procesos de certificación y agencias de control que deriven de esta novedad regulatoria dotarán de nuevas garantías de seguridad a los ciudadanos de la UE, y los desarrolladores extranjeros que desplieguen sus soluciones en la UE estarán también obligados a cumplir con este nuevo marco. Los sistemas de IA sujetos a requisitos son ante todo aquellos que interactúan con los ciudadanos, y que comportan riesgos potenciales para los bienes jurídicos que la AI Act quiere proteger: la seguridad física de los individuos, su intimidad, o sus derechos de acceso a servicios públicos en igualdad de condiciones y sin sufrir discriminación. El resto de aplicaciones a priori no estarán sujetas a requisitos especiales, salvo que sus desarrolladores quieran adherirse y aplicar códigos de conducta voluntarios. Ejemplos de este tipo de aplicaciones son los desarrollos orientados a hacer una lectura y monitorización de los flujos del metabolismo urbano sobre dato no personal: análisis de movilidad a partir de datos agregados de geoposición de terminales móviles análisis de consumo o de actividad turística sobre datos agregados de pagos con tarjeta análisis y gestión de las redes de suministro de energía eléctrica análisis y gestión de la red de suministro de agua potable gestión automatizada del riego en zonas verdes gestión de las redes de saneamiento e infraestructuras de depuración gestión de la limpieza de espacios públicos y de recogida y tratamiento de residuos sólidos urbanos gestión automatizada del sistema de alumbrado público (…) Así, las soluciones empleadas para diseñar las infraestructuras que dan soporte a dicho metabolismo, para optimizar o automatizar la gestión de redes, o para llevar a cabo mantenimiento predictivo, se consideran de bajo riesgo siempre que funcionen sobre datos no personales y no den respuesta a ciudadanos concretos en una interacción individual. Lo mismo sucede con el desarrollo de gemelos digitales o modelos informáticos de la realidad física para su diseño ex novo -o para el análisis de su funcionamiento en el caso de elementos ya existentes- siempre que no pongan en riesgo los bienes jurídicos que la AI Act protege. En definitiva, una vez que este nuevo marco legal sea aprobado por el parlamento europeo, habrá un periodo de tiempo previo antes de su aplicación plena. Este tiempo debe ser aprovechado por empresas y gobiernos para conocer pormenorizadamente los nuevos requisitos, adaptar las soluciones para ciudades inteligentes al mismo, y tenerlas en cuenta en el diseño de nuevos servicios. Formamos parte del área de Sostenibilidad y Ciudades Inteligentes de OdiseIA: Ignacio Alcalde, Fernando Tomás, Carmen Panadero, Juan Jose González y Juan Murillo, entre otros.
- Siguiente paso: la Inteligencia Artificial Emocional (IEA)
La Inteligencia Artificial es, sin duda, una tecnología en plena expansión, pero en realidad no tengo tan claro si sigue necesitando el calificativo de “nueva”. No es tan nueva tecnología. En realidad, lleva desarrollándose: al menos desde 1956, según cuenta el Dr. Esteban García-Cuesta en su artículo “Inteligencia artificial: presente y futuro”, en la colección de artículos STEAM Essentials de la Universidad Europea. Es decir, la inteligencia artificial lleva desarrollándose casi el mismo tiempo que los ordenadores. ¿Alguien llama “nueva tecnología” a la computación? Me temo que no. Lo que sí que ocurre con la IA es que cada vez está presente en más entornos, cada vez utilizamos más sus técnicas para más procesos. Navegadores que calculan la ruta más rápida teniendo en cuenta el tráfico actual, altavoces inteligentes, recomendadores de servicios o de productos, asistentes personales que reservan huecos de tu agenda para “concentración”, etcétera. Ahora, la IA está presente en casi todas partes y, en los entornos donde no está, es porque aún no ha llegado, pero ya está en camino. Todos los artículos sobre la historia de la IA coinciden en una cosa: el objetivo de la IA en sus comienzos era simular la inteligencia humana, así que su desarrollo está muy ligado a lo que realmente conocemos sobre ese concepto, el concepto de inteligencia. “Doctores tiene la iglesia”, así que dejo a las personas expertas que nos expliquen, si quisieran hacer el favor, en los comentarios, el estado actual de la cuestión sobre “qué es la inteligencia” y, sobre todo, qué aún no sabemos pero sospechamos sobre ella. Quizás ahí encontremos los próximos caminos de desarrollo de la propia IA. Una cosa que sí sabemos sobre la inteligencia, sin ninguna duda, es que es diversa. Existe la inteligencia en múltiples formas. Ya no es, como se creía hace no mucho tiempo, patrimonio exclusivo de “la mente”, la filosofía y las matemáticas. Hay inteligencia en el movimiento (inteligencia kinesética), en la música (inteligencia musical) y resto de las artes. También en las emociones: la inteligencia emocional. La inteligencia emocional nos permite comprender las emociones, propias y ajenas, y manejarlas correctamente. Incluso, con entrenamiento (ya sea consciente o inconsciente), una persona emocionalmente inteligente, es decir, con un alto grado de desarrollo de la inteligencia emocional, es capaz de provocar (y provocarse) determinadas emociones de forma consciente. La inteligencia emocional cuenta con la empatía emocional como vehículo de transmisión de emociones. Photo by Tengyart on Unsplash Pues bien, si la inteligencia artificial pretende emular la inteligencia natural de los seres humanos, lógico es que queramos desarrollar una Inteligencia Emocional Artificial (IEA). El término IEA tiene gancho, pero ¿qué es? ¿Cómo lo definiríamos? ¿Existe algo similar o es pura ciencia ficción “de momento”? ¿Existirá en el futuro o es una quimera? IEA DÉBIL Y FUERTE: PRESENTE Y FUTURO Sabemos clasificar a la IA en dos tipos: la IA débil y la IA fuerte. La IA débil existe en la actualidad. Consiste en utilizar las técnicas desarrolladas en la IA para resolver problemas complejos, pero conocidos previamente. Es decir, un programa de IA que ayuda en el diagnóstico de enfermedades, como la detección de COVID analizando radiografías de pulmón, o un altavoz inteligente que analiza las órdenes verbales para ejecutarlas. La IA fuerte consistiría en programas de IA que deciden, de forma autónoma, qué problemas van a resolver y luego, lo resuelven de nuevo eligiendo autónomamente las técnicas y los algoritmos más apropiados “según su criterio”. Es decir, la IA fuerte se comportaría como una persona humana en muchos aspectos, discriminando de sus datos de entrada lo que le interesa en un momento determinado y utilizándolos para lo que estime oportunos. Esta IA fuerte aún no existe y, al menos yo, no soy capaz de aventurar una fecha para su “primer lanzamiento”. Lo que sí que sabemos es que se están dando pasos decididos en esa dirección. Puede que sea la línea del horizonte, inalcanzable nunca porque se aleja según nos acercamos, pero sí que sirve para marcar el avance de la IA. Intentar alcanzar la IA fuerte es el motor que permite hacer crecer a la IA débil y explorar cada vez más escenarios. Pues bien, de la misma forma podemos definir la IEA fuerte y la IEA débil. La IEA débil (IEAD) sería entonces aquellos desarrollos basados en IA capaces de identificar emociones humanas entre sus datos de entrada y, puede, que usarlos para proponer o realizar nuevas acciones. Esta IEAD sí que existe ya y crece por momentos. Prueba de ello es el congreso Emotion AI organizado hasta el 2019 en el MIT (el 2020 fue suspendido por la pandemia). Hay muchos ejemplos concretos en entornos de investigación (análisis de interacciones de un usuario en redes sociales o foros para detectar su estado anímico; avatares gráficos que simulan emociones con sus gestos, diversos tonos de voz para altavoces inteligentes o en chatbots) y en la prensa aparecen de vez en cuando situaciones en las que se usa para cometer delitos o crear fake news (suplantación de voces para ordenar transferencias de dinero; vídeos trucados que simulan personas famosas hablando, etc.). De momento, aplicaciones de uso común que usen claramente IEA hay pocas, pero parece que proliferarán pronto, seguramente durante los primeros años de esta década del 2020. La IEA fuerte (IEAF) es otra cosa. Creo que confiar que pronto aparezca una IEA (montada sobre un androide o en un servidor en la nube) que nos ayude a prevenir los suicidios, las bajas laborales por causas emocionales, a tratar la depresión, es posible. Pero esperar que exista una IEAF que decida autónomamente qué emoción “sentir” y comportarse en su relación consigo misma y con el medio que la rodea, incluyendo su relación con los seres humanos, es todavía muy aventurado. No digo que no sea posible; lo que digo es que la moneda de su existencia está todavía volando y no sabemos si caerá de cara (existirá) o de cruz (se quedará en el campo de la ciencia ficción). NUEVAS DIRECCIONES Pero, de nuevo con el símil del horizonte, los pasos que demos en esa dirección, si los damos bien, con responsabilidad y bajo el timón de fuertes principios éticos, harán avanzar el estado del bienestar hacia adelante. Si, por el contrario, miramos para otro lado o cerramos los ojos, negando esa posibilidad y sin hacer nada al respecto, corremos un fuerte peligro. La comprensión de nuestras emociones y su análisis formal que permita desarrollas la IEA como herramienta, facilitará, y mucho, las posibilidades de inclusión de cada vez más personas y colectivos. De hecho, para muchas personas con una forma distinta de aprender (discapacidad cognitiva), con formas diferentes de relacionarse con los demás (como las personas enmarcadas dentro del espectro autista), o personas mayores, muy mayores, la IEA podría ser una mejor opción para formar parte de una sociedad con una fuerte tendencia a la estandarización en todo. Juan José Escribano Otero es Profesor titular de la Universidad Europea. Miembro de AENUI (Asociación de Enseñantes Universitarios de Informática) y director del Área IAI (Inteligencia Artificial Inclusiva) de OdiseIA. juanjose.escribano@gmail.com juanjose.escribano@universidadeuropea.es
- AI for Good
OdiseIA y PwC han celebrado la sesión AI FOR GOOD, Inteligencia artificial para una sociedad y un planeta mejor, dondeseha puesto de manifiesto la importancia de tener información actualizada para enfrentarnos a retos difíciles de resolver con métodos tradicionales. La colaboración de humanos y tecnología, con un marco ético, permite atajar de manera más precisa estos grandes desafíos de nuestro tiempo. Sobre las diferentes aplicaciones de la Inteligencia Artificial hemos hablado con un panel de especialistas invitados de primer nivel: Alberto Pinedo. National Technology Officer y responsable del equipo dedicado al uso ético y responsable de la inteligencia artificial en Microsoft. Víctor Khodayar. Asesor Regional de Alianzas Estratégicas y Programas para Europa y Asia Central en la Oficina de las Naciones Unidas. Miguel Rodríguez. Ingeniero de nuevas tecnologías y metodologías de innovación para el impacto social en TECSOS (Fundación Vodafone España y Cruz Roja Española). Celia Roca. CEO ITWILLBE, organización dedicada a la erradicación de la pobreza a través de ideas innovadoras y tecnología disruptiva. Marta Colomina. Directora General de la Fundación PwC Aplicaciones de la Inteligencia Artificial La IA es un instrumento clave para enfrentarnos a los grandes desafíos de nuestra era y debe dar resultados tangibles, claros y duraderos. Debemos promover la Inteligencia Artificial para que sea una prioridad y esté en la hoja de ruta de cada compañía. La inteligencia artificial tiene mucho por aportar. Alguno de los campos en los que tiene aplicación son: Aspectos medioambientales, proyectos que tengan alto impacto, visión pragmática y de futuro. Herencia cultural. Innovación usable por las personas de las ONGs que están en el terreno esforzándose en preservar la cultura. Especialmente relevante con la invasión rusa a Ucrania y las consecuentes migraciones. Cambio social y cultural. El consumidor cada vez pide más a las empresas que hagan algo. Como sociedad queremos trabajar para empresas que colaboren por un bien social. Tercer sector. Ayudar a los clientes a mejorar sus estrategias. Fortalecer los sistemas de prevención de desastres naturales como el cambio climático, la calidad del aire y los océanos; y de salud, como contagios por la COVID-19 y la vacunación. Prevención de la soledad gracias a herramientas como los asistentes de voz que han permitido dar compañía y facilitar el uso de herramientas digitales a personas en riesgo de soledad. ¿Por dónde empezar? Incorporar a las personas en su planificación. Las nuevas tecnologías, la IA, tienen que estar hechas por y para las personas y deben atender a las problemáticas diversas que existen en el mundo. Colaboración y sinergIA para el impacto. Unión de los diferentes sectores para que las iniciativas que se ponen en marcha tengan un impacto real y grande en los problemas que tratan resolver. Calidad, disponibilidad y privacidad de los datos. Cada dato tiene un valor dependiendo de la organización. Hay que sacar valor y hacer una buena gestión del dato. Incorporar a las administraciones públicas. Las empresas privadas han invertido tiempo en elaborar aplicaciones especializadas con IA para intentar aportar. Soluciones. Hace falta un cambio de mentalidad desde las administraciones públicas para enfrentarnos a los desafíos a nivel estratégico. Financiación tanto individual como colectiva, pública y privada. Visualiza el webinar y/o descarga el informe si deseas ampliar los contenidos. ¿Te ayudamos? Ponte en contacto con nosotros para profundizar en cualquier aspecto que consideres relevante y conocer más detalles en: contacto@odiseia.org y es_hablemos@pwc.com
- OdiseIA pasa a formar parte de INDESIA, coliderando junto a Microsoft y Telefónica los estudios para la adopción de la IA de manera responsable en el sector industrial.
INDESIA es una asociación para impulsar el uso de los datos y la IA en empresas y PYMES de la industria española, liderada por Repsol, Gestamp, Navantia, Técnicas Reunidas, Telefónica, Inditex, Ferrovial, Microsoft y Airbus. Estas empresas decidieron crear esta asociación de ámbito nacional, aunque con convocación europea, con el objetivo de promover el desarrollo de las empresas en el ámbito de la digitalización y su transición hacia una cultura data driven. Por ello, diseñaron un proyecto tractor para escalar el uso de los datos y la inteligencia artificial a lo largo de toda la cadena de valor, definiendo un propósito para cada uno de los participantes; grandes empresas, PYMES, start-ups, proveedores tecnológicos e instituciones académicas. Su objetivo es desarrollar una nueva economía que genere crecimiento económico para España a través de la aceleración del uso de los datos y la Inteligencia Artificial por parte de las empresas y PYMES industriales. Alcance nacional Transversalidad industrial y accesibilidad Sostenibilidad medioambiental Ecosistema escalable Desde el I+D+i a la comercialización Capacitación y empleo STEM ¿Por qué ahora es necesaria INDESIA? El sector industrial en España se enfrenta a grandes retos, para los que va a necesitar incrementar la competitividad mediante la automatización y optimización de los procesos industriales, así como mejorar la sostenibilidad mediante la eficiencia energética, el desarrollo de nuevos materiales no contaminantes y el refuerzo de la economía circular. ¿Qué papel desempeñará OdiseIA? El objetivo es que OdiseIA aporte a las iniciativas de IndesIA un enfoque que permita garantizar la asimilación de la Inteliegncia Artificial de manera responsable, atendiendo a los principios éticos necesarios para su adopción y las normativas que están en curso. Como primera línea de trabajo, OdiseIA está trabajando junto a Microsoft y Telefónica en la elaboración de un documento de buenas prácticas para una IA responsable, alineado con la iniciativa GuIA de OdiseIA, que a su vez recoge las prácticas de estas dos compañías.
- OdiseIA School imparte en abierto el curso Privacidad 360
Un curso diseñado por Fabian Garcia Pastor, e impartido por expertos de OdiseIA como el propio Fabian, Lorenzo Cotino, Ignacio Gonzáles de los Reyes y Juan Manuel Belloto Gómez, donde se muestra cómo tratar la Privacidad en la Inteligencia Artificial con una visión 360. La OdiseIA School imparte formacionessobre Inteligencia Artificial y su uso responsable en empresas, administraciones públicas, escuelas de negocio, etc., contando para ello con los expertos de OdiseIA, quienes la abordan desde una perspectiva de negocio, tecnológica, ética y jurídica como es necesario para comprender todas las posibles aplicaciones prácticas y sus implicaciones de esta tecnología emergente. En este curso, con una versión reducida disponible de manera abierta en nuestro canal de Youtube (https://www.youtube.com/watch?v=njkghAyc1d8), los expertos de OdiseIA Fabian García Pastor, Lorenzo Cotino, Ignacio Gonzáles de los Reyes y Juan Manuel Belloto Gómez, muestran cómo tratar la Privacidad en la Inteligencia Artificial con una visión 360, atendiendo a las perspectivas antes mencionadas. En él se descubren las claves para gestionar con éxito la privacidad en las organizaciones, tratando los siguientes contenidos: La esencia de la privacidad Los fundamentos de la protección de datos La privacidad, la inteligencia artificial y la ética Aspectos regulatorios clave La aplicación de la privacidad en varios sectores Las tecnologías PET (Privacy Enhancing Technologies) y los marcos para la gestión de la privacidad El impacto de la protección de datos en la IA y en la ética El enfoque de la privacidad que hacen Google, Microsoft, IBM y Telefónica La aplicación de la privacidad en varios sectores Este curso, en su versión extendida, está disponible para aquellas entidades que así lo deseen, atendiendo a sus necesidades particulares. Para ello pueden dirigirse a contacto@enrique-javier-benitez
- OdiseIA imparte un programa formativo a miembros del Ministerio de Asuntos Económicos y Transformación Digital
El programa, con 5 convocatorias de 20 horas de duración cada una, tuvo una valoración media de 8,8 sobre 10 por parte de los más de 100 asistentes. OdiseIA imparte formaciones sobre Inteligencia Artificial y su uso responsable en empresas, administraciones públicas, escuelas de negocio, etc., contando para ello con los expertos de OdiseIA, quienes la abordan desde una perspectiva holística atendiendo a dimensiones de negocio, tecnológica, ética y jurídica como es necesario para comprender todas las posibles aplicaciones prácticas y sus implicaciones de esta tecnología emergente. Desde el mes de Abril al de Julio de 2021 impartimos un programa formativo en el que compartimos el conocimiento de OdiseIA en Inteligencia Artificial con miembros del Ministerio de Asuntos Económicos y Transformación Digital (MINECO), y de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) del gobierno de España. El programa, de 20 horas de duración, tuvo cinco convocatorias de unos 20 alumnos cada una. El contenido del programa proporcionaba una visión 360 sobre la Inteligencia Artificial, partiendo de los conceptos necesarios para entender la IA, continuando con los enfoques estratégicos en la Administración Pública tanto en España como en Europa, aterrizados mediante casos de uso concretos, pasando por la gestión de proyectos y llegando a las tecnologías inteligentes e incluso su integración con otra tecnología emergente como Blockchain. Por supuesto, alineado con la misión de OdiseIA, en todos los módulos abordamos los enfoques responsables y normativos imprescindibles en los planteamientos sobre Inteligencia Artificial, además de impartir módulos específicos sobre dichas dimensiones. Además, el programa terminó con una práctica grupal que permitió a los asistentes aplicar los conocimientos adquiridos. En esta aventura participaron once miembros de OdiseIA que tuvieron un desempeño sobresaliente, ya que los más de cien alumnos del MINECO y la SEDIA que lo cursaron otorgaron al programa una valoración media de 8,8 sobre 10. Diseño del programa: Juan Manuel Belloto Gómez y Adrián González Sánchez. Coordinación: Juan Manuel Belloto Gómez Instructores (por orden alfabético) Juan Manuel Belloto Gómez Enrique Javier Benítez Palma Richard Benjamins Lorenzo Cotino Hueso Juan de la Cruz Juan José Escribano Otero Ignacio Gonzalez de los Reyes Gavilán Adrián González Sánchez Idoia Salazar Paul Van Branteghem Mónica Villas Estos programas formativos impartidos por OdiseIA están disponibles para aquellas entidades que así lo deseen, atendiendo a sus necesidades particulares. Para ello pueden dirigirse a contacto@odiseia.org
- Publicamos la Memoria de Actividades de 2021
Acabamos de publicar nuestra Memoria de Actividades 2021. En ella podrás conocer mejor quiénes somos, qué actividad hemos desarrollado en 2021 y qué nos proponemos conseguir en este 2022 ya en curso. Acaba de ver la luz la Memoria de Actividades 2021 de OdiseIA. Aunque ya está algo avanzado el año actual, no hemos querido dejar de publicar este documento que recoge, en unas 50 páginas, los datos más importantes más importantes sobre nosotros y nuestra actividad en el año anterior. Contamos en qué consiste OdiseIA, sus objetivos y sus valores y también cómo estamos organizados. Resumimos cuáles han sido nuestros principales logros en el año 2021 incluyendo iniciativas tan importantes como el lanzamiento del Proyecto GuIA, la participación en los consorcios Indesia y Gaia-X, la realización de nuestra primera acción de formación externa con la SEDIA (Secretaría de Estado de Digitalización e Inteligencia Artificial) o el más que relevante crecimiento en socios tanto individuales como institucionales. Además, contamos, área a área, sus objetivos, la labor que han realizado en 2021 y lo que se proponen conseguir en 2022. Y cerramos con los principales retos para este año 2022: participación en el piloto de reglamento de la UE sobre Inteligencia Artificial, primeros entregables de GuIA o el lanzamiento de OdiseiA School y el Certificado OdiseIA. Pero quizá, lo que más nos satisface, es el caluroso ‘feedback’ de nuestros socios, privados e institucionales, con que abrimos el documento. A partir de ahora esperamos resumiros, cada año, lo que vamos haciendo y consiguiendo. Puedes encontrar el documento con la Memoria 2021 en este enlace y mucha más información, en nuestra página web: https://www.odiseia.org/ Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es Profesor, Director académico y mentor de proyectos en Escuela de Organización industrial y colaborador en otras escuelas de negocio. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y “Robots en la sombra” (Anaya Multimedia, 2021).












