top of page

Search Results

101 resultados encontrados

  • OdiseIA presenta el primer informe GuIA, una iniciativa para saber cómo adoptar la Inteligencia Arti

    OdiseIA, PwC, Google, Microsoft, IBM y Telefónica, con la presencia de Carme Artigas (SEDIA), presentan una guía para adoptar la Inteligencia Artificial de manera responsable. Es el primer resultado de GuIA, una iniciativa de OdiseIA, a la que se están uniendo más de 50 empresas de 10 sectores diferentes. Al final de este post está disponible el enlace para poder descargar el documento , así como el vídeo con la grabación del evento de presentación. El evento contó con la presencia de Carme Artigas, la Secretaria de Estado de Digitalización e Inteligencia Artificial del Gobierno de España Su presencia pone de manifiesto el proceso de modernización en el que se encuentra nuestra sociedad, y el apoyo realizado desde las instituciones públicas para que se lleve a cabo. En la clausura del evento, Carme Artigas remarcó como “ La IA nos presenta un nuevo escenario lleno de grandes incertidumbres que abordaremos desde una firme vocación ética y humanista .” La Inteligencia Artificial y la necesidad de la ética La Inteligencia Artificial (IA) ya está presente en nuestras vidas: cuando compramos por Internet, cuando nos recomiendan películas o canciones, cuando traducimos automáticamente un texto, o cuando hablamos con nuestros dispositivos. Pero también hace predicciones o participa de decisionesque tienen un impacto importante en nuestras vidas, como cuando queremos contratar un producto financiero o un seguro, nos hacen un diagnóstico médico, y un largo etcétera que irá aumentando en los próximos años, “ Pero la IA puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros. También la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Por estos motivos es necesario el desarrollo de la ética asociada a la IA ”,tal y comoindicó Idoia Salazar , presidenta de OdiseIA, el Observatorio Del Impacto Social y Ético de la Inteligencia Artificial. Lo hizo al inicio del evento celebrado este jueves 17 de febrero, en un formato híbrido ( online y presencialmente desde la escuela de negocios ISDI en Madrid), donde se presentó el primer resultado de la iniciativa GuIA. El nacimiento de GuIA En noviembre de 2020, OdiseIA lanzó públicamente la iniciativa GuIA con el apoyo de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). En aquel evento también participaron Google, Microsoft, IBM y Telefónica, y todos los intervinientes consensuaron la necesidad de aterrizar los conceptos éticos que envuelven a la Inteligencia Artificial. La importancia de cubrir el espacio vacío que existe entre las declaraciones de principios globales que sirvieron hace unos años para arrancar las reflexiones éticas en la IA, y la realidad aterrizada en casos de negocio concretos. Resuelta además a través de tecnologías específicamente diseñadas para ello. Y este es el objetivo de GuIA : establecer un ecosistema colaborativo donde las empresas puedan consultar y aportar su experiencia aterrizada en la adopción de la Inteligencia Artificial atendiendo a buenas prácticas tanto en el plano ético como en el normativo . De la responsabilidad a la obligatoriedad Desde la presentación de GuIA han ocurrido hechos importantes que han remarcado la necesidad del objetivo de esta iniciativa. En diciembre de 2020, la Secretaría de Estado de Digitalización e Inteligencia Artificial ( SEDIA ) publicó la Estrategia Nacional de Inteligencia Artificial (ENIA), dedicando por entero uno de sus seis ejes a la necesidad de una Inteligencia Artificial ética y normativa. En noviembre de 2021, la UNESCO publicó un informe sobre la ética de la Inteligencia Artificial donde se instaba a la creación de políticas y marcos normativos para asegurar que estas tecnologías emergentes benefician a la humanidad en su conjunto. De hecho, en abril de 2021, la Comisión Europea presentó su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial ( AI Act ). El proyecto de ley pretende establecer una regulación horizontal sobre la IA y, una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años. Por tanto, más allá de la responsabilidad proactiva de las empresas en adoptar la IA de manera ética y responsable (algo que es necesario), ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley. A este respecto, iniciativas como GuIA pueden ayudar a las empresas a conseguirlo. Una primera guía elaborada por más de treinta expertos Este primer informe GuIA que ha sido presentado el jueves 17 de febrero, es el primer resultado de dicha iniciativa. Tiene más de doscientas páginas y ha sido elaborado por un equipo multidisciplinar de más de treinta personas formado por tecnólogos y juristas de OdiseIA y PwC, junto a expertos de Google, Microsoft, IBM y Telefónica. Incluye un detallado estudio de los principios éticos que aplican a la IA, realizado a partir del análisis de treinta iniciativas de todo el mundo, al que se ha agregado un análisis jurídico de dichos principios. Por último, y con su contante vocación de aterrizar estos conceptos , se incluyen las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM que permiten su gestión, así como la experiencia de Telefónica en este ámbito. En el evento se presentaron las principales conclusiones, así como los próximos pasos de la iniciativa. Todo en varias mesas redondas dirigidas por Mar Cabra , Periodista ganadora del premio Pulitzer y co-fundadora de OdiseIA. Para Juan Manuel Belloto, director de OdiseIA responsable de la iniciativa GuIA, “Las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen la responsabilidad de que su IA esté desarrollada bajo principios éticos. Al igual que en la sociedad, a la ética es necesario acompañarla de legislación. Y por primera vez la legislación no se está dejando esperar, un claro síntoma de su importancia en la IA. Otro síntoma de la importancia de este reto es ver como empresas con muchos negocios solapados se unen en GuIA para abordar este reto de forma conjunta.” De igual manera Armando Martínez Polo , socio de PwC España remarcó que “ El uso ético y responsable de la Inteligencia Artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica no existirá la posibilidad de no prestar atención a este tema. La aportación de GuIA creemos que es fundamental para generar comunidad, y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas ” La importancia de los marcos éticos y normativos Se expusieron los principales marcos éticos y normativos a tener en cuenta, siempre teniendo presente que están evolucionando y hay que estar atentos a esos cambios para reducir el riesgo de usos incorrectos. “ Una parte importante del uso ético de la IA es democratizar la necesidad concienciando a todos los miembros de una organización de su importancia. El reto a futuro es que no se vea como algo que hay que hacer, sino como algo que quieren hacer. Los marcos éticos son clave para la fase en donde estamos, pero no son suficientes para el futuro ”, según Richard Benjamins , vicepresidente de OdiseIA., Igualmente, Patricia Manca (Partner en PwC New Law España), remarcó que “ la máxima de cualquier regulación de la Inteligencia Artificial debe fundamentarse en lograr los máximos beneficios para las personas, por lo que la involucración proactiva de todos en su desarrollo, implementación y correcta contextualización es clave para el futuro. Cómo se defina e implemente su marco normativo dependerá de nuestro ejercicio responsable como sociedad democrática y defensora de los derechos humanos” El compromiso de Google, Microsoft e IBM Estas compañías están haciendo un gran esfuerzo por ayudar a que la IA sea adoptada de manera ética. Llevan años publicando sus estudios y herramientas para que las empresas que hacen uso de su tecnología lo hagan de una manera responsable. La iniciativa GuIA ha agrupado y sintetizados sus extensos planteamientos para ayudar a que las empresas puedan minimizar los riesgos derivados de no tenerlos en cuenta. Miguel Escassi , Director de políticas públicas y Asuntos con el Gobierno de Google, declaró que “ la inteligencia artificial es una tecnología que nos ayuda a enfrentar desafíos globales que van de la sostenibilidad a la accesibilidad pasando por la educación o la salud. La ética y la regulación son partes centrales en este avance y, por eso, apoyamos y participamos en proyectos como GuIA cuyo objetivo es facilitar el acceso de todos al conocimiento y a las herramientas que les permita desarrollar sus productos y servicios con responsabilidad .” También Alberto Pinedo ( National Technology Officer de Microsoft) señaló como “ Creemos en el potencial de la Inteligencia Artificial para mejorar nuestras vidas y tenemos que hacerlo para el beneficio de todos. Por primera vez tenemos sistemas que asumen el papel que juegan las personas, y debemos examinar los efectos sobre las personas y la sociedad. Responsible AI es la estrategia que adoptamos para desarrollar e implementar nuestra tecnología de manera que se cumplan nuestros principios de equidad, confiabilidad, privacidad y seguridad, transparencia, responsabilidad e inclusión y que sea accesible para todas las personas. ” Enric Delgado Samper (CTO de IBM España, Portugal, Grecia e Israel) indicó que “ hay que tener presente que el propósito de la IA es aumentar la inteligencia humana, que los datos y los conocimientos generados deben pertenecer a su creador, y que tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas. Estos principios son fundamentales, pero estamos ya en un momento en el que hay que ir más allá y pasar a aspectos prácticos de implementación, a nivel de procesos y de tecnología, para poder gestionar y gobernar las soluciones de IA a lo largo de todo su ciclo de vida. Por ello, desde IBM aportamos procesos, servicios y una suite de herramientas específicas, nacidas de IBM Research y disponibles para todo el mundo, segmentadas en cinco áreas clave -explicabilidad, equidad, robustez, transparencia y privacidad- que han quedado muy bien descritas en la GuIA de OdiseIA ”. Telefónica como ejemplo de adopción de la IA de manera ética La compañía española lleva tiempo inmersa en un proceso de transformación para que su adopción de la IA tenga en consideración estos principios éticos y su normativa asociada. Su experiencia fue contada por Francisco José Montalvo , Chief Data Officer de Telefónica, quien señaló que “ En Telefónica, nuestros principios sitúan a las personas en el centro y garantizan el respeto de los derechos humanos en cualquier entorno y proceso en el que se use la inteligencia artificial. Así, estamos trabajando para implementar, sobre la base ya existente de Privacidad por Diseño, una capa adicional que denominamos Ética por Diseño. En ella, implementamos técnicamente los valores y principios éticos durante el ciclo de vida de nuestros productos de Inteligencia Artificial, además de definir las técnicas organizativas necesarias para su consecución ” Próximos pasos ya lanzados: Adaptación sectorial y Formación Las empresas sectoriales también están muy concienciadas a sabiendas de la responsabilidad que tienen con sus clientes. Además de que un uso éticamente correcto de estas tecnologías podría impactar positivamente en la percepción que de ellos pudieran acabar teniendo los mismos. Ya han comenzado los trabajos para adaptarlo a las particularidades de diez sectores empresariales , para lo que contarán con más de 50 empresas . Con la misma vocación de aterrizaje que dirige toda la iniciativa, en este caso se realizará sobre casos actuales o potenciales susceptibles de ser soportados por Inteligencia Artificial. Por tanto, la iniciativa también proporcionará a dichos sectores el conocimiento necesario para modernizar sus negocios a través de IA, y además hacerlo de manera ética y responsable. El trabajo llevará hasta mediados de 2023, y ya han comenzado los preliminares de los sectores de salud, seguros y publicidad. Además, la iniciativa GuIA abordará formaciones detalladas en Escuelas de Negocio y Universidades para hacer llegar estos conceptos a los profesionales de hoy y a los del futuro. A este respecto Rodrigo Miranda , director general de la escuela de negocios ISDI , comentó que “ el impacto que la Inteligencia Artificial va a tener en todos los sectores e industrias está ya fuera de toda duda, pero queda mucho camino a recorrer en formar a las organizaciones y a su fuerza de trabajo. Aplicar principios éticos en el campo de la Inteligencia Artificial se convertirá más en un deber que en una oportunidad para las compañías: si no tienes una IA ética, no existirás. Hay que capacitar a las organizaciones en lo que implica la aplicación de principios éticos en la Inteligencia Artificial. Éstos comienzan desde el mismo momento que las compañías recogen datos de los clientes hasta el momento de elección y aplicación de un algoritmo. La ética en la Inteligencia Artificial asegurará que esa caja negra (black box) en la que en ocasiones se posiciona a la Inteligencia Artificial, deje de serlo ” En definitiva, la Inteligencia Artificial ya tiene un papel fundamental en empresa y sociedad, y lo tendrá aún mucho más. Es por tanto fundamental que las empresas la adopten atendiendo a principios éticos y preceptos normativos. Para ello son necesarias iniciativas como GuIA , para saber cómo hacerlo , y para extender ese conocimiento todo lo posible, de manera colaborativa entre empresas que pueden tener competencia comercial, pero a la vez tener una misma misión común. Tal y como refleja la misión de OdiseIA, trabajar conjunta y activamente por un uso ético y responsable de una Inteligencia Artificial que tenga en su centro el bienestar del ser humano

  • La inclusión digital no es un lujo, es un derecho.

    Hoy damos un paso firme hacia un futuro más justo con el lanzamiento del Proyecto COPID, una iniciativa destinada a garantizar la igualdad digital para todos, sin importar las circunstancias. Desde OdiseIA, en colaboración con la Universidad Carlos III, la Fundación ONCE y RED.ES, nos comprometemos a transformar los principios de la Carta de Derechos Digitales de España en acciones concretas. El proyecto se puso formalmente en marcha el pasado viernes 11 de octubre en el auditorio de la Fundación ONCE, con la participación del director general de RED.ES, Jesús Herrero Poza; la Secretaria General de la Fundación ONCE, Virginia Carcedo; Francisco Bariffi, Profesor e Investigador Posdoctoral de la Universidad Carlos III de Madrid; y Fabián García Pastor, Director de formación de OdiseIA. COPID nace con una misión clara: no dejar a nadie atrás . En una sociedad donde la tecnología se ha convertido en el centro de nuestras vidas, la inclusión digital debe ser universal. No se trata solo de acceso, sino de oportunidades, de asegurar que los derechos digitales sean efectivos y protejan a todas las personas, especialmente a quienes se encuentran en situación de vulnerabilidad. En OdiseIA, estamos comprometidos con aportar nuestra experiencia en ética e inteligencia artificial. Nuestro objetivo es garantizar que la tecnología se desarrolle de manera inclusiva, respetando principios éticos y evitando que los avances profundicen las desigualdades existentes. COPID es un proyecto colaborativo donde actores gubernamentales, sociales y privados trabajan juntos para convertir la igualdad digital en una realidad palpable. El proyecto COPID se estructura en cinco Comunidades de Práctica (CoP), cada una enfocada en un derecho clave de la Carta de Derechos Digitales: Derecho a la igualdad y a la no discriminación en el entorno digital Derecho de acceso a Internet Protección de niños, niñas y adolescentes en el entorno digital Accesibilidad universal en el entorno digital Brechas de acceso al entorno digital Desde OdiseIA, Maite Sanz de Galdeano, Patricia Llaque, Richard Benjamins y Fabián García Pastor están trabajando junto a otros actores clave para asegurar que cada una de estas CoPs transforme las directrices de la Carta en acciones concretas. Además de los socios principales - Fundación ONCE, Universidad Carlos III de Madrid y OdiseIA - el proyecto cuenta con la participación de representantes del Tercer Sector de Acción Social en España. Nos sentimos orgullosos de formar parte de COPID, aportando nuestra experiencia para garantizar que la transformación digital esté al servicio de todos y no deje a nadie atrás. Queremos construir un entorno digital donde cada persona, sin importar su origen, edad o capacidad, tenga las mismas oportunidades para desarrollarse y tener éxito. Os invitamos a conocer más sobre COPID y a uniros a esta misión . La transformación digital debe ser una fuerza para el bien de toda la sociedad. Juntos, podemos construir un futuro más inclusivo.

  • OdiseIA presenta su participación en el Proyecto COPID: Impulsando la Igualdad en el entorno digital

    Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . OdiseIA se enorgullece de formar parte del lanzamiento del proyecto Comunidades de Práctica para Impulsar la Igualdad en el Entorno Digital  (COPID), cuyo evento de presentación se llevará a cabo el próximo 11 de octubre de 2024  en el Auditorio de Fundación ONCE, en Madrid. Este proyecto busca promover la igualdad de derechos en el entorno digital, un ámbito que requiere atención urgente para garantizar que todas las personas, sin importar sus capacidades, tengan las mismas oportunidades y acceso. El convenio firmado entre Red.es , Fundación ONCE, la Universidad Carlos III de Madrid y OdiseIA busca impulsar la implementación de la Carta de Derechos Digitales en el ámbito de los derechos de igualdad en el entorno digital. Su objetivo es garantizar el acceso igualitario a las tecnologías, la no discriminación y la eliminación de brechas digitales, centrándose en temas como la accesibilidad universal y la formación en competencias digitales. OdiseIA, como parte del convenio, trabaja para asegurar el uso ético de la inteligencia artificial en este contexto. El proyecto COPID se articula en torno a los ejes temáticos establecidos en la Carta de Derechos Digitales relacionados con la igualdad. Estos ejes incluyen el derecho a la igualdad y a la no discriminación en el entorno digital, el derecho de acceso a internet, la protección de niños, niñas y adolescentes en el entorno digital, accesibilidad universal en el entorno digital, y brechas de acceso al entorno digital. En cada uno de estos ejes se están desarrollando comunidades de expertos que trabajarán en propuestas concretas, tanto legislativas como no legislativas, para promover estos derechos.  OdiseIA participa activamente en este esfuerzo, aportando su expertise en el uso ético de la inteligencia artificial aplicado a cada una de las distintas áreas. Durante el evento, Fabián García Pastor participará en la presentación oficial del proyecto, así como en la presentación del eje sobre el derecho de acceso a internet. Asimismo, Maite Sanz de Galdeano participará en la presentación de los ejes dedicados a los derechos a la igualdad y no discriminación y a la protección de niños, niñas y adolescentes en el entorno digital, mientras que Patricia Llaque Gálvez lo hará con el área relativa a las brechas de acceso al entorno digital. Este evento es una oportunidad única para debatir sobre cómo construir un entorno digital inclusivo y accesible, asegurando que la tecnología y las herramientas de inteligencia artificial no generen barreras, sino que impulsen la igualdad. El formato del evento será híbrido, permitiendo la participación tanto presencial como a través de streaming. Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . ¡No te pierdas esta oportunidad de formar parte del cambio hacia un entorno digital más justo e inclusivo!

  • Publicamos un primer posicionamiento sobre Inteligencia Artificial Generativa

    Publicamos un primer posicionamiento de OdiseIA sobre Inteligencia Artificial Generativa en el que, además de reconocer su gran aportación técnica y económica, identificamos los riesgos sociales y éticos asociados y aportamos una serie de recomendaciones para su uso responsable. Acabamos de publicar un documento con un primer posicionamiento de OdiseIA sobre la Inteligencia Artificial Generativa. Dada la enorme visibilidad mediática alcanzada por esta tecnología tras el lanzamiento de ChatGPT a finales del 2022, y dado y el indudable impacto que desde ya y proyectado hacia el futuro se prevé que tenga la inteligencia artificial generativa en los negocios, las administraciones y la sociedad, desde OdiseIA hemos sentido la necesidad, siguiendo nuestra misión, de realizar un análisis con perspectiva social y ética. Y el fruto de dicho análisis es este documento en que, tras una breve introducción a la naturaleza y características de la inteligencia artificial generativa, identificamos los principales riesgos de carácter social, ético e incluso legal, y aportamos, humildemente, unas recomendaciones para su uso consciente y responsable, por los órganos legisladores, las empresas, las administraciones y los ciudadanos de a pie. En la elaboración de este documento han participado una docena de socios de OdiseIA. Hablamos de un primer posicionamiento de OdiseIA porque prevemos una evolución y probablemente nuevas ediciones de este documento, dado el dinamismo de esta tecnología y su adopción. Y, de hecho, en Otoño de este mismo año, prevemos publicar nuevas aportaciones alrededor de esta misma temática. En ese sentido, cualquier feedback será bienvenido. Puedes encontrar y descargar el documento siguiendo este enlace: Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es profesor, director académico y mentor de proyectos en Escuela de Organización industrial y colaborador en otras universidades y escuelas de negocio como OBS, Universidad Europea o UNIR. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y “Robots en la sombra” (Anaya Multimedia, 2021).

  • El Comité Español de Ética de la Investigación ha publicado undocumento de “Recomendaciones éticas para la investigación enInteligencia Artificial”

    En el documento, el Comité Español de Ética de la Investigación se enfoca en definir cuál es la responsabilidad de los investigadores y de las instituciones de investigación en cuanto a la investigación en IA (no en cuanto a la investigación con herramientas y desarrollos de IA). El Comité Español de Ética de la Investigación (CEEI) es un órgano colegiado de ámbito estatal, independiente, y de carácter consultivo, adscrito al Consejo de Política Científica, Tecnológica y de Innovación, del Ministerio de Ciencia, Innovación y Universidades, que ejerce competencias en materia de integridad científica, investigación responsable y ética en la investigación. Como parte de su trabajo, ha publicado un documento de “Recomendaciones éticas para la investigación en Inteligencia Artificial”. El documento apunta a la necesidad de que los trabajos de investigación en Inteligencia Artificial sigan un código ético que incluya una serie de aspectos, que dividen en 3 partes: “Responsabilidad en el desarrollo y el uso de sistemas autónomos”, “Consecuencias sociales y responsabilidad social de la investigación” y “Datos”. La parte primera, de “Responsabilidad en el desarrollo y el uso de sistemas autónomos”, se divide en varios aspectos a tener en cuenta como son: “Salvaguardar los derechos humanos y fundamentales”, “Salvaguardar el medioambiente”, “Responsabilidad”, “Inspeccionabilidad y trazabilidad” y Divulgación de la investigación. Los aspectos importantes que destaca el CEEI en cuanto a las “Consecuencias sociales y responsabilidad social de la investigación” son: “Reconocer la incertidumbre”, “Asegurar una participación amplia” y “Asegurar la protección de datos y la consideración a los individuos”. Para finalizar, el documento incluye dos aspectos relativos a los “Datos”: “Aseguramiento de la calidad” y “Acceso justo a los datos”. El informe completo puede consultarse en la página del CEEI (https://www.ciencia.gob.es/Ministerio/Mision-y-organizacion/Organismos-consultivos/CEEI.html), dónde también pueden encontrarse otros documentos de dicho Comité. Coral Calero Responsable del Área de “Algoritmos Verdes” de OdiseIA Miembro del Comité Español de Ética de la Investigación

  • Mal uso versus Uso perdido: la necesidad urgente de administradores de datos en jefe en la era de la IA

    Nuevo blog! Mal uso versus Uso perdido — la urgente necesidad de Jefes de Administración de Datos en la era de la IA 👉 https://medium.com/data-policy/misuse-versus-missed-use-the-urgent-need-for-chief-data-stewards-in-the-age-of-ai-41359cec585c Con una atención creciente en el rol de los Jefes de Inteligencia Artificial (CAIO), Stefaan Verhulst, PhD (The Governance Lab) y Richard Benjamins (OdiseIA) escriben para el blog de Datos y Política sobre la relevancia continua de otro rol, los Jefes de Administración de Datos (CDS), y la importancia de los datos y el #gobiernodedatos como fundamentales para el gobierno de la #IA. Descarga la versión pdf aquí:

  • OdiseIA y Decidata desarrollan una metodología para cartografiar la IA Responsable

    El informe destaca la importancia de desarrollar una Inteligencia Artificial (IA) que no solo sea innovadora, sino que también esté alineada con valores éticos y sociales. Para lograrlo, propone una metodología que permite cartografiar los proyectos dentro del ecosistema español de IA Responsable. Elaborado por OdiseIA y Decidata, este informe presenta una metodología pionera para identificar a los agentes que configuran el ecosistema de IA Responsable en España (desde startups y corporaciones multinacionales hasta entidades gubernamentales y académicas) y ofrece una herramienta para el análisis y la visualización de activos clave de la IA en el país. Este documento no debe entenderse únicamente como una guía que facilita el entendimiento del panorama actual de la IA Responsable en España, sino que también pretende impulsar un marco para promover las colaboraciones, investigaciones y desarrollos en este campo, asegurando que esta tecnología avance de una manera que se encuentre al servicio de las personas. El informe también revela una serie de desafíos que persisten en el campo de la IA Responsable y, a tal efecto, insta a adoptar y mejorar ciertas prácticas responsables para mejorar la aceptación y efectividad de esta tecnología en la sociedad. Puedes encontrar y descargar el informe siguiendo este enlace: Pedro Ruíz Aldasoro Decidata Ramon Baradat Marí Abogado experto en nuevas tecnologías, docente en inteligencia artificial y miembro de OdiseIA.

  • Posicionamiento de Odiseia sobre el Reglamento Europeo deInteligencia Artificial

    La inteligencia artificial (IA) supone una nueva etapa y oportunidad para la humanidad como una herramienta que, regida por principios éticos firmes, puede mejorar la vida de todos. En este momento en el que la IA avanza a pasos agigantados, la aprobación por el Parlamento de la Unión Europea del Reglamento europeo de inteligencia artificial el 13 marzo de 2024 supone un hito histórico. La Unión Europea se sitúa como líder mundial en la regulación del uso de la IA, en la fomentación de una innovación responsable y ética y reforzando la defensa de los derechos humanos, la democracia y el Estado de Derecho. Odiseia, como asociación de referencia en España dedicada a la ética en IA, celebra esta regulación como oportunidad sin precedentes para modelar el futuro de la IA y aprovecha este momento histórico para afirmar públicamente que el Reglamento Europeo de Inteligencia Artificial: Supone una transición de los principios de la ética del uso de la IA a normativas concretas y obligatorias. Ha sido un logro en los últimos años poder asentar y generalizar unos principios éticos de la IA. Los mismos han sido una base sólida para orientar la evolución y expansión de la IA y precisamente para orientar las regulaciones que deben implantarse. No obstante, la evolución tecnológica exige ir más allá de declaraciones. El Reglamento supone una la aplicación efectiva de los principios éticos mediante obligaciones claras y precisas, garantizando así un desarrollo y uso responsable de la IA. Expresa el liderazgo mundial de la Unión Europea en la defensa de valores y la protección de los derechos fundamentales, la democracia y el Estado de Derecho. La Unión Europea adopta un papel pionero al regular varios usos de la IA. Este Reglamento no solo protege a los ciudadanos europeos sino que también podría servir de modelo para otras regiones del mundo. Da seguridad jurídica y confianza en la tecnología. Aunque Europa no lidera la carrera tecnológica en IA, con el Reglamento establece un referente que da seguridad jurídica que facilita también las inversiones estables y brinda confianza pública hacia la IA. El Reglamento es primera regulación general en el mundo, con vocación de permanencia ante el cambio. Este Reglamento no solo es el primero en su tipo a nivel mundial. Pese a la dificultad de regular el uso de una tecnología tan innovadora, como lo ha demostrado la eclosión de la IA generativa, cabe subrayar que está diseñado para perdurar, actualizarse, evaluar su efectividad y adaptarse a las futuras innovaciones tecnológicas. El nuevo Reglamento como punto de partida determina unas líneas rojas de la IA prohibida, que se considera inaceptable en la UE. Así sucede con los sistemas dañinos, manipulativos o que explotan las vulnerabilidades de diversos colectivos. Las prohibiciones evitan la vigilancia masiva y la política predictiva. Igualmente se prohíben sistemas de “crédito social”, existentes en otras latitudes del mundo. Cuanto menos se limita o evita el uso de herramientas policiales discriminatorias y peligrosas especialmente de identificación biométrica y reconocimiento facial en espacios públicos. El Reglamento sigue un muy acertado enfoque basado en el riesgo: clasifica los sistemas de IA según su nivel de riesgo y establece obligaciones preventivas necesarias, evitando obstaculizar la innovación en los sistemas que no son de alto riesgo. determina con bastante precisión los sistemas que son de alto riesgo para la salud, seguridad, vida e integridad de las personas y sus derechos fundamentales. Respecto de estos sistemas de alto riesgo establece un sistema de cumplimiento de obligaciones preventivas y en el diseño. asienta un marco relativamente definido para la IA de propósito general y la generativa permite el desarrollo de todo un ecosistema de sellos y certificaciones de asunción voluntaria para la IA que no se considere de alto riesgo. El nuevo Reglamento se enfoca en garantizar la confianza y seguridad de la tecnología. Busca equilibrar el progreso tecnológico con las garantías y los intereses públicos a través de un mecanismo de supervisión efectivo, el cual incluye evaluaciones de riesgos y auditorías regulares para asegurar el cumplimiento de la normativa. Se enfatizan técnicas de análisis de riesgos y estudios de impacto para la identificación y mitigación de riesgos. También la calidad y la gobernanza de datos juega un papel crucial. Estas obligaciones con las de robustez y precisión de los sistemas de IA pasan a ser esenciales para la evitación de los sesgos y la discriminación algorítmica. La supervisión y control humanos y la ciberseguridad de los sistemas de IA pasan a ser elementos centrales del sistema de garantías en el diseño. En cualquier caso, cabe recordar que todos los sistemas de IA también deben cumplir las normas ya existentes. Especialmente el RGPD ya impone no pocas obligaciones respecto de la calidad de los datos, la explicabilidad & la transparencia, la seguridad y la privacidad. Además, el Reglamento también cubre la IA Generativa, llamada como “General Purpose AI”. En caso de usar estos sistemas para alto riesgo, existe una obligación de transparencia por parte de los proveedores para que el implementador (“deployer”) pueda cumplir con el Reglamento, dado que varios de los requisitos del Reglamento requieren información que solo tiene el proveedor. Para GPAI sistémicos (los muy grandes de las grandes tecnológicas), existen también varias obligaciones como monitorear los impactos, informar de incidencias y el “red teaming”. Sin perjuicio de una valoración general positiva, el Reglamento tiene insuficiencias y elementos que son susceptibles de críticas. Asimismo, hay que evitar que el Reglamento de IA suponga una barrera innecesaria a la innovación, al tiempo de sus desafíos en la implementación y eficacia normativa. La experiencia del RGPD nos lleva a subrayar la importancia de que la implantación del nuevo Reglamento de IA persiga la efectividad de sus objetivos. El Reglamento no ha de convertirse en un conjunto de barreras que limiten innecesariamente el uso de la IA y supongan un freno para la innovación y el desarrollo de una IA que sea positiva para la sociedad así como una barrera a la prosperidad en la UE. También el Reglamento o una mala interpretación o aplicación del mismo puede no ser una garantía efectiva de los derechos e intereses que intenta proteger. Es por ello que con el Reglamento ya aprobado, la ética de la IA debe guiar el desarrollo y criterios de interpretación y aplicación del Reglamento para una IA responsable hacia el bien común. Es esencial desarrollar instituciones, normativas, criterios, directrices, normas armonizadas y normas técnicas, guías de aplicación y de buenas prácticas. Resta una inmensa labor por delante que debe seguir estando inspirada por ética de la IA. En ello ha participado activamente Odiseia y va a seguir haciéndolo en primera línea de España y de la Unión Europea para asegurar que la IA sirva al bien común. Odiseia quiere ahora resaltar el papel insustituible de la ética de la IA y reivindicar también el papel de la sociedad civil en la interpretación y aplicación del nuevo Reglamento europeo de inteligencia artificial. La ética de la IA ha inspirado este Reglamento y los principios éticos también deben favorecer su interpretación y aplicación efectiva. Asimismo, es importante recordar que la mayoría de sistemas de IA no son de alto riesgo. Respecto de ellos el Reglamento actúa como una fuente de inspiración para el cumplimiento voluntario de prácticas éticas en el desarrollo y aplicación de toda tecnología de IA. Odiseia va a continuar la intensa y amplia labor por delante relativa al fomento de la adopción voluntaria de estos principios éticos y regulatorios en estos ámbitos que el Reglamento no alcanza a obligar. Alentamos a todas las partes interesadas, independientemente del nivel de riesgo asociado con sus sistemas de IA, a considerar los principios y directrices establecidos en el Reglamento como un modelo a seguir. El uso responsable de la IA, promovido por el Reglamento, también provee varios beneficios para el negocio y la innovación, como por ejemplo: Cada vez más los inversores miran cómo las empresas gobiernan los sistemas de IA antes de tomar decisiones de inversión. Los clientes cada vez más exigen responsabilidad a las empresas en vez de solo beneficios. La detección temprana de riesgos del uso de la IA permite mitigar o evitar consecuencias negativas mucho más económicas, comparado con una mitigación una vez en el mercado. Atraer talento es un reto importante para las empresas. Promover un uso responsable de la IA atrae y retiene al talento humano. Marzo de 2024 Documento elaborado por Idoia Salazar, Richard Benjamins y Lorenzo Cotino

  • La importancia de la diversidad cultural en la ética de la IA

    Slava on Unsplash La inteligencia artificial (IA) está progresando. Y si no tenemos cuidado, bien puede convertirse en un caballo de Troya por una sola premisa: la imposición de un enfoque universal para la toma de decisiones éticas. La búsqueda de este Santo Grial de un Código deontológico universal en IA ha dejado a su paso una cantidad notable, si no preocupante, de proyectos destinados a establecer un corpus de estándares éticos para enmarcar su desarrollo. Esta intención es loable. Pero es vital que cuestionemos la base sobre la que se asienta este corpus. La gran cantidad de iniciativas que crecen rápidamente y requieren esta herramienta hace que la necesidad de garantizar la base sea aún más urgente. Debemos hacer dos preguntas fundamentales. ¿Es posible crear una sola herramienta para todo y existe un deseo generalizado de crear una herramienta de este tipo? Un debate dominado por Occidente Yannick Meneceur evidencia el llamado a un código ético al enumerar 126[1] iniciativas en su libro L’intelligence artificelle en procès. En su Inventario global de directrices éticas de IA, el proyecto Algorithm Watch identifica 166[2]. Y un estudio realizado por un equipo de ETH Zúrich encontró 1180 códigos “pertenecientes a principios éticos”[3]. La necesidad de una herramienta universal para la ética de la IA debería hacernos cuestionar su pertinencia y las razones que motivan el crecimiento de tales iniciativas. Lo más preocupante de estos informes es que, en esencia, son publicados esencialmente por un número reducido de personas en un número reducido de países. En el meta-análisis elaborado por ETH Zúrich, que abarca 84 documentos, los autores destacan que “En términos de distribución geográfica, los datos muestran una representación significativa de más países económicamente desarrollados (MEDC), con EE. UU. (n = 20; 23,8%) y el Reino Unido (n = 14; 16,7%) en conjunto representan más de un tercio de todos los principios éticos de la IA “, mientras que “los países Africanos y Sudamericanos no están representados independientemente de las organizaciones internacionales o supranacionales “[4]. En otras palabras, los países occidentales están liderando en lo que respecta a la toma de decisiones éticas. Si le sumamos el peso de la Unión Europea (UE), que está afirmando claramente su voluntad de establecerse como actor normativo, Occidente representa el 63% (53 documentos) de los códigos relacionados con la ética de la IA. Según los autores de “El panorama global de las pautas éticas de la IA”, esta sobrerrepresentación indica una falta de igualdad global en el tratamiento de la IA y muestra que los países económicamente más avanzados están dando forma al debate al “descuidar el conocimiento local, el pluralismo cultural y equidad global”.[5] Algo que limita aún más el alcance de esta asignatura es el hecho de que está monopolizada por un pequeño círculo de “los que saben”, concentrados en el área privada, pública y académica. Incluso dentro de los países occidentales, está claro que el debate está prácticamente cerrado al público. El resultado de este dominio occidental en el campo de la ética en la IA es que el enfoque es exclusivamente a través de la filosofía continental y sus tres teorías de la ética: ética de la virtud, deontología y consecuencialismo. De hecho, en una inspección más detallada, vemos que hay un predominio real del enfoque deontológico. Esto es controvertido porque simplifica al extremo el pensamiento kantiano. Lo reduce a un programa de ética de bajo costo con un conjunto de reglas de arriba hacia abajo. Como vemos, el pensamiento occidental ocupa el espacio de la ética abierto por la IA y a su vez niega la diversidad cultural, la variedad de perspectivas normativas y, en última instancia, la verdadera complejidad del análisis ético. De hecho, la proliferación de códigos, cartas éticas y regulaciones aplicadas a la inteligencia artificial ilustra el estancamiento en el que nos encontramos cuando se trata de intentar alcanzar un consenso sobre estándares universales. Abrirse a la pluralidad ética Necesitamos abrir la discusión sobre las reglas éticas de la IA a diferentes culturas y, por lo tanto, a diferentes perspectivas filosóficas. Sin esto, la IA podría convertirse muy rápidamente en un instrumento de dominación intelectual y del imperialismo moderno. Esto, a su vez, obstaculizaría cualquier posibilidad que tengamos de establecer un conjunto de normas universalmente aceptadas. Más allá de la cuestión de la representación geográfica, la ética de la IA debe pensarse a través de varias filosofías y principios. Y quienes toman decisiones deben abstenerse de basarse en juicios previos. El objetivo de tener un estándar universal ético en IA es que desempeñe su papel en la separación de lo aceptable de lo inaceptable sin un sesgo predeterminado del Bien o del Mal. Y esto solo puede suceder realmente si se tienen en cuenta las diversas identidades culturales y sus filosofías. La negación de la diversidad cultural en esta área se ejemplifica en China, cuyos valores pueden pasarse por alto en Occidente. El punto no es tomar partido y cuestionarse si se debe adherir o no a las posiciones chinas. Es comprenderlos y analizarlos. Como el segundo más poderoso del mundo en términos de IA y con sus 1.400 millones de habitantes, China tendrá un asiento en la mesa cuando se trate de debates sobre IA. Por lo tanto, es importante conocer la larga historia filosófica que tiene China para comprender las perspectivas de las personas y, por lo tanto, poder interactuar con ellas de manera constructiva. Como escribió Anna Cheng en La pensée en Chine aujourd’hui en 2007, “lo primero que siente la gente cuando escucha el adjetivo “chino” y la palabra “filosofía” es incómodo. Puede ser un sentimiento muy sutil, pero ciertamente está ahí”[6]. Este sigue siendo el caso, no solo en el contexto de la IA, sino también en términos de geopolítica. Anna Cheng continúa diciendo que “muchos de nuestros contemporáneos mantienen la impresión de que los chinos no son parte de la conversación debido a su sumisión a un régimen autocrático”[7]. Estas ideas preconcebidas son las que se interponen en el camino para que China desempeñe su papel en las discusiones sobre IA. El controvertido Reino Medio no está solo en ser objeto de este ostracismo. Hay otros países y culturas que son completamente invisibles en este debate, el cual debería ser abierto universalmente. Latinoamérica también se queda al margen a pesar de verse afectada por las decisiones que se toman. Julio Pertuzé, profesor asistente de la Pontificia Universidad Católica de Chile, escribe que “las discusiones sobre ética de la IA están dominadas por otras voces, especialmente las europeas”[8]. Partiendo de la observación de que “si bien el impacto de la IA es global, su debate ha estado dominado por un conjunto muy restringido de actores’’[9], el Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés en Argentina lanzó el GuIA.ai en 2019. Esta iniciativa fue creada para fortalecer “un espacio donde los investigadores regionales puedan discutir la ética, principios, normas y políticas de los sistemas de Inteligencia Artificial y los problemas particulares de América Latina y el Caribe”[10]. Incluso cuando “el tema de la ética de la IA se encuentra en una etapa temprana en la región y aún no hay suficiente información disponible para evaluarlo de manera integral”[11], no faltan países de América Latina y el Caribe que deseen participar. India tampoco se debe pasar por alto. Su presencia en la tecnología, a pesar de ser considerada superficialmente y marcada por el pasado colonial del país, está emergiendo. Y, al mismo tiempo, está poniendo en práctica su estrategia de IA[12]. Mirando más profundamente, las filosofías y sabidurías africanas, como Ubuntu, necesitan su lugar en la conversación. Su etnofilosofía, con ejes temáticos propios marcados por la experiencia[13] y su nacionalismo cultural[14], deben integrarse en nuestros pensamientos sobre la ética en la IA. El continente africano es rico en historia intelectual, experiencias, relaciones con los humanos y la naturaleza, así como en diversidad cultural que es esencial para los debates sobre la ética de la IA. Al igual que en China, “es como si el adjetivo ‘africano’ cubriera un particularismo excluyente”[15]. La filosofía africana, como otras, puede abrir a las personas a nuevas perspectivas y ayudarlas a cuestionar sus convicciones. Como afirma acertadamente Alassane Ndaw, “ser filósofo en África consiste en comprender que no puede haber un monopolio de la filosofía”[16]. Esto es cierto para la filosofía en general, sin importar de dónde venga. En términos del mundo musulmán y el lugar del Islam en el pensamiento ético, nuevamente los prejuicios prohíben su aceptación. Y al hacerlo, se evita que contribuya esta religión centenaria que cubre una increíble diversidad cultural e intelectual. La reducción del Islam a su dimensión geopolítica y componentes islamistas marginales fomenta un rechazo global. Y así esta cultura extraordinaria que enriquecería el debate sobre la ética de la IA no puede participar. Algunos ya han entendido la importancia de liberarse de sus propias convicciones. En Canadá, el reconocimiento de la cultura indígena está surgiendo en el campo de la IA[17], y en Nueva Zelanda la cultura Maorí, están siendo consideradas en las recomendaciones relacionadas con la ética de la IA[18]. Dos ejemplos que conviene seguir. En conclusión La diversidad cultural, sus particularismos y las diferentes perspectivas esbozadas a grandes rasgos son elementos que debemos considerar en la construcción de la ética en IA. Sin prejuicio. Sin juicio de valor. Tenemos que aprender a escuchar para despolarizar y despolitizar el debate. Y al hacerlo, podremos abrirlo a más perspectivas. Actualmente estamos en un callejón sin salida porque no hemos abordado este tema. Y porque, a pesar de tener buenas intenciones, imponemos una visión occidental al resto del mundo. Al imponer ese miedo a otras personas, como es la naturaleza de los seres humanos, asumimos que nuestras ansiedades son universales. Efectivamente, proveemos soluciones a problemas que afectan a la minoría de la población, como si afectaran a todos y todas por igual y descuidando considerar las mismas especificidades de los problemas a los que se enfrentan los demás. Este es el quid de la cuestión: lo universal. Este concepto se ha convertido en una ideología. Pretende abolir las diferencias culturales y rechaza la diversidad lo cual, hoy en día, limita con la tiranía. La indiferencia hacia los demás, la indiferencia que a menudo raya en la hostilidad es el compañero natural de las formas de lenguaje que reduce y a menudo se burla, que Edward Saïd ha denunciado. De hecho, negar la diferencia de los demás es una forma de compensar nuestras propias fragilidades y dudas. Estamos pidiendo a gritos la universalidad de los valores y al mismo tiempo que elogiemos la diversidad cultural. Protestamos contra los prejuicios y la discriminación, pero nos alejamos de ideas que no podemos o no queremos entender. Al tiempo que condenamos los imperialismos chinos o estadounidenses, nosotros mismos estamos imponiendo nuestro propio imperio ético al resto del mundo. En otras palabras, hacemos a los demás lo que no queremos que nos hagan a nosotros mismos. A la luz de esto, el Observatoire Éthique & Intelligence Artificielle del Institut Sapiens, ha decidido dedicar el próximo año a una profunda reflexión sobre el multiculturalismo y la regulación ética de la IA. Esto se hará junto con varios socios como el Illinois Institute of Technology Centre for the Study of Ethics in Professions; el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA); la Artificial Intelligence Society Bahrain; el Institut Français des Études Académique; INDIAai; la Indian Society of Artificial Intelligence and Law; la Université Mohammed Premier à Oujda y muchos otros de América Latina, Asia, África y Oriente Medio. El Institut Sapiens trabajará en la creación de un informe que cubra la importancia del pluralismo cultural en la evaluación de la ética en la inteligencia artificial. Al hacer este informe, así como publicaciones y eventos, el grupo se está fijando el objetivo de ampliar el campo de posibilidades de la ética en la IA. Sin invalidar ninguna perspectiva, ampliará la red de contribuciones de las culturas que conforman nuestra humanidad. Artículo de Emmanuel R. Goffi, traducido del inglés por Arlette Román Emmanuel R. Goffi es un filósofo de IA y director del Observatoire Éthique & Intelligence Artificielle del Institut Sapiens. Anteriormente, sirvió 27 años en la Fuerza Aérea Francesa. Posee un doctorado en Ciencias Políticas de Science Po-Paris y es profesor de ética de IA en Aivancity, School for Technology, Business and Society, París-Cachan. También es investigador asociado en el Centre for Defence and Security Studies en la Universidad de Manitoba, Winnipeg en Canadá. Emmanuel ha enseñado e investigado en universidades de Francia y Canadá y habla regularmente en conferencias, así como en la prensa. Publicó The French Armies Facing Morality: A Reflection at the Heart of Modern Conflicts (París: L’Harmattan, 2011) y coordinó el libro de referencia Aerial drones: past, presente y future- A Global Approach (París: La Documentation francaise, coll. Stratégie Aérospatiale, 2013), así como muchos artículos y capítulos. Referencias [1] Yannick Meneceur, L’intelligence artificielle en procès: plaidoyer pour une réglementation internationale et européene, Paris Brulant, 2020, p. 201 [2] AI Ethics Guidelines Global Inventory, AlgorithmWatch, available at https://inventory.algorithmwatch.org/databas [3] Anna Jobin, Marcello Ienco, Effy Vayena, ‘The Global landscape of AI ethics guidelines’, Nature Machine Intelligence, Vol. 1, 20019, p. 391 [4] Idem [5] Ibid., p. 396. [6] Anna Cheng, ‘Les tribulations de la « philosophie chinoise » en Chine’, La pensée en Chine aujourd’hui, Paris, Gallimard, 2007, p. 156–160. [7] Anna Cheng, Introduction, Op, cit., p. 11–12 [8] Julio Pertuzé, cited in The global AI agenda: Latin America, MIT Technology Review Insights, 2020, p. 6 [9] Norberto Andrade, Promoting AI ethics research in Latin America and the Caribbean, Facebook Research blog, July 2 2020 [10] CETyS| GuIA.ia, Artificial Intelligence in Latin America and the Caribbean: Ethics, Governance and Policies, GuAI.ia [11] Constanza Gómez Mont, Claudia May Del Pozo, Cristina Martínez Pinto, Ana Victoria Martín de Campo Alcocer, Artificial Intelligence for Social Good in Latin America and the Caribbean: The Regional Landscape and 12 Country Snapshots, Inter-American Development Bank, fAIr LAC intuitive report, July 2020, p.34. [12] See in particular Avik Sarkar, Ashish Nayan, Kartikeya Asthana, National Strategy for Artificial Intelligence #AIFORALL, Discussion Paper, NITI Aayog, June 2018; Abhivardhan, Dr Ritu Agarwal, AI Ethics in a Multicultural India: Ethnocentric or Perplexed? A Background Analysis, Discussion Paper, Indian Society of Artificial Intelligence and Law, 2020 [13] Jean-Godefroy Bidima, Philosophies, démocraties et pratiques: à la recherche d’un « universal latéral», Critique, Tome LXVII, N° 771–772 ‘Philosopher en Afrique’, August- September 2011, p. 672–686 [14] Chike Jeffers, Kwasi Wiredu et la question du nationalisme culturel, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 639–649. [15] Séverine Kodjo-Grandvaux, Vous avez dit « philosophie africaine », Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 613 [16] Alassane Ndaw, « Philosopher en Afrique, c’est comprendre que nul n’a le monopole de la philosophie », carried out by Rammatoulaye Diagne-Mbengue, Critique, Tome LXVII, N° 771–772 « Philosopher en Afrique », August- September 2011, p. 625. [17] Karina Kesserwan, How Indigenous Knowledge Shapes our View of AI? Policy Options, February 16, 2018 [18] See Karaitiana Taiuru, Treaty of Waitangi/Te Tiriti and Māori Ethics Guidelines for: AI, Algorithms, Data and IOT, May 04, 2020 or The Algorithm charter for Aotearoa New Zealand, New Zealand Government, July 2020.

  • Desafíos de la ciberseguridad en la IA. Análisis del informe de ENISA

    Pablo Ballarín Usieto analiza los desafíos de la ciberseguridad en la inteligencia artificial, basándose en el informe publicado recientemente por la Agencia de la Unión Europea para la Ciberseguridad (ENISA). 1. INTRODUCCIÓN ENISA, la Agencia de la Unión Europea para la Ciberseguridad, publicó el pasado mes de diciembre 2020 un informe acerca de los desafíos de ciberseguridad de las soluciones de Inteligencia Artificial. Dicho informe se enmarca en una serie de iniciativas europeas relacionadas con la IA, entre las cuales destacamos el Libro Blanco de la UE sobre IA, el Plan coordinado sobre IA, la política común y las recomendaciones para crear una IA de confianza así como las Guías Éticas para una IA de confianza, la taxonomía para la IA en el ámbito de la defensa desarrollada por la Agencia de Defensa Europea (EDA) o el ya conocido Reglamento General de Protección de Datos de la UE pone la seguridad como uno de sus principios básicos (Art. 5 y Art. 32). Este informe es relevante para OdiseIA porque la ciberseguridad es uno de los pilares fundamentales de la fiabilidad que requerimos a la IA. Sólo cuando tenemos la garantía de que una tecnología es segura, se ganará nuestra confianza. La IA no es solo novedosa, sino que también resulta poco transparente al gran público, por lo que la confianza en su seguridad será clave para que su uso y adopción se generalice. Como sabemos, la IA tiene una serie de características que la diferencian del resto de soluciones tecnológicas, y es fundamental saber cuáles son las amenazas que pueden sufrir y el impacto que pueden llegar a tener. Cuando tenemos claras las nuevas vulnerabilidades y las amenazas, podemos poner en marcha una estrategia de protección adecuada. Esto es especialmente importante en un momento en el que el crimen organizado en Internet es cada vez más relevante, los ciberataques no paran de crecer de forma exponencial y aprovechan cualquier nueva superficie que ofrecen las tecnologías (IoT, Big Data, IA, Cloud, …). En el presente artículo presentaremos los aspectos más relevantes del Informe de ENISA, así como una serie de conclusiones que hacemos desde OdiseIA. 2. ANÁLISIS DEL INFORME Los objetivos del informe abarcan los siguientes puntos: Identificación de los activos que componen las soluciones basadas en IA y que constituyen una nueva superficie de ataque. Identificación de las amenazas en base a una nueva taxonomía, así como una descripción de los escenarios de ataque en los diferentes estadios del ciclo de vida de la IA. Contar con una taxonomía de amenazas de ciberseguridad específica a las soluciones de IA debe permitir a las empresas evaluar riesgos de ciberseguridad de una forma uniforme y repetible para este tipo de aplicaciones, así como identificar identificar cuáles son los controles de seguridad más adecuados. Para poder gestionar la complejidad de estas soluciones, el estudio arranca con una descripción genérica del ciclo de vida de las soluciones basadas en IA. Ello facilita la identificación de los activos que están involucrados (y por lo tanto la superficie de ataque que representan), así como las posteriores amenazas que pueden sufrir. El ciclo de vida de la IA es el conjunto de fases interdependientes que transforman datos de entrada (por ejemplo, imágenes) en una salida (por ejemplo, la identificación de personas) a través de un modelo de predicción que tiene un valor comercial y que está basado en algoritmos (por ejemplo, algoritmos de Machine Learning). Dichas fases abarcan el diseño y desarrollo, la instalación, la operación, mantenimiento, y la retirada. En dicho ciclo, los datos son parte de los activos de más valor, y están en constante transformación a lo largo del ciclo de vida. Al fin y al cabo, datos brutos provenientes de múltiples fuentes son ingeridos y transformados en datos estructurados, que son a su vez procesados para diferentes usos: datos de entrenamiento y datos de prueba usados en modelos de entrenamiento, y datos de evaluación usados en modelos de tuning. 2.1. Activos que intervienen en las soluciones de IA En ciberseguridad, se define un activo como un elemento que puede tener un valor para un individuo o una organización. Partiendo del modelo de referencia del ciclo de vida de la IA, ENISA establece una taxonomía de activos que abarcan activos genéricos que se encuentran en otras soluciones TIC (datos, software, hardware, redes, …), y activos que son específicos a las soluciones de IA (modelos, procesos, artefactos). Los Anexos A y C del informe complementan la descripción e identifican el estado del ciclo de vida de IA al cual pertenece cada uno de los activos. 2.2. Amenazas a las soluciones de IA Las soluciones de IA pueden producir resultados inesperados y pueden ser manipulados para generar resultados no deseados. La taxonomía de amenazas establecida por ENISA parte del trabajo realizado por el Grupo de Expertos de la UE para la IA (EC AI HLEG) que identificó un conjunto de atributos que deben ser evaluados para medir la confianza de las aplicaciones de IA. Estos atributos son la autenticidad, autorización, no repudio, así como otras que son más específicas al ámbito de la IA, como son la solidez, fiabilidad, safety, transparencia, explicabilidad, responsabilidad y protección de datos. Al considerar estos atributos como propiedades de la seguridad, ENISA establece que los impactos potenciales de las amenazas de ciberseguridad a soluciones de IA también pueden ser los siguientes: Autenticidad: los datos de entrenamiento o de test de un sistema de reconocimiento facial han sido modificados y para alterar los resultados. Autorización: una persona ajena al equipo de desarrollo accede de forma no autorizada a una solución de IA y cambia el código, dañando con ello la legitimidad de la aplicación. No Repudio: un emisor no puede demostrar el envío de un correo electrónico con información crítica. Solidez de una aplicación o solución de IA: un asistente virtual usado por un banco en la comunicación con sus clientes deja de funcionar en momentos de máximo tráfico. Fiabilidad de una aplicación o solución de IA: los datos de entrenamiento de un sistema de predicción de crímenes tienen un sesgo racial marcado. Safety[1]: una persona malintencionada logra modificar las funcionalidades esperadas de un coche automático, resultando en un daño al conductor y a las personas del entorno. Transparencia: una empresa se niega a explicar los criterios que ha seguido para enseñar un chatbot a responder frente a determinadas situaciones, aludiendo a que ello daría ventaja a la competencia. Explicabilidad: una empresa es incapaz de explicar los criterios que ha seguido para enseñar un chatbot a responder frente a determinadas situaciones; incluso para ella hay funcionalidades que son cajas negras. Rendición de cuentas: en un accidente donde está involucrado un coche de conducción automática cuyo software de Machine Learning no ha funcionado adecuadamente, no se puede discernir la autoría de la culpa (el desarrollador de la aplicación de IA, el integrador, el fabricante del coche, …). Protección de datos personales: una persona no autorizada accede a los perfiles de usuario generados por una aplicación de ML y los divulga. Haciendo un mapeo de los impactos potenciales sobre los activos identificados en el ciclo de vida de las soluciones de IA, ENISA establece una taxonomía de amenazas dividida en las siguientes 7 categorías: Actividad/Abuso Malicioso: acciones destinadas a robar, alterar o destruir un determinado activo. Escucha/Intercepción/Secuestro: acciones destinadas a escuchar interrumpir o tomar el control de la comunicación de terceros sin ningún tipo de consentimiento. Ataques Físicos: acciones destinadas a destruir, alterar, deshabilitar, robar o acceder de forma no autorizada a activos físicos como infraestructura o hardware. Daño No Intencionado: acciones no intencionadas que causan destrucción o daño de la propiedad o a personas y resulta en un fallo o reducción de la funcionalidad de la aplicación. Fallo o Funcionamiento Fallido: funcionamiento insuficiente de un activo. Interrupción: corte inesperado de servicio o degradación de la calidad del servicio por debajo del nivel esperado. Desastre: accidente fortuito o catástrofe natural que causa daño o pérdida de vida. Legal: acciones de terceros basadas en la legislación, y destinadas a prohibir acciones o a compensar frente a pérdidas producidas. En total, estas 7 categorías se desglosan en 74 amenazas, complementadas a través de los Anexos B y D que especifican el activo afectado y su impacto, así como el mapeo con el ciclo de vida de la IA. 3. CONCLUSIONES El Informe de ENISA aparece en un momento oportuno: La IA se integra de forma progresiva en cada vez más aspectos de nuestra vida. Se están empezando a definir diferentes estrategias de IA, tanto en España como en otros países de la UE y del resto del mundo. El crimen organizado es cada vez más eficaz y rentable, y golpea con cada vez más crudeza organizaciones y ciudadanos. Es por lo tanto indispensable contar con una taxonomía de amenazas que sean específicas a la IA para conocer de qué manera el crimen organizado (u otros actores malintencionados como Estados o Ciberactivistas) pueden poner en riesgo las aplicaciones basadas en IA y cuál es el daño que pueden realizar. Este conocimiento debe ser aprovechado para identificar las estrategias de protección que, no debemos olvidar, es uno de los pilares de la confianza en la IA. Por otra parte, este estudio debe tomarse como un punto de partida. La investigación de la ciberseguridad en el campo de la IA es un trabajo constante que debe revisarse periódicamente. Cada nueva tecnología emergente traerá consigo nuevas amenazas y nuevos impactos que deberán ser evaluados. Por lo tanto, la Taxonomía de amenazas de ENISA deberá ser revisada de forma periódica para asegurar que sigue vigente. Además, hay que tener presente que dicha taxonomía es genérica y aplicable a cualquier sistema o aplicación basado en IA por igual. Cuando se realice un análisis de riesgos, habrá que tener en cuenta el contexto y se deberá evaluar las amenazas que son específicas a cada sector en el que está siendo usado (automóvil, sanitario, industrial, defensa, …). Finalmente, desde OdiseIA somos conscientes que estas iniciativas sólo serán efectivas si las administraciones públicas incentivan que las empresas adopten medidas de seguridad en las soluciones de IA, y los usuarios son cada vez más conscientes y piden seguridad en los productos. Por ello apoyamos este tipo de iniciativas que tienen como objetivo hacer que la IA pueda ser usada de forma fiable, y ayudamos a su divulgación. [1] Entendida como seguridad que no produce daño (al ser humano) o perjuicio. [Para tener acceso al documento de análisis de mayor extensión, no dudes en encontrarlo uniéndote a nuestras redes sociales de Twitter y Linkedin]

  • “El dilema de las redes sociales”. Una cuestión de poder

    El debate La tecnología que nos conecta también nos controla, manipula, polariza, distrae, monetiza, divide… El mensaje y las conclusiones de los autores y protagonistas del documental son claros y directos. Sobre ellas, sobre el “dilema de las redes sociales”, las reacciones que ha provocado o las posibles actuaciones o soluciones frente al poder de las redes han debatido dos decenas de socios de OdiseIA, profesionales de distintas áreas, muy vinculados y conocedores de las últimas tecnologías en sus distintas aplicaciones. Apenas empezado el diálogo un primer punto, de acuerdo, haberlo visto o saber de qué va el documental está siendo el origen de una conversación que ha transcendido más allá de él, expandiéndose exponencialmente sin limitarse por fronteras, para poner fuera de las redes cuestiones como la consciencia social o cómo se diseña y funciona la tecnología que usamos tan habitualmente y a la que, en general, tan poca atención se presta con toda la importancia e impacto que tiene en nuestras vidas. Salud mental En el ¿bienestar digital? en el que vivimos esta ficción de Netflix explica cómo funcionan los algoritmos y sus objetivos y nos plantea distintos dilemas, como el de la salud mental. Tal como recoge un estudio de 2017 de la American Journal of Epidemiology se comprobó que un mayor uso de los medios sociales se correlacionaba con un descenso de la salud mental y física y de la satisfacción con la vida. Algunos de los participantes en el debate, por propia experiencia, hablaron de esa fatiga, de acabar siendo profesionales “quemados”, de la hiperconectividad sin horarios y de cómo acaba afectando a la salud física y mental, en demasiadas ocasiones, sin que nosotros mismos queramos ser conscientes de ello pensado que lo tenemos controlado. También, pese a todas estas contrariedades, de la oportunidad que encontraron para un cambio, para descubrir de dónde viene esta tecnología, de la necesidad de la ética y de hablar y tener en cuenta un bienestar digital real, de hacer y fomentar el uso responsable de la tecnología y de la ocasión, tanto personal como en la sociedad, para tomar decisiones y acciones. Propuestas planteadas fueron mantener relaciones más saludables con la tecnología, como el Digital Wellness, o “tomar acción” para que se diseñe, regule y use pensando en la sociedad. Un apunte, muy presente en la serie y cotidiano en nuestros días, el impacto que tiene en la juventud el uso de las redes, su dependencia, las relaciones que establecen en ellas, etc. en un momento clave de sus vidas, el de la construcción de sus propias identidades y la formación de su personalidad. Ahora además se produce, con esta pandemia, con un enorme distanciamiento afectivo, con la alteración de referencias que permitan entender lo que se ve, lo que se siente… Discriminación y sesgos Entre otros temas de trabajo de OdiseIA está uno de los dilemas planteados, el de la discriminación y los sesgos. La propia Facebook, protagonista indiscutible del documental, recogía en un informe interno de 2018 que el 64% de las personas que se unieron a grupos extremistas en Facebook lo hicieron porque los algoritmos los guiaron hasta allí, al igual que le sucede a uno de los actores que interpreta un papel principal en “El dilema de las redes sociales”. No deja de sorprender que la tecnología, que es agnóstica en sí misma, tenga tantos efectos positivos y, a la vez, tantos negativos. Es paradójico que nos haya dado acceso a la mayor cantidad de información abierta jamás imaginada por el ser humano, haciendo visible tanto la histórica como la actual, pero que, al mismo tiempo, los algoritmos sean los creadores de burbujas basadas en recomendaciones personalizadas que, finalmente, limitan nuestro acceso y conocimiento de múltiples contenidos por estar en un bucle continuo de información, datos o contactos similares a los “supuestamente” preferidos por el usuario. Es en este círculo limitado en el que coinciden las opiniones y preocupaciones de la mayoría de los participantes en el debate, en estos nichos que restringen el conocimiento o en los que, para los juristas y especialistas en IA del grupo, priman los beneficios dando al usuario “lo que sea”, los intereses empresariales y, en especial tener poder, sobre la ética, el respeto o en la definición de cómo será un futuro claramente tecnológico. Encuentran en este modelo de negocio un gran riesgo de “destrucción masiva” ya que, opinan, “no predicen el futuro, lo causan” y es difícil de discernir si estas actuaciones o los comportamientos de los algoritmos, como los sesgos, son inevitables, involuntarios o voluntarios, responsables… Debate sobre “El dilema de las redes sociales” en OdiseIA Para las personas juristas del grupo, el aislamiento de la realidad, la creación de vidas paralelas que forman sociedades digitales virtuales que replican al mundo real o crean nuevas con sus ciudadanos, sus principios, sin fronteras… supone un desafío y una preocupación ya que, en nuestra vida cotidiana el marco normativo es muy importante, pero ¿con qué reglas, valores, principios, etc. se rigen estas sociedades virtuales? ¿Cuáles pueden considerarse como correctas? ¿Cómo podría ser su traslación al mundo real? Democracia y fake news Un dilema crítico en la actualidad es el de la democracia, con el aumento de las fake news y las campañas de desinformación, recogidos en múltiples informes de gobiernos, organizaciones, instituciones, ONGs… o con el impacto que han tenido en distintas elecciones, como fue el caso de las presidenciales estadounidenses de 2008 o el escándalo Cambridge Analytica. El control y uso de los datos, basado en el conocimiento de la psicología social y en los hábitos, costumbres y preferencias de los usuarios/clientes, carente de preocupación por cumplir o proteger derechos fundamentales por la obtención de beneficios empresariales, ha demostrado que marca y condiciona comportamientos individuales y colectivos pero, ¿deberían ser así? ¿Es suficiente el criterio de un algoritmo para conceder, restringir o denegar información o servicios? ¿Para determinar actuaciones humanas?… Como pueda ser desde la compra de una prenda de vestir a la orientación de un voto en cualquier democracia consolidada y libre. Estos condicionantes del comportamiento inquietan por la amenaza que supone que un algoritmo, o los intereses que estén detrás, puedan causar una “uniformidad de manipulados” con un comportamiento predecible por los dictados de la IA o por cumplir con los requisitos que esta supuesta inteligencia superior pueda plantear, aunque ésta sea “estúpida”. Surge, incluso, la pregunta de si las tecnologías “inteligentes”, o sus aplicaciones, deberían ser un servicio público, con sus reglas, instrumentalizadas y definidas dentro de un modelo social. Impacto personal Con todas estas cuestiones en debate entre los socios se planteó una cuestión personal: “¿Qué os ha parecido, qué os ha hecho sentir el documental?”. Respuestas habituales fueron “sorpresa, impotencia, preocupación, inquietud, pena, escepticismo…” por el uso que se da a la IA, por los sesgos y el modelo de negocio basado en la extracción de datos de los usuarios, por el “¿dónde vamos o hasta qué punto llegaremos?”. También felicidad por que este tema empiece a ser conocido, que genere impacto en la sociedad y que seamos conscientes de los grandes beneficios de la tecnología, de los avances o de las ventajas de conectar y compartir, pero siendo conscientes de que “el mal está ahí”. Por otro lado, se echó en falta determinados contenidos o la participación de responsables o personal actual de Facebook, dado que las personas protagonistas fueron empleadas hace años o son ajenas completamente a ellos. También que pueda ser en algunas cuestiones amarillista, excesiva o carente de matices. Es importante destacar que Facebook, en una acción poco habitual, ha dado en siete puntos una respuesta oficial a este documental de Netflix, cuyo algoritmo, no dejó de ser comentado. ¿Acciones? Y si estamos concienciados e impactados, ahora: ¿qué acciones se podrían tomar? Hay una primera reflexión histórica: las audiencias siempre se han buscado. Desde hace décadas se estudian comportamientos para adaptar los contenidos a la demanda, intereses o, más recientemente, la experiencia de usuario. Hace unos años llegaron la IA y los algoritmos, con todos sus beneficios y de la mano de dos cuestiones negativas: el concepto de burbuja (ejercicio de eficiencia como modelo de negocio) y la vinculación emocional. Las redes sociales podrían, de alguna manera, asemejarse al modelo de negocio del narcotráfico: crean adicción y redes clientelares para influir en las acciones de las personas, modificar su conducta y, esencialmente, tener dinero y poder. Un primer paso sería identificar qué acciones están en manos de las redes o de quiénes las controlan y cuáles en las nuestras. Como usuarios deberíamos recuperar capacidad crítica y sentido común para tener la oportunidad de decidir y definir quiénes somos y qué queremos. Como ciudadanía es importante ser consciente de que tenemos un problema colectivo, así como trabajar y demandar mejoras en la educación, en que se enseñe a manejar la tecnología y a tomar decisiones o en el conocimiento y protección de la ética y los derechos, sin olvidar los deberes. ¿Cómo podemos llevarlo desde abajo hasta arriba? Frente al escepticismo y falta de acción de las compañías, ya que la ética no es rentable económicamente, sí que se puede sensibilizar y movilizar a la sociedad (usuarios y clientes de las redes) y convencer a los anunciantes (financian este modelo de negocio), para que tomen acciones que obliguen a las empresas a tomar decisiones directas. Como usuarios/consumidores tenemos margen de influencia y responsabilidad, las empresas anunciantes, que se juegan su dinero e imagen, también. Además, frente a los modelos estadounidense y chino, en los que priman el mercantilismo, el control y la homogeneización para beneficio de empresas y estado, nunca para el individuo (al que se ha privado de sentido crítico y responsabilidad), en Europa contamos con el amparo del marco legal que proporcionan las instituciones comunitarias y que, en la mayoría de los estados miembros, se aplica en las legislaciones nacionales. En el tintero China, al igual que otras cuestiones “elefantes” como el uso de perfiles falsos o el flujo de datos a las agencias de inteligencia, quedaron apenas comentados por falta de tiempo. También si ahora sabemos que nuestros datos cuestan y generan negocio y dinero ¿hasta qué punto queremos ceder nuestra privacidad gratuitamente? ¿Qué consideramos como irrenunciable? Seguro que en próximas citas de OdiseIA estas y otras preguntas encontrarán debate y respuesta. David Corral Hernández es Responsable de Innovación de Contenidos en RTVE y Socio de OdiseIA. [Este artículo no representa la posición oficial de RTVE ni de OdiseIA en su conjunto]

  • Hablemos de ética de los robots: Área Relación Robots-Personas

    Desde OdiseIA prestamos especial atención al Área de Relación Robots-Personas, donde nos ocuparemos de soluciones como los robots sociales o la interacción cerebro-ordenador, proporcionando criterios éticos y buscando sobre todo el impacto social positivo. En OdiseIA seguimos avanzando y cubriendo más y más desafíos éticos y sociales ligados a la inteligencia artificial y también más y más enfoques sectoriales que van a encontrar un fuerte impulso con la puesta en marcha de nuestra iniciativa GuIA. En el apartado de desafíos ya trabajamos en aspectos tan importantes como la privacidad o la Inteligencia Artificial Inclusiva. Pero además, y en esa línea de avanzar en nuevos desafíos, prestamos especial atención a un área cuyo objeto de trabajo son los robots y, más concretamente, la interacción de los robots con las personas. Y, por ello, hemos bautizado a esta área como “Área de relación robots-personas”. Se trata de un área muy transversal. Un área en cuyo desarrollo y análisis se entrecruzan, por supuesto, elementos tecnológicos y problemáticas éticas, pero donde tienen también mucha cabida las aportaciones provenientes de campos como pueden ser la psicología, la antropología o la sociología. En el área de relación robots-personas nos centraremos principalmente en el análisis de tres tipos de soluciones y sus implicaciones éticas y sociales: 1) Robots sociales: un tipo de robots que salen del ámbito de la fábrica o el almacén para llegar al mundo de los servicios e, incluso, al ocio, a los hogares o a la atención socio-sanitaria. Un tipo de robot que con mucha frecuencia adopta formas humanoides y que se relaciona con las personas usando nuestros mismos medios de comunicación social como puede ser la voz, la mirada, el gesto, la expresión facial o el movimiento. Y unos robots que son capaces de detectar emociones en las personas y de expresarlas ellos mismos de una forma consistente y natural. En la base tecnológica y científica de este tipo de soluciones se encuentran, aparte de todos los aspectos propios de la robótica general y de la inteligencia artificial, incluyendo la visión artificial o el procesamiento de lenguaje natural, disciplinas más especializadas como HRI (Human-Robot Interaction) o ‘Affective computing’. 2) Asistentes virtuales y altavoces inteligentes: un tipo de soluciones ya bien conocidas por el gran público y que se relacionan con las personas fundamentalmente mediante el lenguaje y la voz. Aunque en su diseño y aspecto son planteamientos quizá algo más alejados de lo que normalmente entendemos por robot, al menos un robot humanoide, comparten con la robótica social algunos de sus desafíos éticos y posibilidades sociales y por ello parece conveniente unirlos bajo un mismo paraguas de estudio. 3) Exoesqueletos e interacción cerebro-máquina: unas tecnologías y soluciones que cambian el paradigma usado en los dos anteriores. En este caso, la relación entre la persona y la máquina o estructura robótica (como puede ser un exoesqueleto), no se produce mediante mecanismos de interacción social como el lenguaje, sino mediante una conexión directa de la máquina con el cerebro o el sistema nervioso de la persona según las tecnologías agrupadas bajo la denominación BCI (Brain Computer Interface). RELEVANCIA ÉTICA DEL ÁREA RELACIÓN ROBOTS-HUMANOS Los planteamientos éticos en lo relativo a la relación de los robots con las personas presentan facetas muy especiales. Es cierto que algunas de las problemáticas éticas que nos podemos encontrar son comunes a otro tipo de sistemas y soluciones. Así, por ejemplo, sigue siendo un reto el mantener la privacidad e intimidad de las personas. Al fin y al cabo, los robots, en su interacción con las personas, recogen información proveniente de éstas. Polémicas como la eventual escucha y procesamiento de conversaciones por parte de sistemas de altavoz inteligente están encima de la mesa y forman parte de la actualidad. Sin embargo, una parte importante de los retos éticos relacionados con los robots son sutiles y singulares. Sin abandonar todavía lo relativo a la privacidad, conviene tener en cuenta que algunos robots sociales captan información emocional de las personas. Es más, las personas pueden aportar, en la confianza que adquieren con el robot, información sensible sobre ellos mismos o su entorno. Y qué decir cuando esa información puede provenir directamente del cerebro o sistema nervioso de la persona. Se trata, pues, de una forma de enfocar la privacidad algo diferente, no tanto quizá en sus fundamentos éticos e incluso legales, pero sí probablemente en cuanto a su estudio teórico y procedimentación práctica. Quizá uno de los retos éticos más relevantes en lo relativo a la relación de los robots con las personas tenga que ver con la vinculación afectiva. Las personas tienden a establecer una vinculación emocional con los elementos con los que interactúan, sean estos animados o inanimados. Esto es especialmente relevante en el caso de los robots sociales en que con frecuencia su diseño intenta de forma intencionada, precisamente, establecer una relación satisfactoria con el interlocutor humano. Esto se suele hacer con la mejor de las intenciones y con frecuencia, con el mejor de los resultados, ya que la interacción es más natural, más fácil, más agradable y más productiva. Sin embargo, conviene estar prevenidos ante una vinculación emocional excesiva de los humanos con los robots, una vinculación que pueda degenerar en dependencia emocional del robot o incluso en aislamiento de otros seres humanos. Y, por desgracia, los robots, como cualquier sistema digital, pueden ser objeto de uso malicioso o de ciberdelincuencia y ser usados, por ejemplo, para la manipulación de las personas o la obtención de información sensible. Nuestro último bloque de soluciones objetivo, las interfaces cerebro-ordenador y los exoesqueletos, compartiendo algunos retos con los otros tipos de soluciones robóticas, abren algunos debates éticos tal vez más futuristas y quizá también de un mayor calado filosófico y trascendental, entrando en relación con temáticas como la propia naturaleza humana, el transhumanismo o la humanidad aumentada. VISIÓN Todos esos retos éticos forman parte del campo de trabajo de esta área. Sin embargo, la existencia de esas problemáticas éticas, no debe ser impedimento para una visión optimista y orientada a la acción. Los robots tienen muchísimo que aportar a nuestra sociedad. Y no hablamos únicamente, de todo lo que tiene que ver con avance tecnológico, con eficiencia de procesos, con nuevos productos y servicios o con desarrollo económico. Todo ello justifica, de sobra, el interés por los robots y la apuesta por su desarrollo e implantación. Pero además los robots ofrecen unas posibilidades fantásticas de impacto social positivo, un impacto que, más allá de lo estrictamente económico, nos permite de hablar del uso de los robots para el bien. Existen experiencias exitosas, por ejemplo, del empleo de robots en educación y no sólo en educación general de niños o personas, sino también en la educación de niños, por ejemplo, con trastornos del espectro autista. Existen también pilotos de soluciones basadas en interacción cerebro-ordenador para mejorar las condiciones de enfermos de Parkinson, y, combinados con exoesqueletos o estructuras robóticas, para la rehabilitación incluso de tetrapléjicos. Se ha experimentado también con éxito en el alivio de la soledad, en la compañía y ayuda a ancianos e, incluso a personas afectada de demencia empleando robots sociales. Las posibilidades de uso de los robots para el bienestar de las personas, especialmente de colectivos vulnerables o desfavorecidos, constituyen por sí mismos una exigencia ética. Y, en el fondo, es esta última exigencia ética la que más nos anima e impulsa. En esta nueva área que ahora lanzamos, el área de relación robots-personas, queremos crear conciencia y hacer divulgación. Queremos también proporcionar criterios éticos para el uso de este tipo de soluciones basadas en robots. Pero, sobre todo, nos encantaría conseguir ese impacto social positivo. Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es Profesor, Director académico y mentor de proyectos en Escuela de Organización Industrial y colaborador en otras escuelas de negocio. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y en 2021 ha publicado “Robots en la sombra: RPA, robots conversacionales y otras formas de automatización cognitiva” (Anaya Multimedia).

bottom of page