OdiseIA, PwC, Google, Microsoft, IBM y Telefónica, con la presencia de Carme Artigas (SEDIA), presentan una guía para adoptar la Inteligencia Artificial de manera responsable.
Es el primer resultado de GuIA, una iniciativa de OdiseIA, a la que se están uniendo más de 50 empresas de 10 sectores diferentes.
Al final de este post está disponible el enlace para poder descargar el documento, así como el vídeo con la grabación del evento de presentación.
El evento contó con la presencia de Carme Artigas, la Secretaria de Estado de Digitalización e Inteligencia Artificial del Gobierno de España Su presencia pone de manifiesto el proceso de modernización en el que se encuentra nuestra sociedad, y el apoyo realizado desde las instituciones públicas para que se lleve a cabo. En la clausura del evento, Carme Artigas remarcó como “La IA nos presenta un nuevo escenario lleno de grandes incertidumbres que abordaremos desde una firme vocación ética y humanista.”
La Inteligencia Artificial y la necesidad de la ética
La Inteligencia Artificial (IA) ya está presente en nuestras vidas: cuando compramos por Internet, cuando nos recomiendan películas o canciones, cuando traducimos automáticamente un texto, o cuando hablamos con nuestros dispositivos. Pero también hace predicciones o participa de decisionesque tienen un impacto importante en nuestras vidas, como cuando queremos contratar un producto financiero o un seguro, nos hacen un diagnóstico médico, y un largo etcétera que irá aumentando en los próximos años,
“Pero la IA puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros. También la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Por estos motivos es necesario el desarrollo de la ética asociada a la IA”,tal y comoindicó Idoia Salazar, presidenta de OdiseIA, el Observatorio Del Impacto Social y Ético de la Inteligencia Artificial. Lo hizo al inicio del evento celebrado este jueves 17 de febrero, en un formato híbrido (online y presencialmente desde la escuela de negocios ISDI en Madrid), donde se presentó el primer resultado de la iniciativa GuIA.
El nacimiento de GuIA
En noviembre de 2020, OdiseIA lanzó públicamente la iniciativa GuIA con el apoyo de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). En aquel evento también participaron Google, Microsoft, IBM y Telefónica, y todos los intervinientes consensuaron la necesidad de aterrizar los conceptos éticos que envuelven a la Inteligencia Artificial. La importancia de cubrir el espacio vacío que existe entre las declaraciones de principios globales que sirvieron hace unos años para arrancar las reflexiones éticas en la IA, y la realidad aterrizada en casos de negocio concretos. Resuelta además a través de tecnologías específicamente diseñadas para ello.
Y este es el objetivo de GuIA: establecer un ecosistema colaborativo donde las empresas puedan consultar y aportar su experiencia aterrizada en la adopción de la Inteligencia Artificial atendiendo a buenas prácticas tanto en el plano ético como en el normativo.
De la responsabilidad a la obligatoriedad
Desde la presentación de GuIA han ocurrido hechos importantes que han remarcado la necesidad del objetivo de esta iniciativa.
En diciembre de 2020, la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) publicó la Estrategia Nacional de Inteligencia Artificial (ENIA), dedicando por entero uno de sus seis ejes a la necesidad de una Inteligencia Artificial ética y normativa.
En noviembre de 2021, la UNESCO publicó un informe sobre la ética de la Inteligencia Artificial donde se instaba a la creación de políticas y marcos normativos para asegurar que estas tecnologías emergentes benefician a la humanidad en su conjunto.
De hecho, en abril de 2021, la Comisión Europea presentó su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial (AI Act). El proyecto de ley pretende establecer una regulación horizontal sobre la IA y, una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años.
Por tanto, más allá de la responsabilidad proactiva de las empresas en adoptar la IA de manera ética y responsable (algo que es necesario), ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley. A este respecto, iniciativas como GuIA pueden ayudar a las empresas a conseguirlo.
Una primera guía elaborada por más de treinta expertos
Este primer informe GuIA que ha sido presentado el jueves 17 de febrero, es el primer resultado de dicha iniciativa. Tiene más de doscientas páginas y ha sido elaborado por un equipo multidisciplinar de más de treinta personas formado por tecnólogos y juristas de OdiseIA y PwC, junto a expertos de Google, Microsoft, IBM y Telefónica.
Incluye un detallado estudio de los principios éticos que aplican a la IA, realizado a partir del análisis de treinta iniciativas de todo el mundo, al que se ha agregado un análisis jurídico de dichos principios. Por último, y con su contante vocación de aterrizar estos conceptos, se incluyen las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM que permiten su gestión, así como la experiencia de Telefónica en este ámbito.
En el evento se presentaron las principales conclusiones, así como los próximos pasos de la iniciativa. Todo en varias mesas redondas dirigidas por Mar Cabra, Periodista ganadora del premio Pulitzer y co-fundadora de OdiseIA.
Para Juan Manuel Belloto, director de OdiseIA responsable de la iniciativa GuIA, “Las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen la responsabilidad de que su IA esté desarrollada bajo principios éticos. Al igual que en la sociedad, a la ética es necesario acompañarla de legislación. Y por primera vez la legislación no se está dejando esperar, un claro síntoma de su importancia en la IA. Otro síntoma de la importancia de este reto es ver como empresas con muchos negocios solapados se unen en GuIA para abordar este reto de forma conjunta.”
De igual manera Armando Martínez Polo, socio de PwC España remarcó que “El uso ético y responsable de la Inteligencia Artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica no existirá la posibilidad de no prestar atención a este tema. La aportación de GuIA creemos que es fundamental para generar comunidad, y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas”
La importancia de los marcos éticos y normativos
Se expusieron los principales marcos éticos y normativos a tener en cuenta, siempre teniendo presente que están evolucionando y hay que estar atentos a esos cambios para reducir el riesgo de usos incorrectos.
“Una parte importante del uso ético de la IA es democratizar la necesidad concienciando a todos los miembros de una organización de su importancia. El reto a futuro es que no se vea como algo que hay que hacer, sino como algo que quieren hacer. Los marcos éticos son clave para la fase en donde estamos, pero no son suficientes para el futuro”, según Richard Benjamins, vicepresidente de OdiseIA.,
Igualmente, Patricia Manca (Partner en PwC New Law España), remarcó que “la máxima de cualquier regulación de la Inteligencia Artificial debe fundamentarse en lograr los máximos beneficios para las personas, por lo que la involucración proactiva de todos en su desarrollo, implementación y correcta contextualización es clave para el futuro. Cómo se defina e implemente su marco normativo dependerá de nuestro ejercicio responsable como sociedad democrática y defensora de los derechos humanos”
El compromiso de Google, Microsoft e IBM
Estas compañías están haciendo un gran esfuerzo por ayudar a que la IA sea adoptada de manera ética. Llevan años publicando sus estudios y herramientas para que las empresas que hacen uso de su tecnología lo hagan de una manera responsable. La iniciativa GuIA ha agrupado y sintetizados sus extensos planteamientos para ayudar a que las empresas puedan minimizar los riesgos derivados de no tenerlos en cuenta.
Miguel Escassi, Director de políticas públicas y Asuntos con el Gobierno de Google, declaró que “la inteligencia artificial es una tecnología que nos ayuda a enfrentar desafíos globales que van de la sostenibilidad a la accesibilidad pasando por la educación o la salud. La ética y la regulación son partes centrales en este avance y, por eso, apoyamos y participamos en proyectos como GuIA cuyo objetivo es facilitar el acceso de todos al conocimiento y a las herramientas que les permita desarrollar sus productos y servicios con responsabilidad.”
También Alberto Pinedo (National Technology Officer de Microsoft) señaló como “Creemos en el potencial de la Inteligencia Artificial para mejorar nuestras vidas y tenemos que hacerlo para el beneficio de todos. Por primera vez tenemos sistemas que asumen el papel que juegan las personas, y debemos examinar los efectos sobre las personas y la sociedad. Responsible AI es la estrategia que adoptamos para desarrollar e implementar nuestra tecnología de manera que se cumplan nuestros principios de equidad, confiabilidad, privacidad y seguridad, transparencia, responsabilidad e inclusión y que sea accesible para todas las personas.”
Enric Delgado Samper (CTO de IBM España, Portugal, Grecia e Israel) indicó que “hay que tener presente que el propósito de la IA es aumentar la inteligencia humana, que los datos y los conocimientos generados deben pertenecer a su creador, y que tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas. Estos principios son fundamentales, pero estamos ya en un momento en el que hay que ir más allá y pasar a aspectos prácticos de implementación, a nivel de procesos y de tecnología, para poder gestionar y gobernar las soluciones de IA a lo largo de todo su ciclo de vida. Por ello, desde IBM aportamos procesos, servicios y una suite de herramientas específicas, nacidas de IBM Research y disponibles para todo el mundo, segmentadas en cinco áreas clave -explicabilidad, equidad, robustez, transparencia y privacidad- que han quedado muy bien descritas en la GuIA de OdiseIA”.
Telefónica como ejemplo de adopción de la IA de manera ética
La compañía española lleva tiempo inmersa en un proceso de transformación para que su adopción de la IA tenga en consideración estos principios éticos y su normativa asociada. Su experiencia fue contada por Francisco José Montalvo, Chief Data Officer de Telefónica, quien señaló que “En Telefónica, nuestros principios sitúan a las personas en el centro y garantizan el respeto de los derechos humanos en cualquier entorno y proceso en el que se use la inteligencia artificial. Así, estamos trabajando para implementar, sobre la base ya existente de Privacidad por Diseño, una capa adicional que denominamos Ética por Diseño. En ella, implementamos técnicamente los valores y principios éticos durante el ciclo de vida de nuestros productos de Inteligencia Artificial, además de definir las técnicas organizativas necesarias para su consecución”
Próximos pasos ya lanzados: Adaptación sectorial y Formación
Las empresas sectoriales también están muy concienciadas a sabiendas de la responsabilidad que tienen con sus clientes. Además de que un uso éticamente correcto de estas tecnologías podría impactar positivamente en la percepción que de ellos pudieran acabar teniendo los mismos.
Ya han comenzado los trabajos para adaptarlo a las particularidades de diez sectores empresariales, para lo que contarán con más de 50 empresas. Con la misma vocación de aterrizaje que dirige toda la iniciativa, en este caso se realizará sobre casos actuales o potenciales susceptibles de ser soportados por Inteligencia Artificial.
Por tanto, la iniciativa también proporcionará a dichos sectores el conocimiento necesario para modernizar sus negocios a través de IA, y además hacerlo de manera ética y responsable.
El trabajo llevará hasta mediados de 2023, y ya han comenzado los preliminares de los sectores de salud, seguros y publicidad.
Además, la iniciativa GuIA abordará formaciones detalladas en Escuelas de Negocio y Universidades para hacer llegar estos conceptos a los profesionales de hoy y a los del futuro. A este respecto Rodrigo Miranda, director general de la escuela de negocios ISDI, comentó que “el impacto que la Inteligencia Artificial va a tener en todos los sectores e industrias está ya fuera de toda duda, pero queda mucho camino a recorrer en formar a las organizaciones y a su fuerza de trabajo. Aplicar principios éticos en el campo de la Inteligencia Artificial se convertirá más en un deber que en una oportunidad para las compañías: si no tienes una IA ética, no existirás. Hay que capacitar a las organizaciones en lo que implica la aplicación de principios éticos en la Inteligencia Artificial. Éstos comienzan desde el mismo momento que las compañías recogen datos de los clientes hasta el momento de elección y aplicación de un algoritmo. La ética en la Inteligencia Artificial asegurará que esa caja negra (black box) en la que en ocasiones se posiciona a la Inteligencia Artificial, deje de serlo”
En definitiva, la Inteligencia Artificial ya tiene un papel fundamental en empresa y sociedad, y lo tendrá aún mucho más. Es por tanto fundamental que las empresas la adopten atendiendo a principios éticos y preceptos normativos. Para ello son necesarias iniciativas como GuIA, para saber cómo hacerlo, y para extender ese conocimiento todo lo posible, de manera colaborativa entre empresas que pueden tener competencia comercial, pero a la vez tener una misma misión común.
Tal y como refleja la misión de OdiseIA, trabajar conjunta y activamente por un uso ético y responsable de una Inteligencia Artificial que tenga en su centro el bienestar del ser humano
Aquí puedes ver la grabación del evento de presentación de la GuIA
Comments