
Search Results
94 resultados encontrados
- TODOS (PASAMOS POR SITUACIONES EN QUE) SOMOS VULNERABLES.
He conocido a algunos astronautas. Su imagen es lo más opuesto que alguien pueda imaginar a un ser vulnerable. Su nivel de preparación física e intelectual, su aplomo y capacidad para razonar bajo presión no es una invención de las películas. Sin embargo, cuando en la película 2001, una odisea del espacio , el astronauta David Bowman ordena a Hal9000 que abra la compuerta del Discovery1 , el actor Keir Dullea, que da vida al Dr. Bowman, es la viva imagen de la vulnerabilidad. Todos somos vulnerables en alguna circunstancia. Es más, todos tenemos alguna circunstancia que nos hace vulnerables; un “punto débil”. El ámbito digital tiene, en ese sentido, mucho parecido al espacio exterior. La mayoría de nosotros solo ha visto el ciberespacio a través de la ventanilla que suponen las pantallas de nuestros ordenadores y teléfonos, pero lo que se esconde detrás sigue siendo un misterio. Los humanos tendemos a resolver los misterios de dos maneras, mediante la razón o mediante el recurso a los mitos. A falta de elementos de juicio, la mitología es la salida natural. La inteligencia artificial (IA) se convierte así, para muchos, en un ente sobrenatural, omnisciente y objetivo cuya palabra debe ser creída porque, al fin y al cabo, tiene acceso a toda la información y no tiene preferencias a priori. Lo cierto es que las continuas campañas de alabanza (marketing) de la IA que lanzan sus mismos desarrolladores, las grandes compañías del sector, contribuyen notablemente a que pensemos que Hal9000 o Terminator han adquirido -o están a punto de adquirir- conciencia de sí mismos. Sin embargo, el riesgo de que las máquinas se humanicen es mucho menor que el de que los humanos nos mecanicemos. El truco es mantener las bolas en el aire hasta que realmente haya bolas. Nos gusta ver la realidad en blanco y negro, en bueno y malo, en positivo y negativo. Pero la realidad tiene muchos más matices, muchos tonos de gris. Por eso, los riesgos que presenta la IA para los humanos son tan variados, al menos, como las oportunidades que ofrece. Eso sí, como en el caso del resto de las tecnologías digitales, el mayor de los riesgos es no utilizarla. Simplificando, los riesgos derivados de nuestra interacción con la IA vienen dados por dos factores: nosotros y la IA. Es decir, factores que aportamos los humanos con nuestros sesgos y limitaciones, y factores que introducen las máquinas con los sesgos y las limitaciones de su diseño (en seguridad de vuelo decimos que todos los accidentes son producto de errores humanos; bien del piloto, bien del mecánico, bien del ingeniero que diseñó el sistema). Vamos, que la IA sí tiene prejuicios; unos inducidos por nosotros voluntariamente y otros por fallos en el diseño. La IA pone un enorme espejo a nuestra disposición reflejando cómo somos los mismos humanos. Estudia los datos que le damos y extrae consecuencias sin tener mayor información sobre el contexto que la que le hayamos dado (o permitido adquirir). Nos hace ver, con sus defectos, una caricatura de los nuestros. Con la máquina no vale decir “ni que decir tiene”, porque aquello que no se le dice, no existe para ella. Es lo que se llama “conocimiento tácito”. Tiene siempre en “la mente” todo lo que sabe, pero nada que no haya aprendido. Las probabilidades de que una máquina te deje sin trabajo son mucho menores que las que hay de que alguien que sepa utilizar una máquina te arrebate el puesto. La amenaza no es que las máquinas adquieran conciencia de sí mismas, sino que nosotros no adquiramos conciencia de que estamos trabajando con máquinas y de las posibilidades que eso ofrece. En el primer caso, de que no seamos conscientes de que trabajamos con máquinas y que creamos por un momento que razonan y sienten como nosotros. Ninguna de las dos afirmaciones es cierta. En el segundo, de que seamos incapaces de extraer el partido que puede ofrecernos el aumento de capacidades que surge de la interacción con las máquinas. En el proyecto cAIre, que lleva a cabo OdiseIA en colaboración con Google , estamos estudiando cómo la IA afecta a los individuos y a los grupos humanos en situación de vulnerabilidad. Definir estas vulnerabilidades -y, obviamente, a esos grupos- ha sido el primer paso. No pretendemos hablar de justicia social, sino de cómo la IA puede alterarla o mejorarla. Cuanto mayor sea nuestra dependencia de las máquinas, mayor será el impacto de su actuación en nuestras vidas. Salvo que, el más grande de esos impactos sería el no tener acceso a su contribución.
- El impacto de la inteligencia artificial en las profesiones del futuro: reflexiones desde el Grupo 2.1 del Proyecto Google CAIRE
En un mundo donde la tecnología evoluciona a un ritmo vertiginoso, la inteligencia artificial (IA) se posiciona como un catalizador del cambio en todos los ámbitos de la sociedad, en especial el laboral. El Grupo 2.1 del proyecto Google CAIRE, ha emprendido una investigación profunda sobre las implicaciones de la IA en las profesiones del futuro. Este artículo explora algunos de los hallazgos, reflexiones y retos identificados por este grupo de expertos, conformado por profesionales de distintos sectores. Un equipo multidisciplinar al servicio del conocimiento El Grupo 2.1 integra perfiles diversos que aportan una mirada integral: Ricardo Palomo : Profesor y decano de la Facultad de Económicas en la Universidad de San Pablo, con amplia experiencia en la gestión educativa. José Javier Sesma : Técnico de sistemas informáticos y miembro activo de Odisea, enfocado en soluciones tecnológicas aplicadas. Jorge Cerqueiro : Profesor en la Escuela de Ingeniería Industrial de la Universidad de Vigo, comprometido con el desarrollo de una IA ética y humana. Dolores Abuin : Jurista, investigadora independiente, ponente y creadora de contenido Frank Escandell : MCSE y profesional del desarrollo de negocios tecnológicos Este equipo refleja el carácter multidisciplinar que requiere una investigación sobre un tema tan complejo como el impacto laboral de la IA. El enfoque de la investigación La metodología adoptada combina: Revisión bibliográfica : Análisis de informes de consultoras y estudios académicos que abordan el impacto de la IA en el empleo. Entrevistas cualitativas y cuantitativas : Entrevistas privadas con expertos de diversas áreas, incluyendo tecnología, recursos humanos y sectores industriales. Los cuestionarios incluyeron 31 preguntas estructuradas en seis bloques temáticos: Impacto general de la IA. Sectores más afectados. Opiniones sobre el futuro del trabajo. Grupos vulnerables. Reflexiones específicas del sector. Principales hallazgos 1. Una realidad optimista, pero desafiante Los expertos entrevistados coinciden en que la IA ofrece oportunidades significativas: Automatización de tareas repetitivas, liberando tiempo para actividades creativas y humanas. Creación de nuevas profesiones y potenciación de las existentes. Mejora en la calidad de vida al reducir la carga laboral. Sin embargo, también identificaron retos: Grupos vulnerables : Personas cuyos empleos están en riesgo debido a la automatización. Brechas de formación : La necesidad de re-skilling y up-skilling para garantizar la empleabilidad. 2. Sectores con mayor impacto La IA afecta de manera diversa a los sectores: Sector servicios : Gran transformación debido a la automatización de tareas administrativas y de atención al cliente. Educación y salud : Personalización de servicios y mejora en la eficiencia mediante el uso de datos. Industria : Implementación de deep learning y visión artificial en procesos operativos. 3. El papel de la formación continua La educación permanente se posiciona como clave para adaptarse a la revolución tecnológica. En este sentido: Las grandes y medianas empresas lideran la capacitación en habilidades tecnológicas. Las pequeñas empresas enfrentan mayores barreras para implementar programas de formación. Los sectores académicos y administrativos destacan en la adopción temprana de herramientas de IA. La dimensión social de la IA El Grupo 2.1 resalta que la IA no sólo transforma el empleo, sino también redefine la sociedad. La figura de "Paqui", una mujer ficticia que representa a cualquier ciudadano promedio, ilustra cómo la IA influye en la vida cotidiana y por qué debería importarle a "ella": Uso de aplicaciones para gestiones bancarias y administrativas. Acceso a servicios personalizados en salud y educación. Cambios en el mercado laboral que afectarán a sus hijos y futuras generaciones. Perspectivas y retos futuros Aunque los expertos destacan un panorama optimista, también identifican desafíos clave: Sostenibilidad energética : Los sistemas de IA requieren infraestructura tecnológica intensiva en energía, lo que plantea preguntas sobre su viabilidad a largo plazo. Viabilidad económica : Muchas empresas tecnológicas operan con modelos de inversión no sostenibles. Brechas de implementación : La adopción desigual de la IA podría exacerbar las desigualdades sociales y económicas. Reflexiones finales del Grupo 2.1 Los miembros del grupo concluyen que el futuro del trabajo estará marcado por el cambio constante. Frases como "preparaos porque hay muchas oportunidades, pero hay que prepararse" y "luchemos por un mundo mejor en el que la IA nos ayude a conseguirlo" sintetizan el espíritu de adaptación y optimismo que caracteriza a esta era. Epílogo: construyendo un futuro sostenible y humano La inteligencia artificial representa una herramienta poderosa para transformar el mundo laboral y social. Sin embargo, su éxito dependerá de la capacidad de gobiernos, empresas y ciudadanos para adaptarse a los cambios y garantizar que la tecnología beneficie a todos. El trabajo del Grupo 2.1 es un llamado a la acción para construir un futuro más equitativo, sostenible y humano, donde la tecnología y las personas colaboren de manera armónica.
- Primera Cumbre de Espacios de Datos en España
El 3 y 4 de diciembre Madrid fue el epicentro de la Primera Cumbre de Espacios de Datos en nuestro país. Con una asistencia de 270 participantes, entre los cuales se encontraba nuestra socia Patricia Llaque, OdiseIA estuvo presente en este acontecimiento que consolida a Gaia-X España como referente nacional en la Economía del Dato. Más de 90 ponencias de destacados actores en los espacios de datos, entre los que se encontraban representantes gubernamentales y responsables de proyectos europeos y nacionales, permitieron acercarnos a conocer casos de uso concretos en torno a la explotación y compartición de datos en sectores clave como Turismo, Salud, Agroalimentario, Industria y Energía, Movilidad, entre otros. Nos sumamos, en este sentido, al compromiso de Gaia-X España en su liderazgo hacia la consolidación de un ecosistema digital basado en la confianza, la interoperabilidad y la soberanía tecnológica, donde los aspectos éticos de la Inteligencia Artificial son de indiscutible relevancia. Así como al agradecimiento a la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) del Ministerio para la Transformación Digital y de la Función Pública por su apoyo y visión estratégica. De forma paralela, se realizó un Hackaton que ha sido calificado como " ejemplo inspirador de talento, creatividad y capacidad de colaboración que define el futuro de los espacios de datos". Este evento fue coordinado por la Universidad Politécnica de Madrid, TECNALIA Research & Innovation, CTIC Technology Centre, Arsys y Grupo Aire.
- Advantere y OdiseIA: Innovación Tecnológica y Ética en IA
Una alianza para preparar a los líderes del futuro en el uso responsable de la IA Advantere School of Management , a través de su Tech Academy , y OdiseIA , el Observatorio del Impacto Social y Ético de la Inteligencia Artificial, han firmado un acuerdo para impulsar el conocimiento de la inteligencia artificial (IA) y concienciar sobre su uso ético en el ámbito empresarial. Esta colaboración refuerza el compromiso de ambas instituciones con la formación de líderes que integren tecnología avanzada y responsabilidad social en sus carreras. Tech Academy de Advantere: competencias tecnológicas para la empleabilidad La Tech Academy de Advantere se centra en dotar a sus estudiantes de las competencias digitales necesarias para destacar en un entorno empresarial en constante transformación. A través de itinerarios formativos específicos, los estudiantes tendrán acceso a herramientas tecnológicas de vanguardia y la oportunidad de conocer el ecosistema tecnológico global mediante colaboraciones con centros como Madrid Innovation Lab (MIL) , EY Wavespace y, ahora, OdiseIA . Iniciativas conjuntas para un aprendizaje integral Como parte de este acuerdo, los alumnos y profesores de Advantere participarán activamente en iniciativas de OdiseIA, como webinars, hackatones y podcasts, que permitirán a los estudiantes adquirir conocimientos técnicos y éticos en IA, aplicándolos en contextos empresariales reales. Por otro lado, los profesores asociados a OdiseIA pueden participar en los cursos de Advantere para transmitir la importancia y mostrar casos prácticos del uso responsable de la inteligencia artificial. Fomentando un enfoque ético en el uso de la IA La colaboración también se centra en desarrollar una conciencia ética sobre el impacto de la IA en la sociedad. Advantere contribuirá en proyectos de OdiseIA que promuevan el uso responsable de la IA, facilitando la transferencia de conocimiento entre instituciones educativas. Declaración de María Barceló, Directora de Tech Academy en Advantere School of Management: "Nuestra colaboración con OdiseIA nos permite ir más allá de la formación tecnológica tradicional. Queremos que nuestros estudiantes no solo dominen las herramientas tecnológicas, sino que también comprendan las implicaciones éticas de su uso. Este acuerdo refuerza nuestro compromiso de formar profesionales que lideren el cambio digital de manera responsable y sostenible." Declaración de Dr. Richard Benjamins, CEO de OdiseIA: “ Estamos muy ilusionados de que Advantere se haya asociado con OdiseIA. Creemos que la formación es clave para generar los conocimientos necesarios para un futuro sostenible. Los profesionales del futuro no solo deben tener conocimientos de negocio y tecnología (los llamados perfiles ‘T-shaped’, con dos ejes), sino que también deben comprender el impacto social, ético y ambiental del uso de la tecnología. En este sentido, evolucionamos de perfiles ‘T-shaped’ a perfiles con tres ejes: los ‘K-shaped’.” Sobre Advantere School of Management Advantere es una institución educativa innovadora que prepara a sus estudiantes para los retos del futuro, combinando una sólida formación académica con experiencias prácticas. A través de su Tech Academy, Advantere integra la tecnología como un eje clave para la empleabilidad y el liderazgo responsable. Sobre OdiseIA OdiseIA es una organización independiente que promueve el uso ético y responsable de la inteligencia artificial. Su misión es abordar los desafíos sociales y éticos de la IA, colaborando con empresas, universidades y organismos públicos para equilibrar la innovación tecnológica con la responsabilidad social.
- Premios OdiseIA: Reconocimiento a la Innovación en IA
Ayer, en la gala de premios de INDESIA , se otorgaron dos importantes reconocimientos a proyectos destacados en inteligencia artificial: Premio al mejor equipo de IndesIAhack: El galardón fue otorgado al equipo que desarrolló con éxito el reto planteado por Ferrovial , tras su destacada participación en el hackathon IndesIAhack , celebrado del 6 al 8 de noviembre en la Universidad Politécnica de Madrid . Este evento reunió a estudiantes y profesionales de todo el país para resolver retos reales mediante el uso de inteligencia artificial, contando con la participación destacada de los socios de OdiseIA: Richard Benjamins y Fabián García Pastor . Premio al mejor proyecto de los datatones de INDESIA: Este reconocimiento destacó el proyecto más sobresaliente de los datatones realizados por INDESIA, una iniciativa que impulsa el uso de la inteligencia artificial en el sector industrial, promoviendo soluciones innovadoras y de impacto. OdiseIA , como parte de su compromiso con la ética en inteligencia artificial , premió a ambos equipos con la elaboración de un Informe Ético , asegurando que el desarrollo de sus proyectos cumpla con los más altos estándares de ética, robustez y confiabilidad . Este reconocimiento refuerza la importancia de aplicar la inteligencia artificial de manera responsable y sostenible. ¡Enhorabuena a los equipos premiados por su esfuerzo, talento e innovación! Desde OdiseIA continuamos impulsando una IA ética y transformadora junto a INDESIA .
- OdiseIA presenta el primer informe GuIA, una iniciativa para saber cómo adoptar la Inteligencia Arti
OdiseIA, PwC, Google, Microsoft, IBM y Telefónica, con la presencia de Carme Artigas (SEDIA), presentan una guía para adoptar la Inteligencia Artificial de manera responsable. Es el primer resultado de GuIA, una iniciativa de OdiseIA, a la que se están uniendo más de 50 empresas de 10 sectores diferentes. Al final de este post está disponible el enlace para poder descargar el documento , así como el vídeo con la grabación del evento de presentación. El evento contó con la presencia de Carme Artigas, la Secretaria de Estado de Digitalización e Inteligencia Artificial del Gobierno de España Su presencia pone de manifiesto el proceso de modernización en el que se encuentra nuestra sociedad, y el apoyo realizado desde las instituciones públicas para que se lleve a cabo. En la clausura del evento, Carme Artigas remarcó como “ La IA nos presenta un nuevo escenario lleno de grandes incertidumbres que abordaremos desde una firme vocación ética y humanista .” La Inteligencia Artificial y la necesidad de la ética La Inteligencia Artificial (IA) ya está presente en nuestras vidas: cuando compramos por Internet, cuando nos recomiendan películas o canciones, cuando traducimos automáticamente un texto, o cuando hablamos con nuestros dispositivos. Pero también hace predicciones o participa de decisionesque tienen un impacto importante en nuestras vidas, como cuando queremos contratar un producto financiero o un seguro, nos hacen un diagnóstico médico, y un largo etcétera que irá aumentando en los próximos años, “ Pero la IA puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros. También la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Por estos motivos es necesario el desarrollo de la ética asociada a la IA ”,tal y comoindicó Idoia Salazar , presidenta de OdiseIA, el Observatorio Del Impacto Social y Ético de la Inteligencia Artificial. Lo hizo al inicio del evento celebrado este jueves 17 de febrero, en un formato híbrido ( online y presencialmente desde la escuela de negocios ISDI en Madrid), donde se presentó el primer resultado de la iniciativa GuIA. El nacimiento de GuIA En noviembre de 2020, OdiseIA lanzó públicamente la iniciativa GuIA con el apoyo de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). En aquel evento también participaron Google, Microsoft, IBM y Telefónica, y todos los intervinientes consensuaron la necesidad de aterrizar los conceptos éticos que envuelven a la Inteligencia Artificial. La importancia de cubrir el espacio vacío que existe entre las declaraciones de principios globales que sirvieron hace unos años para arrancar las reflexiones éticas en la IA, y la realidad aterrizada en casos de negocio concretos. Resuelta además a través de tecnologías específicamente diseñadas para ello. Y este es el objetivo de GuIA : establecer un ecosistema colaborativo donde las empresas puedan consultar y aportar su experiencia aterrizada en la adopción de la Inteligencia Artificial atendiendo a buenas prácticas tanto en el plano ético como en el normativo . De la responsabilidad a la obligatoriedad Desde la presentación de GuIA han ocurrido hechos importantes que han remarcado la necesidad del objetivo de esta iniciativa. En diciembre de 2020, la Secretaría de Estado de Digitalización e Inteligencia Artificial ( SEDIA ) publicó la Estrategia Nacional de Inteligencia Artificial (ENIA), dedicando por entero uno de sus seis ejes a la necesidad de una Inteligencia Artificial ética y normativa. En noviembre de 2021, la UNESCO publicó un informe sobre la ética de la Inteligencia Artificial donde se instaba a la creación de políticas y marcos normativos para asegurar que estas tecnologías emergentes benefician a la humanidad en su conjunto. De hecho, en abril de 2021, la Comisión Europea presentó su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial ( AI Act ). El proyecto de ley pretende establecer una regulación horizontal sobre la IA y, una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años. Por tanto, más allá de la responsabilidad proactiva de las empresas en adoptar la IA de manera ética y responsable (algo que es necesario), ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley. A este respecto, iniciativas como GuIA pueden ayudar a las empresas a conseguirlo. Una primera guía elaborada por más de treinta expertos Este primer informe GuIA que ha sido presentado el jueves 17 de febrero, es el primer resultado de dicha iniciativa. Tiene más de doscientas páginas y ha sido elaborado por un equipo multidisciplinar de más de treinta personas formado por tecnólogos y juristas de OdiseIA y PwC, junto a expertos de Google, Microsoft, IBM y Telefónica. Incluye un detallado estudio de los principios éticos que aplican a la IA, realizado a partir del análisis de treinta iniciativas de todo el mundo, al que se ha agregado un análisis jurídico de dichos principios. Por último, y con su contante vocación de aterrizar estos conceptos , se incluyen las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM que permiten su gestión, así como la experiencia de Telefónica en este ámbito. En el evento se presentaron las principales conclusiones, así como los próximos pasos de la iniciativa. Todo en varias mesas redondas dirigidas por Mar Cabra , Periodista ganadora del premio Pulitzer y co-fundadora de OdiseIA. Para Juan Manuel Belloto, director de OdiseIA responsable de la iniciativa GuIA, “Las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen la responsabilidad de que su IA esté desarrollada bajo principios éticos. Al igual que en la sociedad, a la ética es necesario acompañarla de legislación. Y por primera vez la legislación no se está dejando esperar, un claro síntoma de su importancia en la IA. Otro síntoma de la importancia de este reto es ver como empresas con muchos negocios solapados se unen en GuIA para abordar este reto de forma conjunta.” De igual manera Armando Martínez Polo , socio de PwC España remarcó que “ El uso ético y responsable de la Inteligencia Artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica no existirá la posibilidad de no prestar atención a este tema. La aportación de GuIA creemos que es fundamental para generar comunidad, y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas ” La importancia de los marcos éticos y normativos Se expusieron los principales marcos éticos y normativos a tener en cuenta, siempre teniendo presente que están evolucionando y hay que estar atentos a esos cambios para reducir el riesgo de usos incorrectos. “ Una parte importante del uso ético de la IA es democratizar la necesidad concienciando a todos los miembros de una organización de su importancia. El reto a futuro es que no se vea como algo que hay que hacer, sino como algo que quieren hacer. Los marcos éticos son clave para la fase en donde estamos, pero no son suficientes para el futuro ”, según Richard Benjamins , vicepresidente de OdiseIA., Igualmente, Patricia Manca (Partner en PwC New Law España), remarcó que “ la máxima de cualquier regulación de la Inteligencia Artificial debe fundamentarse en lograr los máximos beneficios para las personas, por lo que la involucración proactiva de todos en su desarrollo, implementación y correcta contextualización es clave para el futuro. Cómo se defina e implemente su marco normativo dependerá de nuestro ejercicio responsable como sociedad democrática y defensora de los derechos humanos” El compromiso de Google, Microsoft e IBM Estas compañías están haciendo un gran esfuerzo por ayudar a que la IA sea adoptada de manera ética. Llevan años publicando sus estudios y herramientas para que las empresas que hacen uso de su tecnología lo hagan de una manera responsable. La iniciativa GuIA ha agrupado y sintetizados sus extensos planteamientos para ayudar a que las empresas puedan minimizar los riesgos derivados de no tenerlos en cuenta. Miguel Escassi , Director de políticas públicas y Asuntos con el Gobierno de Google, declaró que “ la inteligencia artificial es una tecnología que nos ayuda a enfrentar desafíos globales que van de la sostenibilidad a la accesibilidad pasando por la educación o la salud. La ética y la regulación son partes centrales en este avance y, por eso, apoyamos y participamos en proyectos como GuIA cuyo objetivo es facilitar el acceso de todos al conocimiento y a las herramientas que les permita desarrollar sus productos y servicios con responsabilidad .” También Alberto Pinedo ( National Technology Officer de Microsoft) señaló como “ Creemos en el potencial de la Inteligencia Artificial para mejorar nuestras vidas y tenemos que hacerlo para el beneficio de todos. Por primera vez tenemos sistemas que asumen el papel que juegan las personas, y debemos examinar los efectos sobre las personas y la sociedad. Responsible AI es la estrategia que adoptamos para desarrollar e implementar nuestra tecnología de manera que se cumplan nuestros principios de equidad, confiabilidad, privacidad y seguridad, transparencia, responsabilidad e inclusión y que sea accesible para todas las personas. ” Enric Delgado Samper (CTO de IBM España, Portugal, Grecia e Israel) indicó que “ hay que tener presente que el propósito de la IA es aumentar la inteligencia humana, que los datos y los conocimientos generados deben pertenecer a su creador, y que tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas. Estos principios son fundamentales, pero estamos ya en un momento en el que hay que ir más allá y pasar a aspectos prácticos de implementación, a nivel de procesos y de tecnología, para poder gestionar y gobernar las soluciones de IA a lo largo de todo su ciclo de vida. Por ello, desde IBM aportamos procesos, servicios y una suite de herramientas específicas, nacidas de IBM Research y disponibles para todo el mundo, segmentadas en cinco áreas clave -explicabilidad, equidad, robustez, transparencia y privacidad- que han quedado muy bien descritas en la GuIA de OdiseIA ”. Telefónica como ejemplo de adopción de la IA de manera ética La compañía española lleva tiempo inmersa en un proceso de transformación para que su adopción de la IA tenga en consideración estos principios éticos y su normativa asociada. Su experiencia fue contada por Francisco José Montalvo , Chief Data Officer de Telefónica, quien señaló que “ En Telefónica, nuestros principios sitúan a las personas en el centro y garantizan el respeto de los derechos humanos en cualquier entorno y proceso en el que se use la inteligencia artificial. Así, estamos trabajando para implementar, sobre la base ya existente de Privacidad por Diseño, una capa adicional que denominamos Ética por Diseño. En ella, implementamos técnicamente los valores y principios éticos durante el ciclo de vida de nuestros productos de Inteligencia Artificial, además de definir las técnicas organizativas necesarias para su consecución ” Próximos pasos ya lanzados: Adaptación sectorial y Formación Las empresas sectoriales también están muy concienciadas a sabiendas de la responsabilidad que tienen con sus clientes. Además de que un uso éticamente correcto de estas tecnologías podría impactar positivamente en la percepción que de ellos pudieran acabar teniendo los mismos. Ya han comenzado los trabajos para adaptarlo a las particularidades de diez sectores empresariales , para lo que contarán con más de 50 empresas . Con la misma vocación de aterrizaje que dirige toda la iniciativa, en este caso se realizará sobre casos actuales o potenciales susceptibles de ser soportados por Inteligencia Artificial. Por tanto, la iniciativa también proporcionará a dichos sectores el conocimiento necesario para modernizar sus negocios a través de IA, y además hacerlo de manera ética y responsable. El trabajo llevará hasta mediados de 2023, y ya han comenzado los preliminares de los sectores de salud, seguros y publicidad. Además, la iniciativa GuIA abordará formaciones detalladas en Escuelas de Negocio y Universidades para hacer llegar estos conceptos a los profesionales de hoy y a los del futuro. A este respecto Rodrigo Miranda , director general de la escuela de negocios ISDI , comentó que “ el impacto que la Inteligencia Artificial va a tener en todos los sectores e industrias está ya fuera de toda duda, pero queda mucho camino a recorrer en formar a las organizaciones y a su fuerza de trabajo. Aplicar principios éticos en el campo de la Inteligencia Artificial se convertirá más en un deber que en una oportunidad para las compañías: si no tienes una IA ética, no existirás. Hay que capacitar a las organizaciones en lo que implica la aplicación de principios éticos en la Inteligencia Artificial. Éstos comienzan desde el mismo momento que las compañías recogen datos de los clientes hasta el momento de elección y aplicación de un algoritmo. La ética en la Inteligencia Artificial asegurará que esa caja negra (black box) en la que en ocasiones se posiciona a la Inteligencia Artificial, deje de serlo ” En definitiva, la Inteligencia Artificial ya tiene un papel fundamental en empresa y sociedad, y lo tendrá aún mucho más. Es por tanto fundamental que las empresas la adopten atendiendo a principios éticos y preceptos normativos. Para ello son necesarias iniciativas como GuIA , para saber cómo hacerlo , y para extender ese conocimiento todo lo posible, de manera colaborativa entre empresas que pueden tener competencia comercial, pero a la vez tener una misma misión común. Tal y como refleja la misión de OdiseIA, trabajar conjunta y activamente por un uso ético y responsable de una Inteligencia Artificial que tenga en su centro el bienestar del ser humano
- La inclusión digital no es un lujo, es un derecho.
Hoy damos un paso firme hacia un futuro más justo con el lanzamiento del Proyecto COPID, una iniciativa destinada a garantizar la igualdad digital para todos, sin importar las circunstancias. Desde OdiseIA, en colaboración con la Universidad Carlos III, la Fundación ONCE y RED.ES, nos comprometemos a transformar los principios de la Carta de Derechos Digitales de España en acciones concretas. El proyecto se puso formalmente en marcha el pasado viernes 11 de octubre en el auditorio de la Fundación ONCE, con la participación del director general de RED.ES, Jesús Herrero Poza; la Secretaria General de la Fundación ONCE, Virginia Carcedo; Francisco Bariffi, Profesor e Investigador Posdoctoral de la Universidad Carlos III de Madrid; y Fabián García Pastor, Director de formación de OdiseIA. COPID nace con una misión clara: no dejar a nadie atrás . En una sociedad donde la tecnología se ha convertido en el centro de nuestras vidas, la inclusión digital debe ser universal. No se trata solo de acceso, sino de oportunidades, de asegurar que los derechos digitales sean efectivos y protejan a todas las personas, especialmente a quienes se encuentran en situación de vulnerabilidad. En OdiseIA, estamos comprometidos con aportar nuestra experiencia en ética e inteligencia artificial. Nuestro objetivo es garantizar que la tecnología se desarrolle de manera inclusiva, respetando principios éticos y evitando que los avances profundicen las desigualdades existentes. COPID es un proyecto colaborativo donde actores gubernamentales, sociales y privados trabajan juntos para convertir la igualdad digital en una realidad palpable. El proyecto COPID se estructura en cinco Comunidades de Práctica (CoP), cada una enfocada en un derecho clave de la Carta de Derechos Digitales: Derecho a la igualdad y a la no discriminación en el entorno digital Derecho de acceso a Internet Protección de niños, niñas y adolescentes en el entorno digital Accesibilidad universal en el entorno digital Brechas de acceso al entorno digital Desde OdiseIA, Maite Sanz de Galdeano, Patricia Llaque, Richard Benjamins y Fabián García Pastor están trabajando junto a otros actores clave para asegurar que cada una de estas CoPs transforme las directrices de la Carta en acciones concretas. Además de los socios principales - Fundación ONCE, Universidad Carlos III de Madrid y OdiseIA - el proyecto cuenta con la participación de representantes del Tercer Sector de Acción Social en España. Nos sentimos orgullosos de formar parte de COPID, aportando nuestra experiencia para garantizar que la transformación digital esté al servicio de todos y no deje a nadie atrás. Queremos construir un entorno digital donde cada persona, sin importar su origen, edad o capacidad, tenga las mismas oportunidades para desarrollarse y tener éxito. Os invitamos a conocer más sobre COPID y a uniros a esta misión . La transformación digital debe ser una fuerza para el bien de toda la sociedad. Juntos, podemos construir un futuro más inclusivo.
- OdiseIA presenta su participación en el Proyecto COPID: Impulsando la Igualdad en el entorno digital
Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . OdiseIA se enorgullece de formar parte del lanzamiento del proyecto Comunidades de Práctica para Impulsar la Igualdad en el Entorno Digital (COPID), cuyo evento de presentación se llevará a cabo el próximo 11 de octubre de 2024 en el Auditorio de Fundación ONCE, en Madrid. Este proyecto busca promover la igualdad de derechos en el entorno digital, un ámbito que requiere atención urgente para garantizar que todas las personas, sin importar sus capacidades, tengan las mismas oportunidades y acceso. El convenio firmado entre Red.es , Fundación ONCE, la Universidad Carlos III de Madrid y OdiseIA busca impulsar la implementación de la Carta de Derechos Digitales en el ámbito de los derechos de igualdad en el entorno digital. Su objetivo es garantizar el acceso igualitario a las tecnologías, la no discriminación y la eliminación de brechas digitales, centrándose en temas como la accesibilidad universal y la formación en competencias digitales. OdiseIA, como parte del convenio, trabaja para asegurar el uso ético de la inteligencia artificial en este contexto. El proyecto COPID se articula en torno a los ejes temáticos establecidos en la Carta de Derechos Digitales relacionados con la igualdad. Estos ejes incluyen el derecho a la igualdad y a la no discriminación en el entorno digital, el derecho de acceso a internet, la protección de niños, niñas y adolescentes en el entorno digital, accesibilidad universal en el entorno digital, y brechas de acceso al entorno digital. En cada uno de estos ejes se están desarrollando comunidades de expertos que trabajarán en propuestas concretas, tanto legislativas como no legislativas, para promover estos derechos. OdiseIA participa activamente en este esfuerzo, aportando su expertise en el uso ético de la inteligencia artificial aplicado a cada una de las distintas áreas. Durante el evento, Fabián García Pastor participará en la presentación oficial del proyecto, así como en la presentación del eje sobre el derecho de acceso a internet. Asimismo, Maite Sanz de Galdeano participará en la presentación de los ejes dedicados a los derechos a la igualdad y no discriminación y a la protección de niños, niñas y adolescentes en el entorno digital, mientras que Patricia Llaque Gálvez lo hará con el área relativa a las brechas de acceso al entorno digital. Este evento es una oportunidad única para debatir sobre cómo construir un entorno digital inclusivo y accesible, asegurando que la tecnología y las herramientas de inteligencia artificial no generen barreras, sino que impulsen la igualdad. El formato del evento será híbrido, permitiendo la participación tanto presencial como a través de streaming. Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . ¡No te pierdas esta oportunidad de formar parte del cambio hacia un entorno digital más justo e inclusivo!
- Publicamos un primer posicionamiento sobre Inteligencia Artificial Generativa
Publicamos un primer posicionamiento de OdiseIA sobre Inteligencia Artificial Generativa en el que, además de reconocer su gran aportación técnica y económica, identificamos los riesgos sociales y éticos asociados y aportamos una serie de recomendaciones para su uso responsable. Acabamos de publicar un documento con un primer posicionamiento de OdiseIA sobre la Inteligencia Artificial Generativa. Dada la enorme visibilidad mediática alcanzada por esta tecnología tras el lanzamiento de ChatGPT a finales del 2022, y dado y el indudable impacto que desde ya y proyectado hacia el futuro se prevé que tenga la inteligencia artificial generativa en los negocios, las administraciones y la sociedad, desde OdiseIA hemos sentido la necesidad, siguiendo nuestra misión, de realizar un análisis con perspectiva social y ética. Y el fruto de dicho análisis es este documento en que, tras una breve introducción a la naturaleza y características de la inteligencia artificial generativa, identificamos los principales riesgos de carácter social, ético e incluso legal, y aportamos, humildemente, unas recomendaciones para su uso consciente y responsable, por los órganos legisladores, las empresas, las administraciones y los ciudadanos de a pie. En la elaboración de este documento han participado una docena de socios de OdiseIA. Hablamos de un primer posicionamiento de OdiseIA porque prevemos una evolución y probablemente nuevas ediciones de este documento, dado el dinamismo de esta tecnología y su adopción. Y, de hecho, en Otoño de este mismo año, prevemos publicar nuevas aportaciones alrededor de esta misma temática. En ese sentido, cualquier feedback será bienvenido. Puedes encontrar y descargar el documento siguiendo este enlace: Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es profesor, director académico y mentor de proyectos en Escuela de Organización industrial y colaborador en otras universidades y escuelas de negocio como OBS, Universidad Europea o UNIR. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y “Robots en la sombra” (Anaya Multimedia, 2021).
- El Comité Español de Ética de la Investigación ha publicado undocumento de “Recomendaciones éticas para la investigación enInteligencia Artificial”
En el documento, el Comité Español de Ética de la Investigación se enfoca en definir cuál es la responsabilidad de los investigadores y de las instituciones de investigación en cuanto a la investigación en IA (no en cuanto a la investigación con herramientas y desarrollos de IA). El Comité Español de Ética de la Investigación (CEEI) es un órgano colegiado de ámbito estatal, independiente, y de carácter consultivo, adscrito al Consejo de Política Científica, Tecnológica y de Innovación, del Ministerio de Ciencia, Innovación y Universidades, que ejerce competencias en materia de integridad científica, investigación responsable y ética en la investigación. Como parte de su trabajo, ha publicado un documento de “Recomendaciones éticas para la investigación en Inteligencia Artificial”. El documento apunta a la necesidad de que los trabajos de investigación en Inteligencia Artificial sigan un código ético que incluya una serie de aspectos, que dividen en 3 partes: “Responsabilidad en el desarrollo y el uso de sistemas autónomos”, “Consecuencias sociales y responsabilidad social de la investigación” y “Datos”. La parte primera, de “Responsabilidad en el desarrollo y el uso de sistemas autónomos”, se divide en varios aspectos a tener en cuenta como son: “Salvaguardar los derechos humanos y fundamentales”, “Salvaguardar el medioambiente”, “Responsabilidad”, “Inspeccionabilidad y trazabilidad” y Divulgación de la investigación. Los aspectos importantes que destaca el CEEI en cuanto a las “Consecuencias sociales y responsabilidad social de la investigación” son: “Reconocer la incertidumbre”, “Asegurar una participación amplia” y “Asegurar la protección de datos y la consideración a los individuos”. Para finalizar, el documento incluye dos aspectos relativos a los “Datos”: “Aseguramiento de la calidad” y “Acceso justo a los datos”. El informe completo puede consultarse en la página del CEEI (https://www.ciencia.gob.es/Ministerio/Mision-y-organizacion/Organismos-consultivos/CEEI.html), dónde también pueden encontrarse otros documentos de dicho Comité. Coral Calero Responsable del Área de “Algoritmos Verdes” de OdiseIA Miembro del Comité Español de Ética de la Investigación
- Mal uso versus Uso perdido: la necesidad urgente de administradores de datos en jefe en la era de la IA
Nuevo blog! Mal uso versus Uso perdido — la urgente necesidad de Jefes de Administración de Datos en la era de la IA 👉 https://medium.com/data-policy/misuse-versus-missed-use-the-urgent-need-for-chief-data-stewards-in-the-age-of-ai-41359cec585c Con una atención creciente en el rol de los Jefes de Inteligencia Artificial (CAIO), Stefaan Verhulst, PhD (The Governance Lab) y Richard Benjamins (OdiseIA) escriben para el blog de Datos y Política sobre la relevancia continua de otro rol, los Jefes de Administración de Datos (CDS), y la importancia de los datos y el #gobiernodedatos como fundamentales para el gobierno de la #IA. Descarga la versión pdf aquí:
- OdiseIA y Decidata desarrollan una metodología para cartografiar la IA Responsable
El informe destaca la importancia de desarrollar una Inteligencia Artificial (IA) que no solo sea innovadora, sino que también esté alineada con valores éticos y sociales. Para lograrlo, propone una metodología que permite cartografiar los proyectos dentro del ecosistema español de IA Responsable. Elaborado por OdiseIA y Decidata, este informe presenta una metodología pionera para identificar a los agentes que configuran el ecosistema de IA Responsable en España (desde startups y corporaciones multinacionales hasta entidades gubernamentales y académicas) y ofrece una herramienta para el análisis y la visualización de activos clave de la IA en el país. Este documento no debe entenderse únicamente como una guía que facilita el entendimiento del panorama actual de la IA Responsable en España, sino que también pretende impulsar un marco para promover las colaboraciones, investigaciones y desarrollos en este campo, asegurando que esta tecnología avance de una manera que se encuentre al servicio de las personas. El informe también revela una serie de desafíos que persisten en el campo de la IA Responsable y, a tal efecto, insta a adoptar y mejorar ciertas prácticas responsables para mejorar la aceptación y efectividad de esta tecnología en la sociedad. Puedes encontrar y descargar el informe siguiendo este enlace: Pedro Ruíz Aldasoro Decidata Ramon Baradat Marí Abogado experto en nuevas tecnologías, docente en inteligencia artificial y miembro de OdiseIA.