
Search Results
109 resultados encontrados
- Directrices europeas para la identificación de sistemas de IA y prácticas prohibidas
Tras la publicación del Reglamento Europeo de Inteligencia Artificial el pasado 12 de julio, comenzó el calendario de progresiva entrada en vigor de sus previsiones, y sobre todo de la interpretación práctica de sus disposiciones . No solo a nivel jurídico, sino a nivel técnico y organizacional . Con este objetivo, y de modo acorde a lo previsto en el artículo 96 del reglamento, la Comisión Europea está promoviendo diversas iniciativas para elaborar directrices que complementen el reglamento europeo facilitando su interpretación práctica . El día 12 de diciembre realizamos una contribución de OdiseIA a la Consulta Europea multi-stakeholder para la elaboración de las directrices de aplicación del Reglamento Europeo a la definición de los sistemas de IA y las prácticas prohibidas. La elaboración de estas directrices específicas está prevista en el artículo 96 apartado 1. letras b) y f). (“Artículo 96. Directrices de la Comisión sobre la aplicación del presente Reglamento 1. La Comisión elaborará directrices sobre la aplicación práctica del presente Reglamento y, en particular, sobre: .../… b) las prácticas prohibidas a que se refiere el artículo 5; .../… f) la aplicación de la definición de sistema de IA que figura en el artículo 3, punto 1.”) Las definiciones y prohibiciones del reglamento europeo serán aplicables seis meses después de su entrada en vigor, es decir a partir del 2 de febrero de 2025 . Con este horizonte la Comisión ha promovido una consulta europea para disponer de un documento de directrices a principios de de 2025. El objetivo de las directrices es proporcionar una interpretación coherente y orientaciones prácticas para ayudar a las autoridades competentes en sus medidas de ejecución, así como a los proveedores e implantadores sujetos a la Ley de la IA en sus medidas de cumplimiento, con vistas a garantizar una aplicación coherente, eficaz y uniforme de las prohibiciones y la comprensión de lo que constituye un sistema de IA en el ámbito de aplicación de la Ley de la IA. El interés de la Comisión está sobre todo en recabar ejemplos prácticos con el fin de aportar más claridad sobre los aspectos prácticos y los casos de uso. Sobre la definición de sistema de IA Se espera que las directrices expliquen y clarifiquen los distintos elementos de la definición del sistema de IA con el objetivo esencial de proporcionar características que distingan los sistemas de IA de los “sistemas de software o enfoques de programación tradicionales más sencillos”. Como es sabido uno de los principales cambios en la evolución del borrador del reglamento fue el cambio de la definición europea original hacia un alineamiento con la definición de la OCDE: Definición inicial: ‘artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with; Definición final: ‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments; Además de aportar diversas consideraciones y ejemplos , en la contribución de OdiseIA, hemos destacado la necesidad de una mayor claridad técnica para evitar la interpretación como sistemas de IA en sistemas informáticos que no lo son . Y de la conveniencia de clarificación de la caracterización de los sistemas de IA respecto al conjunto de los sistemas informáticos, no solo los sistemas algoritmos más o menos complejos, sino los basados en cualquier tecnología (por ejemplo la informática cuántica), o los sistemas integrados (sistemas informáticos que integran múltiple sistemas de diversas tecnologías, incluida la IA) Sobre los usos prohibidos de la IA La segunda parte de la consulta es mucho más extensa, abarcando cada uno de los usos prohibidos establecidos en el artículo 5 del reglamento. Prácticas subliminales, manipuladoras o engañosas Prácticas de explotación de vulnerabilidades Prácticas de clasificación de personas o colectivos ( social scoring ) Prácticas de evaluación y predicción del riesgo de comisión de un delito por una persona física Prácticas de extracción no selectiva de imágenes faciales Prácticas de reconocimiento de emociones Prácticas de categorización biométrica de personas físicas Prácticas de identificación biométrica remota en tiempo real. Relación con otras normativas legales europeas. En los diferentes epígrafes hemos aportado consideraciones y ejemplos como los casos de manipulación para influir en procesos electorales, los sistemas de publicidad personalizada, sistemas de reconocimiento de emociones, job scoring, extracción no selectiva de imágenes faciales, etc. Subrayando la necesidad de establecer unos límites claros en cada una de las prácticas prohibidas, así como en sus excepciones , por ejemplo en relación a la seguridad ciudadana o a los cometidos de las fuerzas de seguridad, en relación a los derechos de las personas. También hemos remarcado que además de las directrices correspondientes a cada caso se debería aclarar por qué estas prácticas sólo se prohíben a los sistemas de IA. Es decir, si se permiten este tipo de prácticas en sistemas algorítmicos (en terminología del reglamento “sistemas de software o enfoques de programación tradicionales más sencillos”) o, en general, en sistemas de otras tecnologías informáticas . Más info sobre OdiseIA y el Reglamento Europeo de Inteligencia Artificial en el post “ Posicionamiento de Odiseia sobre el Reglamento Europeo de Inteligencia Artificial ” Diciembre de 2024 Contribución a la consulta de la Comisión Europea y post elaborado por Juan Pablo Peñarrubia, Alberto González, Guido Ricca, y Richard Benjamins.
- ¿PROTEGE EL REGLAMENTO DE IA A LOS VULNERABLES?
Análisis desde una perspectiva holística y necesaria cohesión con otras normas y derechos consolidados Carmen Muñoz García Subproyecto 1.1. Mapping of AI governance – recommendations and regulation AI Governance (Project #1)" FOR GOOGLE.org Entregado 14.07.2024 El enfoque a tener en cuenta: el estudio del RIA desde una perspectiva holística El Reglamento de IA de la Unión Europea, hito normativo a nivel mundial, debe considerarse como un todo para los sistemas de IA y para los modelos de IA de uso general. Y cómo tal, debe tener en cuenta que, cualquier herramienta de IA que se desarrolle y/o use en la UE, salvo excepciones, está sujeta al RIA en su práctica totalidad. De ahí que considere que su estudio debe abordarse desde una perspectiva holística una vez que, cualquier sistema o modelo de IA sujeto al Reglamento, está vinculado a los objetivos predeterminados por los colegisladores de la Unión. Toda la regulación en su conjunto contribuye de manera sistemática u ordenada a cumplirlos. A saber: (i) se trata de un marco jurídico uniforme para el desarrollo y uso de la IA que promueve una IA centrada en el ser humano, basada en la ética, y que, dirigida a ser segura y fiable debe garantizar derechos y principios consolidados en la UE; (ii) además, cualquier actuación, implementación o desarrollo de sistemas en el mercado interior debe llevarse a efecto a sabiendas de que se pretende -garantizando la seguridad jurídica-, facilitar la inversión y brindar apoyo a la innovación (incluidad PYMEs y startup). No cabe entender este marco regulatorio cómo una suma de sistemas y modelos de IA, con regulación estanco para cada herramienta, con requisitos y obligaciones propias e independientes. La evolución de esta tecnología y la posibilidad de modificación de sus capacidades y riesgos determinan que, cualquier sistema , dadas sus propiedades, su autoaprendizaje, su maleabilidad, la complejidad y opacidad de la herramienta, esté sujeto a cumplir los objetivos de la Unión (todos los antedichos). Así es, la regulación, en su totalidad, está dirigida a cumplir esos fines, de ahí que se imponga un marco adecuado de vigilancia del mercado, de seguimiento, evaluación y control durante toda la vida de la herramienta. Y que en conexión con todo esto se prevean sistemas adecuados de gobernanza, multas y sanciones en el ámbito del Derecho público. También, una específica regulación de la responsabilidad por daños a perjudicados por los defectos o consecuencias negativas de las herramientas de IA que, estas sí, inciden en la esfera propia del dañado. ¿Regula la protección a las personas? ¿ Y a los vulnerables? Hemos iniciado esta primera parte poniendo el foco el artículo primero del Reglamento de inteligencia artificial al objeto de poner de relieve, principalmente, que estamos ante un marco regulatorio para la IA . Y es así, como se desprende de este artículo clave por lo siguiente: Aun cuando tiene por objeto mejorar el funcionamiento del mercado de la Unión y adoptar una IA centrada en el ser humano, ética y fiable (art. 1, apartado 1); Sólo regula, de manera armonizada y uniforme, la inteligencia artificial : su introducción en el mercado, puesta en servicio y utilización, prácticas prohibidas, requisitos y obligaciones para los sistemas de IA de alto riesgo, también de los modelos de IA de uso general, la transparencia aplicable a determinados sistemas, seguimiento y vigilancia del mercado, gobernanza y garantía del cumplimiento, y además, medidas de apoyo a la innovación (art. 1, apartado 2). Ahora bien, a pesar de sólo regular la inteligencia artificial, de ser una norma administrativa (cómo son las normas sobre la navegación aérea, la energía nuclear o sobre los vehículos a motor), que impone reglas rigurosas para estas herramientas y sus operadores, y que exige que se cumplan requisitos y obligaciones por cualquier agente de sistemas y modelos, superando los umbrales fijados en el Reglamento, su objetivo es proteger los derechos de las personas en todo el mercado de la Unión. No regulando de manera directa los derechos de las personas , el marco regulatorio europeo de la IA impone reglas para quienes son los operadores en la cadena de valor de la IA. Se trata de que estos sujetos, vía cumplimiento normativo y de principios éticos, no infrinjan los derechos de las persona recogidos en la Carta de la Unión y en el Derecho europeo vigente, y muy especialmente, de las personas vulnerables. En coherencia con lo anterior, todos estos derechos a tutelar, tanto de las personas físicas en general, como de los sujetos vulnerables en particular: (i) ni han formado parte del propósito regulatorio, (ii) ni han recibido un tratamiento singular en el Reglamento. De ahí que, la mención de los primeros, pero especialmente de los segundos, los vulnerables, sea sólo para incidir en que las garantías de los sistemas o modelos , la evaluación y prevención de riesgos , la detección o la supervisión de las herramientas, deben ser más rigurosas cuando el sistema o modelo puede afectar a personas o colectivos vulnerables. Es más, respecto a estos últimos, la ausencia de un concepto propio y estático de vulnerabilidad , no nos facilitará la tarea de visibilizar quiénes, por su especial condición o circunstancia negativa, coyuntural o duradera, están más expuestos a cualquier riesgo o incidencia perjudicial de la IA que, incluso, puede llegar a situarle en situación de exclusión social crónica de difícil solución. Con todo, si alguien es vulnerable, o deviene como tal, y resulta perjudicado por la IA, está legitimado para reclamar en el marco de la norma pertinente que se haya infringido. De ahí que, las políticas de concienciación, apoyo y defensa a personas y colectivos vulnerables, frente a riesgos de la IA -que pueden llegar a ser sistémicos-, debe ser una cuestión prioritaria para instituciones internacionales, europeas y nacionales, también por empresas y organizaciones. En definitiva, siendo el Reglamento de IA una norma aplicable a todos los sectores, y la herramienta un instrumento para las personas y su bienestar: 1. Debe aplicarse en contexto con otras normas del Derecho digital de la Unión , entre otras: RGD y RD, DCB, DCSD, DMA o DSA; y 2. Deben salvaguardarse los derechos recogidos en la Carta de los Derechos Fundamentales de la Unión y los derechos contenidos en otras normas consolidadas: protección de datos, protección de los consumidores, no discriminación e igualdad de género. También otras normas que garantizan derechos como el de la reparación de daños causados por la IA (responsabilidad civil extracontractual). De ahí que, el estudio del Reglamento deba hacerse desde una perspectiva holística , y además, teniendo en cuenta, que no es necesario incluir en el Reglamento la enumeración de personas protegidas, o de sujetos o grupos vulnerables . Con todo, operar en la cadena de valor de la IA exige una participación proactiva de todos los que, de una manera u otra, participan en el desarrollo y uso de la herramienta. El cumplimiento del Reglamento, la eficiencia mediante los mecanismos de gobernanza y las normas sancionadoras, contribuirán a lograr la máxima implementación de la norma en cuanto a la protección de las personas. Para contribuir a esto, será esencial formar y “alfabetizar” sobre los marcos regulatorios y la ética . También, instar a ONGs, instituciones públicas y privadas a concienciar a la ciudadanía de los múltiples derechos de las personas que, no regulados en el Reglamento, sí están vigentes una vez que la norma los consolida e impulsa. A mayor abundamiento, a favor de los vulnerables , el cumplimiento de las obligaciones y requisitos por los operadores, el seguimiento y vigilancia poscomercialización de la IA, deben ser más exhaustivos , fortaleciendo así, de manera indirecta y mediata, los derechos de las personas y colectivos vulnerables. De ahí que, cuando alguien, por su condición o situación, encaje en el rol de persona o colectivo vulnerable, el rigor de la norma deberá ser mayor, y la protección mucho más garantista, si cabe. Los mecanismos de gobernanza y de sanciones, también los de reparación de daños, las actuaciones de organismos públicos y privados, de ONGs, asociaciones y fundaciones, serán claves. Versión del artículo con notas y referencias:
- 🌐 Inteligencia Artificial, Empleabilidad y Competencias Digitales: Proyecto Google Charity en colaboración con ODISEIA 🌟
Estamos orgullosos de compartir nuestra participación en el emocionante proyecto Google Charity , llevado a cabo entre ODISEIA, el Observatorio de Impacto Social e Inteligencia Artificial , y Google . Este proyecto aborda uno de los temas más relevantes de nuestro tiempo: la gobernanza de la inteligencia artificial y su impacto en el ámbito laboral. 🔍 ¿En qué estamos trabajando? Este proyecto tiene como objetivo comprender los retos que plantea la IA, especialmente en relación con la empleabilidad y el desarrollo de habilidades digitales . Para ello, hemos creado una iniciativa con 13 grupos multidisciplinares que trabajan en áreas clave como: Investigación. Entrevistas. Análisis de políticas públicas. 🧩 Nuestro equipo está liderando la formación del futuro. Dentro de esta iniciativa, nos centramos en la necesidad de competencias digitales y formación en IA para adaptarnos a los cambios laborales. Os presentamos a los integrantes del equipo así como su propuesta en esta iniciativa: Mónica Villas : Ingeniera especialista en IA ética y cofundadora de ODISEIA, lidera esta iniciativa enfocada en competencias digitales y formación. María Barceló : Consultora en proyectos de transformación digital. Asesora de Comités de Dirección y Start Ups en sus estrategias de digitalización. Formación directiva y gestión académica en nuevas tecnologías y negocios digitales. Propone un marco de competencias específico para la IA sobre la base de modelos de competencias digitales existentes. Este marco de competencias servirá de base para el diseño de itinerarios e iniciativas de formación en IA M. Eva Pérez Martínez : Enfermera y especialista en tecnologías de salud, analiza el impacto de las políticas públicas en la integración de IA en el empleo, incorporando los conceptos de upskilling y reskilling. Julia Dormido Abril : Profesora en Derecho del Trabajo y Seguridad Social, estudia cómo las microcredenciales pueden potenciar la empleabilidad y cómo integrarlas en diferentes niveles educativos. 💡 Nuestro propósito: Promover la formación digital y en inteligencia artificial , asegurando que la transición hacia un mundo laboral más tecnológico sea inclusiva y beneficiosa para todos. Queremos que las personas no solo se adapten, sino que prosperen en este entorno cambiante. 📢 ¡Seguimos avanzando! Este es solo el principio. Desde ODISEIA y Google continuaremos compartiendo los avances y aprendizajes de este proyecto que busca marcar la diferencia en el ámbito de la inteligencia artificial y el desarrollo humano. 👉 Si te interesa la transformación digital, la empleabilidad y la formación en competencias del futuro, ¡únete a la conversación y comparte tus ideas! #InteligenciaArtificial #GoogleCharity #ODISEIA #Formación #Upskilling #Reskilling #CompetenciasDigitales #Innovación #TransformaciónDigital
- TODOS (PASAMOS POR SITUACIONES EN QUE) SOMOS VULNERABLES.
He conocido a algunos astronautas. Su imagen es lo más opuesto que alguien pueda imaginar a un ser vulnerable. Su nivel de preparación física e intelectual, su aplomo y capacidad para razonar bajo presión no es una invención de las películas. Sin embargo, cuando en la película 2001, una odisea del espacio , el astronauta David Bowman ordena a Hal9000 que abra la compuerta del Discovery1 , el actor Keir Dullea, que da vida al Dr. Bowman, es la viva imagen de la vulnerabilidad. Todos somos vulnerables en alguna circunstancia. Es más, todos tenemos alguna circunstancia que nos hace vulnerables; un “punto débil”. El ámbito digital tiene, en ese sentido, mucho parecido al espacio exterior. La mayoría de nosotros solo ha visto el ciberespacio a través de la ventanilla que suponen las pantallas de nuestros ordenadores y teléfonos, pero lo que se esconde detrás sigue siendo un misterio. Los humanos tendemos a resolver los misterios de dos maneras, mediante la razón o mediante el recurso a los mitos. A falta de elementos de juicio, la mitología es la salida natural. La inteligencia artificial (IA) se convierte así, para muchos, en un ente sobrenatural, omnisciente y objetivo cuya palabra debe ser creída porque, al fin y al cabo, tiene acceso a toda la información y no tiene preferencias a priori. Lo cierto es que las continuas campañas de alabanza (marketing) de la IA que lanzan sus mismos desarrolladores, las grandes compañías del sector, contribuyen notablemente a que pensemos que Hal9000 o Terminator han adquirido -o están a punto de adquirir- conciencia de sí mismos. Sin embargo, el riesgo de que las máquinas se humanicen es mucho menor que el de que los humanos nos mecanicemos. El truco es mantener las bolas en el aire hasta que realmente haya bolas. Nos gusta ver la realidad en blanco y negro, en bueno y malo, en positivo y negativo. Pero la realidad tiene muchos más matices, muchos tonos de gris. Por eso, los riesgos que presenta la IA para los humanos son tan variados, al menos, como las oportunidades que ofrece. Eso sí, como en el caso del resto de las tecnologías digitales, el mayor de los riesgos es no utilizarla. Simplificando, los riesgos derivados de nuestra interacción con la IA vienen dados por dos factores: nosotros y la IA. Es decir, factores que aportamos los humanos con nuestros sesgos y limitaciones, y factores que introducen las máquinas con los sesgos y las limitaciones de su diseño (en seguridad de vuelo decimos que todos los accidentes son producto de errores humanos; bien del piloto, bien del mecánico, bien del ingeniero que diseñó el sistema). Vamos, que la IA sí tiene prejuicios; unos inducidos por nosotros voluntariamente y otros por fallos en el diseño. La IA pone un enorme espejo a nuestra disposición reflejando cómo somos los mismos humanos. Estudia los datos que le damos y extrae consecuencias sin tener mayor información sobre el contexto que la que le hayamos dado (o permitido adquirir). Nos hace ver, con sus defectos, una caricatura de los nuestros. Con la máquina no vale decir “ni que decir tiene”, porque aquello que no se le dice, no existe para ella. Es lo que se llama “conocimiento tácito”. Tiene siempre en “la mente” todo lo que sabe, pero nada que no haya aprendido. Las probabilidades de que una máquina te deje sin trabajo son mucho menores que las que hay de que alguien que sepa utilizar una máquina te arrebate el puesto. La amenaza no es que las máquinas adquieran conciencia de sí mismas, sino que nosotros no adquiramos conciencia de que estamos trabajando con máquinas y de las posibilidades que eso ofrece. En el primer caso, de que no seamos conscientes de que trabajamos con máquinas y que creamos por un momento que razonan y sienten como nosotros. Ninguna de las dos afirmaciones es cierta. En el segundo, de que seamos incapaces de extraer el partido que puede ofrecernos el aumento de capacidades que surge de la interacción con las máquinas. En el proyecto cAIre, que lleva a cabo OdiseIA en colaboración con Google , estamos estudiando cómo la IA afecta a los individuos y a los grupos humanos en situación de vulnerabilidad. Definir estas vulnerabilidades -y, obviamente, a esos grupos- ha sido el primer paso. No pretendemos hablar de justicia social, sino de cómo la IA puede alterarla o mejorarla. Cuanto mayor sea nuestra dependencia de las máquinas, mayor será el impacto de su actuación en nuestras vidas. Salvo que, el más grande de esos impactos sería el no tener acceso a su contribución.
- El impacto de la inteligencia artificial en las profesiones del futuro: reflexiones desde el Grupo 2.1 del Proyecto Google CAIRE
En un mundo donde la tecnología evoluciona a un ritmo vertiginoso, la inteligencia artificial (IA) se posiciona como un catalizador del cambio en todos los ámbitos de la sociedad, en especial el laboral. El Grupo 2.1 del proyecto Google CAIRE, ha emprendido una investigación profunda sobre las implicaciones de la IA en las profesiones del futuro. Este artículo explora algunos de los hallazgos, reflexiones y retos identificados por este grupo de expertos, conformado por profesionales de distintos sectores. Un equipo multidisciplinar al servicio del conocimiento El Grupo 2.1 integra perfiles diversos que aportan una mirada integral: Ricardo Palomo : Profesor y decano de la Facultad de Económicas en la Universidad de San Pablo, con amplia experiencia en la gestión educativa. José Javier Sesma : Técnico de sistemas informáticos y miembro activo de Odisea, enfocado en soluciones tecnológicas aplicadas. Jorge Cerqueiro : Profesor en la Escuela de Ingeniería Industrial de la Universidad de Vigo, comprometido con el desarrollo de una IA ética y humana. Dolores Abuin : Jurista, investigadora independiente, ponente y creadora de contenido Frank Escandell : MCSE y profesional del desarrollo de negocios tecnológicos Este equipo refleja el carácter multidisciplinar que requiere una investigación sobre un tema tan complejo como el impacto laboral de la IA. El enfoque de la investigación La metodología adoptada combina: Revisión bibliográfica : Análisis de informes de consultoras y estudios académicos que abordan el impacto de la IA en el empleo. Entrevistas cualitativas y cuantitativas : Entrevistas privadas con expertos de diversas áreas, incluyendo tecnología, recursos humanos y sectores industriales. Los cuestionarios incluyeron 31 preguntas estructuradas en seis bloques temáticos: Impacto general de la IA. Sectores más afectados. Opiniones sobre el futuro del trabajo. Grupos vulnerables. Reflexiones específicas del sector. Principales hallazgos 1. Una realidad optimista, pero desafiante Los expertos entrevistados coinciden en que la IA ofrece oportunidades significativas: Automatización de tareas repetitivas, liberando tiempo para actividades creativas y humanas. Creación de nuevas profesiones y potenciación de las existentes. Mejora en la calidad de vida al reducir la carga laboral. Sin embargo, también identificaron retos: Grupos vulnerables : Personas cuyos empleos están en riesgo debido a la automatización. Brechas de formación : La necesidad de re-skilling y up-skilling para garantizar la empleabilidad. 2. Sectores con mayor impacto La IA afecta de manera diversa a los sectores: Sector servicios : Gran transformación debido a la automatización de tareas administrativas y de atención al cliente. Educación y salud : Personalización de servicios y mejora en la eficiencia mediante el uso de datos. Industria : Implementación de deep learning y visión artificial en procesos operativos. 3. El papel de la formación continua La educación permanente se posiciona como clave para adaptarse a la revolución tecnológica. En este sentido: Las grandes y medianas empresas lideran la capacitación en habilidades tecnológicas. Las pequeñas empresas enfrentan mayores barreras para implementar programas de formación. Los sectores académicos y administrativos destacan en la adopción temprana de herramientas de IA. La dimensión social de la IA El Grupo 2.1 resalta que la IA no sólo transforma el empleo, sino también redefine la sociedad. La figura de "Paqui", una mujer ficticia que representa a cualquier ciudadano promedio, ilustra cómo la IA influye en la vida cotidiana y por qué debería importarle a "ella": Uso de aplicaciones para gestiones bancarias y administrativas. Acceso a servicios personalizados en salud y educación. Cambios en el mercado laboral que afectarán a sus hijos y futuras generaciones. Perspectivas y retos futuros Aunque los expertos destacan un panorama optimista, también identifican desafíos clave: Sostenibilidad energética : Los sistemas de IA requieren infraestructura tecnológica intensiva en energía, lo que plantea preguntas sobre su viabilidad a largo plazo. Viabilidad económica : Muchas empresas tecnológicas operan con modelos de inversión no sostenibles. Brechas de implementación : La adopción desigual de la IA podría exacerbar las desigualdades sociales y económicas. Reflexiones finales del Grupo 2.1 Los miembros del grupo concluyen que el futuro del trabajo estará marcado por el cambio constante. Frases como "preparaos porque hay muchas oportunidades, pero hay que prepararse" y "luchemos por un mundo mejor en el que la IA nos ayude a conseguirlo" sintetizan el espíritu de adaptación y optimismo que caracteriza a esta era. Epílogo: construyendo un futuro sostenible y humano La inteligencia artificial representa una herramienta poderosa para transformar el mundo laboral y social. Sin embargo, su éxito dependerá de la capacidad de gobiernos, empresas y ciudadanos para adaptarse a los cambios y garantizar que la tecnología beneficie a todos. El trabajo del Grupo 2.1 es un llamado a la acción para construir un futuro más equitativo, sostenible y humano, donde la tecnología y las personas colaboren de manera armónica.
- Primera Cumbre de Espacios de Datos en España
El 3 y 4 de diciembre Madrid fue el epicentro de la Primera Cumbre de Espacios de Datos en nuestro país. Con una asistencia de 270 participantes, entre los cuales se encontraba nuestra socia Patricia Llaque, OdiseIA estuvo presente en este acontecimiento que consolida a Gaia-X España como referente nacional en la Economía del Dato. Más de 90 ponencias de destacados actores en los espacios de datos, entre los que se encontraban representantes gubernamentales y responsables de proyectos europeos y nacionales, permitieron acercarnos a conocer casos de uso concretos en torno a la explotación y compartición de datos en sectores clave como Turismo, Salud, Agroalimentario, Industria y Energía, Movilidad, entre otros. Nos sumamos, en este sentido, al compromiso de Gaia-X España en su liderazgo hacia la consolidación de un ecosistema digital basado en la confianza, la interoperabilidad y la soberanía tecnológica, donde los aspectos éticos de la Inteligencia Artificial son de indiscutible relevancia. Así como al agradecimiento a la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) del Ministerio para la Transformación Digital y de la Función Pública por su apoyo y visión estratégica. De forma paralela, se realizó un Hackaton que ha sido calificado como " ejemplo inspirador de talento, creatividad y capacidad de colaboración que define el futuro de los espacios de datos". Este evento fue coordinado por la Universidad Politécnica de Madrid, TECNALIA Research & Innovation, CTIC Technology Centre, Arsys y Grupo Aire.
- Advantere y OdiseIA: Innovación Tecnológica y Ética en IA
Una alianza para preparar a los líderes del futuro en el uso responsable de la IA Advantere School of Management , a través de su Tech Academy , y OdiseIA , el Observatorio del Impacto Social y Ético de la Inteligencia Artificial, han firmado un acuerdo para impulsar el conocimiento de la inteligencia artificial (IA) y concienciar sobre su uso ético en el ámbito empresarial. Esta colaboración refuerza el compromiso de ambas instituciones con la formación de líderes que integren tecnología avanzada y responsabilidad social en sus carreras. Tech Academy de Advantere: competencias tecnológicas para la empleabilidad La Tech Academy de Advantere se centra en dotar a sus estudiantes de las competencias digitales necesarias para destacar en un entorno empresarial en constante transformación. A través de itinerarios formativos específicos, los estudiantes tendrán acceso a herramientas tecnológicas de vanguardia y la oportunidad de conocer el ecosistema tecnológico global mediante colaboraciones con centros como Madrid Innovation Lab (MIL) , EY Wavespace y, ahora, OdiseIA . Iniciativas conjuntas para un aprendizaje integral Como parte de este acuerdo, los alumnos y profesores de Advantere participarán activamente en iniciativas de OdiseIA, como webinars, hackatones y podcasts, que permitirán a los estudiantes adquirir conocimientos técnicos y éticos en IA, aplicándolos en contextos empresariales reales. Por otro lado, los profesores asociados a OdiseIA pueden participar en los cursos de Advantere para transmitir la importancia y mostrar casos prácticos del uso responsable de la inteligencia artificial. Fomentando un enfoque ético en el uso de la IA La colaboración también se centra en desarrollar una conciencia ética sobre el impacto de la IA en la sociedad. Advantere contribuirá en proyectos de OdiseIA que promuevan el uso responsable de la IA, facilitando la transferencia de conocimiento entre instituciones educativas. Declaración de María Barceló, Directora de Tech Academy en Advantere School of Management: "Nuestra colaboración con OdiseIA nos permite ir más allá de la formación tecnológica tradicional. Queremos que nuestros estudiantes no solo dominen las herramientas tecnológicas, sino que también comprendan las implicaciones éticas de su uso. Este acuerdo refuerza nuestro compromiso de formar profesionales que lideren el cambio digital de manera responsable y sostenible." Declaración de Dr. Richard Benjamins, CEO de OdiseIA: “ Estamos muy ilusionados de que Advantere se haya asociado con OdiseIA. Creemos que la formación es clave para generar los conocimientos necesarios para un futuro sostenible. Los profesionales del futuro no solo deben tener conocimientos de negocio y tecnología (los llamados perfiles ‘T-shaped’, con dos ejes), sino que también deben comprender el impacto social, ético y ambiental del uso de la tecnología. En este sentido, evolucionamos de perfiles ‘T-shaped’ a perfiles con tres ejes: los ‘K-shaped’.” Sobre Advantere School of Management Advantere es una institución educativa innovadora que prepara a sus estudiantes para los retos del futuro, combinando una sólida formación académica con experiencias prácticas. A través de su Tech Academy, Advantere integra la tecnología como un eje clave para la empleabilidad y el liderazgo responsable. Sobre OdiseIA OdiseIA es una organización independiente que promueve el uso ético y responsable de la inteligencia artificial. Su misión es abordar los desafíos sociales y éticos de la IA, colaborando con empresas, universidades y organismos públicos para equilibrar la innovación tecnológica con la responsabilidad social.
- Premios OdiseIA: Reconocimiento a la Innovación en IA
Ayer, en la gala de premios de INDESIA , se otorgaron dos importantes reconocimientos a proyectos destacados en inteligencia artificial: Premio al mejor equipo de IndesIAhack: El galardón fue otorgado al equipo que desarrolló con éxito el reto planteado por Ferrovial , tras su destacada participación en el hackathon IndesIAhack , celebrado del 6 al 8 de noviembre en la Universidad Politécnica de Madrid . Este evento reunió a estudiantes y profesionales de todo el país para resolver retos reales mediante el uso de inteligencia artificial, contando con la participación destacada de los socios de OdiseIA: Richard Benjamins y Fabián García Pastor . Premio al mejor proyecto de los datatones de INDESIA: Este reconocimiento destacó el proyecto más sobresaliente de los datatones realizados por INDESIA, una iniciativa que impulsa el uso de la inteligencia artificial en el sector industrial, promoviendo soluciones innovadoras y de impacto. OdiseIA , como parte de su compromiso con la ética en inteligencia artificial , premió a ambos equipos con la elaboración de un Informe Ético , asegurando que el desarrollo de sus proyectos cumpla con los más altos estándares de ética, robustez y confiabilidad . Este reconocimiento refuerza la importancia de aplicar la inteligencia artificial de manera responsable y sostenible. ¡Enhorabuena a los equipos premiados por su esfuerzo, talento e innovación! Desde OdiseIA continuamos impulsando una IA ética y transformadora junto a INDESIA .
- OdiseIA presenta el primer informe GuIA, una iniciativa para saber cómo adoptar la Inteligencia Arti
OdiseIA, PwC, Google, Microsoft, IBM y Telefónica, con la presencia de Carme Artigas (SEDIA), presentan una guía para adoptar la Inteligencia Artificial de manera responsable. Es el primer resultado de GuIA, una iniciativa de OdiseIA, a la que se están uniendo más de 50 empresas de 10 sectores diferentes. Al final de este post está disponible el enlace para poder descargar el documento , así como el vídeo con la grabación del evento de presentación. El evento contó con la presencia de Carme Artigas, la Secretaria de Estado de Digitalización e Inteligencia Artificial del Gobierno de España Su presencia pone de manifiesto el proceso de modernización en el que se encuentra nuestra sociedad, y el apoyo realizado desde las instituciones públicas para que se lleve a cabo. En la clausura del evento, Carme Artigas remarcó como “ La IA nos presenta un nuevo escenario lleno de grandes incertidumbres que abordaremos desde una firme vocación ética y humanista .” La Inteligencia Artificial y la necesidad de la ética La Inteligencia Artificial (IA) ya está presente en nuestras vidas: cuando compramos por Internet, cuando nos recomiendan películas o canciones, cuando traducimos automáticamente un texto, o cuando hablamos con nuestros dispositivos. Pero también hace predicciones o participa de decisionesque tienen un impacto importante en nuestras vidas, como cuando queremos contratar un producto financiero o un seguro, nos hacen un diagnóstico médico, y un largo etcétera que irá aumentando en los próximos años, “ Pero la IA puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros. También la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Por estos motivos es necesario el desarrollo de la ética asociada a la IA ”,tal y comoindicó Idoia Salazar , presidenta de OdiseIA, el Observatorio Del Impacto Social y Ético de la Inteligencia Artificial. Lo hizo al inicio del evento celebrado este jueves 17 de febrero, en un formato híbrido ( online y presencialmente desde la escuela de negocios ISDI en Madrid), donde se presentó el primer resultado de la iniciativa GuIA. El nacimiento de GuIA En noviembre de 2020, OdiseIA lanzó públicamente la iniciativa GuIA con el apoyo de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). En aquel evento también participaron Google, Microsoft, IBM y Telefónica, y todos los intervinientes consensuaron la necesidad de aterrizar los conceptos éticos que envuelven a la Inteligencia Artificial. La importancia de cubrir el espacio vacío que existe entre las declaraciones de principios globales que sirvieron hace unos años para arrancar las reflexiones éticas en la IA, y la realidad aterrizada en casos de negocio concretos. Resuelta además a través de tecnologías específicamente diseñadas para ello. Y este es el objetivo de GuIA : establecer un ecosistema colaborativo donde las empresas puedan consultar y aportar su experiencia aterrizada en la adopción de la Inteligencia Artificial atendiendo a buenas prácticas tanto en el plano ético como en el normativo . De la responsabilidad a la obligatoriedad Desde la presentación de GuIA han ocurrido hechos importantes que han remarcado la necesidad del objetivo de esta iniciativa. En diciembre de 2020, la Secretaría de Estado de Digitalización e Inteligencia Artificial ( SEDIA ) publicó la Estrategia Nacional de Inteligencia Artificial (ENIA), dedicando por entero uno de sus seis ejes a la necesidad de una Inteligencia Artificial ética y normativa. En noviembre de 2021, la UNESCO publicó un informe sobre la ética de la Inteligencia Artificial donde se instaba a la creación de políticas y marcos normativos para asegurar que estas tecnologías emergentes benefician a la humanidad en su conjunto. De hecho, en abril de 2021, la Comisión Europea presentó su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial ( AI Act ). El proyecto de ley pretende establecer una regulación horizontal sobre la IA y, una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años. Por tanto, más allá de la responsabilidad proactiva de las empresas en adoptar la IA de manera ética y responsable (algo que es necesario), ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley. A este respecto, iniciativas como GuIA pueden ayudar a las empresas a conseguirlo. Una primera guía elaborada por más de treinta expertos Este primer informe GuIA que ha sido presentado el jueves 17 de febrero, es el primer resultado de dicha iniciativa. Tiene más de doscientas páginas y ha sido elaborado por un equipo multidisciplinar de más de treinta personas formado por tecnólogos y juristas de OdiseIA y PwC, junto a expertos de Google, Microsoft, IBM y Telefónica. Incluye un detallado estudio de los principios éticos que aplican a la IA, realizado a partir del análisis de treinta iniciativas de todo el mundo, al que se ha agregado un análisis jurídico de dichos principios. Por último, y con su contante vocación de aterrizar estos conceptos , se incluyen las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM que permiten su gestión, así como la experiencia de Telefónica en este ámbito. En el evento se presentaron las principales conclusiones, así como los próximos pasos de la iniciativa. Todo en varias mesas redondas dirigidas por Mar Cabra , Periodista ganadora del premio Pulitzer y co-fundadora de OdiseIA. Para Juan Manuel Belloto, director de OdiseIA responsable de la iniciativa GuIA, “Las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen la responsabilidad de que su IA esté desarrollada bajo principios éticos. Al igual que en la sociedad, a la ética es necesario acompañarla de legislación. Y por primera vez la legislación no se está dejando esperar, un claro síntoma de su importancia en la IA. Otro síntoma de la importancia de este reto es ver como empresas con muchos negocios solapados se unen en GuIA para abordar este reto de forma conjunta.” De igual manera Armando Martínez Polo , socio de PwC España remarcó que “ El uso ético y responsable de la Inteligencia Artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica no existirá la posibilidad de no prestar atención a este tema. La aportación de GuIA creemos que es fundamental para generar comunidad, y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas ” La importancia de los marcos éticos y normativos Se expusieron los principales marcos éticos y normativos a tener en cuenta, siempre teniendo presente que están evolucionando y hay que estar atentos a esos cambios para reducir el riesgo de usos incorrectos. “ Una parte importante del uso ético de la IA es democratizar la necesidad concienciando a todos los miembros de una organización de su importancia. El reto a futuro es que no se vea como algo que hay que hacer, sino como algo que quieren hacer. Los marcos éticos son clave para la fase en donde estamos, pero no son suficientes para el futuro ”, según Richard Benjamins , vicepresidente de OdiseIA., Igualmente, Patricia Manca (Partner en PwC New Law España), remarcó que “ la máxima de cualquier regulación de la Inteligencia Artificial debe fundamentarse en lograr los máximos beneficios para las personas, por lo que la involucración proactiva de todos en su desarrollo, implementación y correcta contextualización es clave para el futuro. Cómo se defina e implemente su marco normativo dependerá de nuestro ejercicio responsable como sociedad democrática y defensora de los derechos humanos” El compromiso de Google, Microsoft e IBM Estas compañías están haciendo un gran esfuerzo por ayudar a que la IA sea adoptada de manera ética. Llevan años publicando sus estudios y herramientas para que las empresas que hacen uso de su tecnología lo hagan de una manera responsable. La iniciativa GuIA ha agrupado y sintetizados sus extensos planteamientos para ayudar a que las empresas puedan minimizar los riesgos derivados de no tenerlos en cuenta. Miguel Escassi , Director de políticas públicas y Asuntos con el Gobierno de Google, declaró que “ la inteligencia artificial es una tecnología que nos ayuda a enfrentar desafíos globales que van de la sostenibilidad a la accesibilidad pasando por la educación o la salud. La ética y la regulación son partes centrales en este avance y, por eso, apoyamos y participamos en proyectos como GuIA cuyo objetivo es facilitar el acceso de todos al conocimiento y a las herramientas que les permita desarrollar sus productos y servicios con responsabilidad .” También Alberto Pinedo ( National Technology Officer de Microsoft) señaló como “ Creemos en el potencial de la Inteligencia Artificial para mejorar nuestras vidas y tenemos que hacerlo para el beneficio de todos. Por primera vez tenemos sistemas que asumen el papel que juegan las personas, y debemos examinar los efectos sobre las personas y la sociedad. Responsible AI es la estrategia que adoptamos para desarrollar e implementar nuestra tecnología de manera que se cumplan nuestros principios de equidad, confiabilidad, privacidad y seguridad, transparencia, responsabilidad e inclusión y que sea accesible para todas las personas. ” Enric Delgado Samper (CTO de IBM España, Portugal, Grecia e Israel) indicó que “ hay que tener presente que el propósito de la IA es aumentar la inteligencia humana, que los datos y los conocimientos generados deben pertenecer a su creador, y que tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas. Estos principios son fundamentales, pero estamos ya en un momento en el que hay que ir más allá y pasar a aspectos prácticos de implementación, a nivel de procesos y de tecnología, para poder gestionar y gobernar las soluciones de IA a lo largo de todo su ciclo de vida. Por ello, desde IBM aportamos procesos, servicios y una suite de herramientas específicas, nacidas de IBM Research y disponibles para todo el mundo, segmentadas en cinco áreas clave -explicabilidad, equidad, robustez, transparencia y privacidad- que han quedado muy bien descritas en la GuIA de OdiseIA ”. Telefónica como ejemplo de adopción de la IA de manera ética La compañía española lleva tiempo inmersa en un proceso de transformación para que su adopción de la IA tenga en consideración estos principios éticos y su normativa asociada. Su experiencia fue contada por Francisco José Montalvo , Chief Data Officer de Telefónica, quien señaló que “ En Telefónica, nuestros principios sitúan a las personas en el centro y garantizan el respeto de los derechos humanos en cualquier entorno y proceso en el que se use la inteligencia artificial. Así, estamos trabajando para implementar, sobre la base ya existente de Privacidad por Diseño, una capa adicional que denominamos Ética por Diseño. En ella, implementamos técnicamente los valores y principios éticos durante el ciclo de vida de nuestros productos de Inteligencia Artificial, además de definir las técnicas organizativas necesarias para su consecución ” Próximos pasos ya lanzados: Adaptación sectorial y Formación Las empresas sectoriales también están muy concienciadas a sabiendas de la responsabilidad que tienen con sus clientes. Además de que un uso éticamente correcto de estas tecnologías podría impactar positivamente en la percepción que de ellos pudieran acabar teniendo los mismos. Ya han comenzado los trabajos para adaptarlo a las particularidades de diez sectores empresariales , para lo que contarán con más de 50 empresas . Con la misma vocación de aterrizaje que dirige toda la iniciativa, en este caso se realizará sobre casos actuales o potenciales susceptibles de ser soportados por Inteligencia Artificial. Por tanto, la iniciativa también proporcionará a dichos sectores el conocimiento necesario para modernizar sus negocios a través de IA, y además hacerlo de manera ética y responsable. El trabajo llevará hasta mediados de 2023, y ya han comenzado los preliminares de los sectores de salud, seguros y publicidad. Además, la iniciativa GuIA abordará formaciones detalladas en Escuelas de Negocio y Universidades para hacer llegar estos conceptos a los profesionales de hoy y a los del futuro. A este respecto Rodrigo Miranda , director general de la escuela de negocios ISDI , comentó que “ el impacto que la Inteligencia Artificial va a tener en todos los sectores e industrias está ya fuera de toda duda, pero queda mucho camino a recorrer en formar a las organizaciones y a su fuerza de trabajo. Aplicar principios éticos en el campo de la Inteligencia Artificial se convertirá más en un deber que en una oportunidad para las compañías: si no tienes una IA ética, no existirás. Hay que capacitar a las organizaciones en lo que implica la aplicación de principios éticos en la Inteligencia Artificial. Éstos comienzan desde el mismo momento que las compañías recogen datos de los clientes hasta el momento de elección y aplicación de un algoritmo. La ética en la Inteligencia Artificial asegurará que esa caja negra (black box) en la que en ocasiones se posiciona a la Inteligencia Artificial, deje de serlo ” En definitiva, la Inteligencia Artificial ya tiene un papel fundamental en empresa y sociedad, y lo tendrá aún mucho más. Es por tanto fundamental que las empresas la adopten atendiendo a principios éticos y preceptos normativos. Para ello son necesarias iniciativas como GuIA , para saber cómo hacerlo , y para extender ese conocimiento todo lo posible, de manera colaborativa entre empresas que pueden tener competencia comercial, pero a la vez tener una misma misión común. Tal y como refleja la misión de OdiseIA, trabajar conjunta y activamente por un uso ético y responsable de una Inteligencia Artificial que tenga en su centro el bienestar del ser humano
- La inclusión digital no es un lujo, es un derecho.
Hoy damos un paso firme hacia un futuro más justo con el lanzamiento del Proyecto COPID, una iniciativa destinada a garantizar la igualdad digital para todos, sin importar las circunstancias. Desde OdiseIA, en colaboración con la Universidad Carlos III, la Fundación ONCE y RED.ES, nos comprometemos a transformar los principios de la Carta de Derechos Digitales de España en acciones concretas. El proyecto se puso formalmente en marcha el pasado viernes 11 de octubre en el auditorio de la Fundación ONCE, con la participación del director general de RED.ES, Jesús Herrero Poza; la Secretaria General de la Fundación ONCE, Virginia Carcedo; Francisco Bariffi, Profesor e Investigador Posdoctoral de la Universidad Carlos III de Madrid; y Fabián García Pastor, Director de formación de OdiseIA. COPID nace con una misión clara: no dejar a nadie atrás . En una sociedad donde la tecnología se ha convertido en el centro de nuestras vidas, la inclusión digital debe ser universal. No se trata solo de acceso, sino de oportunidades, de asegurar que los derechos digitales sean efectivos y protejan a todas las personas, especialmente a quienes se encuentran en situación de vulnerabilidad. En OdiseIA, estamos comprometidos con aportar nuestra experiencia en ética e inteligencia artificial. Nuestro objetivo es garantizar que la tecnología se desarrolle de manera inclusiva, respetando principios éticos y evitando que los avances profundicen las desigualdades existentes. COPID es un proyecto colaborativo donde actores gubernamentales, sociales y privados trabajan juntos para convertir la igualdad digital en una realidad palpable. El proyecto COPID se estructura en cinco Comunidades de Práctica (CoP), cada una enfocada en un derecho clave de la Carta de Derechos Digitales: Derecho a la igualdad y a la no discriminación en el entorno digital Derecho de acceso a Internet Protección de niños, niñas y adolescentes en el entorno digital Accesibilidad universal en el entorno digital Brechas de acceso al entorno digital Desde OdiseIA, Maite Sanz de Galdeano, Patricia Llaque, Richard Benjamins y Fabián García Pastor están trabajando junto a otros actores clave para asegurar que cada una de estas CoPs transforme las directrices de la Carta en acciones concretas. Además de los socios principales - Fundación ONCE, Universidad Carlos III de Madrid y OdiseIA - el proyecto cuenta con la participación de representantes del Tercer Sector de Acción Social en España. Nos sentimos orgullosos de formar parte de COPID, aportando nuestra experiencia para garantizar que la transformación digital esté al servicio de todos y no deje a nadie atrás. Queremos construir un entorno digital donde cada persona, sin importar su origen, edad o capacidad, tenga las mismas oportunidades para desarrollarse y tener éxito. Os invitamos a conocer más sobre COPID y a uniros a esta misión . La transformación digital debe ser una fuerza para el bien de toda la sociedad. Juntos, podemos construir un futuro más inclusivo.
- OdiseIA presenta su participación en el Proyecto COPID: Impulsando la Igualdad en el entorno digital
Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . OdiseIA se enorgullece de formar parte del lanzamiento del proyecto Comunidades de Práctica para Impulsar la Igualdad en el Entorno Digital (COPID), cuyo evento de presentación se llevará a cabo el próximo 11 de octubre de 2024 en el Auditorio de Fundación ONCE, en Madrid. Este proyecto busca promover la igualdad de derechos en el entorno digital, un ámbito que requiere atención urgente para garantizar que todas las personas, sin importar sus capacidades, tengan las mismas oportunidades y acceso. El convenio firmado entre Red.es , Fundación ONCE, la Universidad Carlos III de Madrid y OdiseIA busca impulsar la implementación de la Carta de Derechos Digitales en el ámbito de los derechos de igualdad en el entorno digital. Su objetivo es garantizar el acceso igualitario a las tecnologías, la no discriminación y la eliminación de brechas digitales, centrándose en temas como la accesibilidad universal y la formación en competencias digitales. OdiseIA, como parte del convenio, trabaja para asegurar el uso ético de la inteligencia artificial en este contexto. El proyecto COPID se articula en torno a los ejes temáticos establecidos en la Carta de Derechos Digitales relacionados con la igualdad. Estos ejes incluyen el derecho a la igualdad y a la no discriminación en el entorno digital, el derecho de acceso a internet, la protección de niños, niñas y adolescentes en el entorno digital, accesibilidad universal en el entorno digital, y brechas de acceso al entorno digital. En cada uno de estos ejes se están desarrollando comunidades de expertos que trabajarán en propuestas concretas, tanto legislativas como no legislativas, para promover estos derechos. OdiseIA participa activamente en este esfuerzo, aportando su expertise en el uso ético de la inteligencia artificial aplicado a cada una de las distintas áreas. Durante el evento, Fabián García Pastor participará en la presentación oficial del proyecto, así como en la presentación del eje sobre el derecho de acceso a internet. Asimismo, Maite Sanz de Galdeano participará en la presentación de los ejes dedicados a los derechos a la igualdad y no discriminación y a la protección de niños, niñas y adolescentes en el entorno digital, mientras que Patricia Llaque Gálvez lo hará con el área relativa a las brechas de acceso al entorno digital. Este evento es una oportunidad única para debatir sobre cómo construir un entorno digital inclusivo y accesible, asegurando que la tecnología y las herramientas de inteligencia artificial no generen barreras, sino que impulsen la igualdad. El formato del evento será híbrido, permitiendo la participación tanto presencial como a través de streaming. Para obtener más información e inscribirte, accede al siguiente enlace: I NSCRÍBETE AQUÍ . ¡No te pierdas esta oportunidad de formar parte del cambio hacia un entorno digital más justo e inclusivo!
- Publicamos un primer posicionamiento sobre Inteligencia Artificial Generativa
Publicamos un primer posicionamiento de OdiseIA sobre Inteligencia Artificial Generativa en el que, además de reconocer su gran aportación técnica y económica, identificamos los riesgos sociales y éticos asociados y aportamos una serie de recomendaciones para su uso responsable. Acabamos de publicar un documento con un primer posicionamiento de OdiseIA sobre la Inteligencia Artificial Generativa. Dada la enorme visibilidad mediática alcanzada por esta tecnología tras el lanzamiento de ChatGPT a finales del 2022, y dado y el indudable impacto que desde ya y proyectado hacia el futuro se prevé que tenga la inteligencia artificial generativa en los negocios, las administraciones y la sociedad, desde OdiseIA hemos sentido la necesidad, siguiendo nuestra misión, de realizar un análisis con perspectiva social y ética. Y el fruto de dicho análisis es este documento en que, tras una breve introducción a la naturaleza y características de la inteligencia artificial generativa, identificamos los principales riesgos de carácter social, ético e incluso legal, y aportamos, humildemente, unas recomendaciones para su uso consciente y responsable, por los órganos legisladores, las empresas, las administraciones y los ciudadanos de a pie. En la elaboración de este documento han participado una docena de socios de OdiseIA. Hablamos de un primer posicionamiento de OdiseIA porque prevemos una evolución y probablemente nuevas ediciones de este documento, dado el dinamismo de esta tecnología y su adopción. Y, de hecho, en Otoño de este mismo año, prevemos publicar nuevas aportaciones alrededor de esta misma temática. En ese sentido, cualquier feedback será bienvenido. Puedes encontrar y descargar el documento siguiendo este enlace: Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es profesor, director académico y mentor de proyectos en Escuela de Organización industrial y colaborador en otras universidades y escuelas de negocio como OBS, Universidad Europea o UNIR. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y “Robots en la sombra” (Anaya Multimedia, 2021).












