
Search Results
109 resultados encontrados
- OdiseIA School imparte en abierto el curso Privacidad 360
Un curso diseñado por Fabian Garcia Pastor, e impartido por expertos de OdiseIA como el propio Fabian, Lorenzo Cotino, Ignacio Gonzáles de los Reyes y Juan Manuel Belloto Gómez, donde se muestra cómo tratar la Privacidad en la Inteligencia Artificial con una visión 360. La OdiseIA School imparte formacionessobre Inteligencia Artificial y su uso responsable en empresas, administraciones públicas, escuelas de negocio, etc., contando para ello con los expertos de OdiseIA, quienes la abordan desde una perspectiva de negocio, tecnológica, ética y jurídica como es necesario para comprender todas las posibles aplicaciones prácticas y sus implicaciones de esta tecnología emergente. En este curso, con una versión reducida disponible de manera abierta en nuestro canal de Youtube (https://www.youtube.com/watch?v=njkghAyc1d8), los expertos de OdiseIA Fabian García Pastor, Lorenzo Cotino, Ignacio Gonzáles de los Reyes y Juan Manuel Belloto Gómez, muestran cómo tratar la Privacidad en la Inteligencia Artificial con una visión 360, atendiendo a las perspectivas antes mencionadas. En él se descubren las claves para gestionar con éxito la privacidad en las organizaciones, tratando los siguientes contenidos: La esencia de la privacidad Los fundamentos de la protección de datos La privacidad, la inteligencia artificial y la ética Aspectos regulatorios clave La aplicación de la privacidad en varios sectores Las tecnologías PET (Privacy Enhancing Technologies) y los marcos para la gestión de la privacidad El impacto de la protección de datos en la IA y en la ética El enfoque de la privacidad que hacen Google, Microsoft, IBM y Telefónica La aplicación de la privacidad en varios sectores Este curso, en su versión extendida, está disponible para aquellas entidades que así lo deseen, atendiendo a sus necesidades particulares. Para ello pueden dirigirse a contacto@enrique-javier-benitez
- OdiseIA imparte un programa formativo a miembros del Ministerio de Asuntos Económicos y Transformación Digital
El programa, con 5 convocatorias de 20 horas de duración cada una, tuvo una valoración media de 8,8 sobre 10 por parte de los más de 100 asistentes. OdiseIA imparte formaciones sobre Inteligencia Artificial y su uso responsable en empresas, administraciones públicas, escuelas de negocio, etc., contando para ello con los expertos de OdiseIA, quienes la abordan desde una perspectiva holística atendiendo a dimensiones de negocio, tecnológica, ética y jurídica como es necesario para comprender todas las posibles aplicaciones prácticas y sus implicaciones de esta tecnología emergente. Desde el mes de Abril al de Julio de 2021 impartimos un programa formativo en el que compartimos el conocimiento de OdiseIA en Inteligencia Artificial con miembros del Ministerio de Asuntos Económicos y Transformación Digital (MINECO), y de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) del gobierno de España. El programa, de 20 horas de duración, tuvo cinco convocatorias de unos 20 alumnos cada una. El contenido del programa proporcionaba una visión 360 sobre la Inteligencia Artificial, partiendo de los conceptos necesarios para entender la IA, continuando con los enfoques estratégicos en la Administración Pública tanto en España como en Europa, aterrizados mediante casos de uso concretos, pasando por la gestión de proyectos y llegando a las tecnologías inteligentes e incluso su integración con otra tecnología emergente como Blockchain. Por supuesto, alineado con la misión de OdiseIA, en todos los módulos abordamos los enfoques responsables y normativos imprescindibles en los planteamientos sobre Inteligencia Artificial, además de impartir módulos específicos sobre dichas dimensiones. Además, el programa terminó con una práctica grupal que permitió a los asistentes aplicar los conocimientos adquiridos. En esta aventura participaron once miembros de OdiseIA que tuvieron un desempeño sobresaliente, ya que los más de cien alumnos del MINECO y la SEDIA que lo cursaron otorgaron al programa una valoración media de 8,8 sobre 10. Diseño del programa: Juan Manuel Belloto Gómez y Adrián González Sánchez. Coordinación: Juan Manuel Belloto Gómez Instructores (por orden alfabético) Juan Manuel Belloto Gómez Enrique Javier Benítez Palma Richard Benjamins Lorenzo Cotino Hueso Juan de la Cruz Juan José Escribano Otero Ignacio Gonzalez de los Reyes Gavilán Adrián González Sánchez Idoia Salazar Paul Van Branteghem Mónica Villas Estos programas formativos impartidos por OdiseIA están disponibles para aquellas entidades que así lo deseen, atendiendo a sus necesidades particulares. Para ello pueden dirigirse a contacto@odiseia.org
- Publicamos la Memoria de Actividades de 2021
Acabamos de publicar nuestra Memoria de Actividades 2021. En ella podrás conocer mejor quiénes somos, qué actividad hemos desarrollado en 2021 y qué nos proponemos conseguir en este 2022 ya en curso. Acaba de ver la luz la Memoria de Actividades 2021 de OdiseIA. Aunque ya está algo avanzado el año actual, no hemos querido dejar de publicar este documento que recoge, en unas 50 páginas, los datos más importantes más importantes sobre nosotros y nuestra actividad en el año anterior. Contamos en qué consiste OdiseIA, sus objetivos y sus valores y también cómo estamos organizados. Resumimos cuáles han sido nuestros principales logros en el año 2021 incluyendo iniciativas tan importantes como el lanzamiento del Proyecto GuIA, la participación en los consorcios Indesia y Gaia-X, la realización de nuestra primera acción de formación externa con la SEDIA (Secretaría de Estado de Digitalización e Inteligencia Artificial) o el más que relevante crecimiento en socios tanto individuales como institucionales. Además, contamos, área a área, sus objetivos, la labor que han realizado en 2021 y lo que se proponen conseguir en 2022. Y cerramos con los principales retos para este año 2022: participación en el piloto de reglamento de la UE sobre Inteligencia Artificial, primeros entregables de GuIA o el lanzamiento de OdiseiA School y el Certificado OdiseIA. Pero quizá, lo que más nos satisface, es el caluroso ‘feedback’ de nuestros socios, privados e institucionales, con que abrimos el documento. A partir de ahora esperamos resumiros, cada año, lo que vamos haciendo y consiguiendo. Puedes encontrar el documento con la Memoria 2021 en este enlace y mucha más información, en nuestra página web: https://www.odiseia.org/ Ignacio G.R. Gavilán Director del Área de Relación Robots-Personas y Director de Operaciones en OdiseIA. Ignacio G.R. Gavilán es Ingeniero Industrial, MBA y PMP. Es Fundador y CEO de Reingeniería Digital. Además, es Profesor, Director académico y mentor de proyectos en Escuela de Organización industrial y colaborador en otras escuelas de negocio. Escritor y conferenciante, es autor de “La Carrera Digital” (ExLibric 2019) y “Robots en la sombra” (Anaya Multimedia, 2021).
- Anuncio de la creación del Centro Nacional de Neurotecnología en el evento de actualización de la ag
Tras dos años de su puesta en marcha la Agenda España Digital ha sido actualizada para su adecuación al horizonte 2026 y su alineamiento con el Plan de Recuperación. Esta Agenda se erige como pilar estratégico de recuperación y como vector de modernización y prosperidad impactando tres dimensiones: infraestructuras y tecnología, economía y personas. La inversión del Estado a través del Plan de Recuperación y la Agenda España Digital tiene como finalidad impulsar el salto tecnológico en conectividad, ciberseguridad, Inteligencia Artificial y datos. Este gran proyecto de transformación digital incluye 8 planes específicos: el Plan para la Conectividad y las Infraestructuras Digitales de la sociedad, la economía y los territorios; la Estrategia de Impulso a la Tecnología 5G; la Estrategia Nacional de Inteligencia Artificial; el Plan Nacional de Competencias Digitales; el Plan de Digitalización de pymes; el Plan de Digitalización de las Administraciones Públicas; España Hub Audiovisual de Europa y el Plan Nacional de Ciberseguridad. Dentro de todas las novedades comunicadas en el evento del pasado 8 de julio, la Dirección del área “Bioética y Neuroética” de OdiseIA se hace eco del anuncio de Nadia Calviño, vicepresidenta del Gobierno y ministra de Asuntos Económicos y Transformación Digital, acerca del inicio del diálogo entre el Gobierno y la Comunidad de Madrid con el objetivo de materializar la creación del 𝗖𝗲𝗻𝘁𝗿𝗼 𝗡𝗮𝗰𝗶𝗼𝗻𝗮𝗹 𝗱𝗲 𝗡𝗲𝘂𝗿𝗼𝘁𝗲𝗰𝗻𝗼𝗹𝗼𝗴í𝗮. La Comunidad de Madrid ha presentado su candidatura para albergar la sede del nuevo proyecto 𝗦𝗽𝗮𝗶𝗻𝗡𝗲𝘂𝗿𝗼𝘁𝗲𝗰𝗵, concretamente en el campus de la UAM (Universidad Autónoma de Madrid) junto al Parque Científico de Madrid y a otras reputadas entidades como son el Centro de Biología Molecular Severo Ochoa, IMDEA Nanociencia, el Instituto de Física Teórica, el Instituto de Ciencias Matemáticas o el Centro de Investigación en Ciencias de la Alimentación. El proyecto ha sido asesorado por prestigiosos expertos internacionales en la materia como científicos provenientes de universidades de Harvard, Columbia y Berkeley. Asimismo, se creará una red que interconectará a todas las universidades y centros punteros en neurotecnologías, que se llamará NeuroMadrid, como una apuesta a la ciencia de excelencia global. El objetivo es posicionar a España como un centro de referencia en Neurotecnología tanto en Europa como a nivel mundial. Estamos hablando de un proyecto que se convertirá en motor de atracción del talento internacional en este campo de conocimiento interdisciplinar. El pasado octubre la vicepresidenta primera, Nadia Calviño, expresó el interés por recoger propuestas sobre la aplicación de la Inteligencia Artificial en la neurotecnología que fomenten la investigación, la transmisión de conocimiento a la industria y la transferencia de los éxitos en beneficio de la sociedad. La Manifestación de Interés dirigida a agentes privados y públicos que incluía a empresas, a centros de investigación y a universidades, presentaba dos objetivos: Identificar acciones y desafíos ante el deseo de posicionar a España como un referente en Neurotecnología. Conocer las necesidades de los centros de investigación y del tejido empresarial para poder abordar dicha transformación. Las propuestas debían responder a cinco líneas de trabajo: Fomento de la investigación en el ámbito de la neurotecnología y la Inteligencia Artificial. Aplicación de los resultados para el beneficio de la sociedad. Transferencia de conocimiento. La generación de talento, atracción de talento internacional y retención de talento extranjero. Identificación y posterior desarrollo de soluciones para mitigar el impacto ético de las neurotecnologías. Esta acción permitirá seguir avanzando también en la Estrategia Nacional de Inteligencia Artificial (ENIA) en una prometedora industria con proyección exponencial.
- Diálogos 360: Inteligencia Artificial y Justicia
¿Veremos en un futuro próximo una Justicia con una Inteligencia Artificial que tome decisiones? Conversación entre el juez Alfonso Peralta Gutiérrez y Fabián García Pastor en el marco de la iniciativa Diálogos 360 de OdiseIA. Se pasa revista a diversos aspectos relacionados con la llegada de la Inteligencia Artificial en la Justicia: la situación actual, las aplicaciones, el impacto social, el impacto ético, etc. #video
- Intervención de Idoia Salazar y Richard Benjamins en las Cortes de Aragón
Intervención de Idoia Salazar y Richard Benjamins en las Cortes de Aragón, en las Audiencias Legislativas de la Comisión de Ciencia, Universidad y Sociedad del Conocimiento, dentro del proceso legislativo de tramitación del PROYECTO DE LEY DE MEDIDAS PARA LA IMPLANTACIÓN Y DESARROLLO EN ARAGÓN DE TECNOLOGÍAS EN LA NUBE (CLOUD COMPUTING). Intervención de Idoia Salazar y Richard Benjamins (minutos 42:30 hasta 52:10): Los representantes de OdiseIA, Observatorio Del Impacto Social y Ético de la Inteligencia Artificial, destacaron los siguientes aspectos del Proyecto de Ley: a) El énfasis puesto en la protección de datos (artículo 13, puntos f y g). b) la necesidad de construir “confianza digital” (artículo 34). c) La importancia de la sostenibilidad, dado que la nube tiene su propia huella de carbono. En este sentido, recomendaron vigilar que los proveedores tengan una estrategia sostenible, alineada con los principios ESG, a la hora de realizar las contrataciones de estos suministros. Acceso a la web de las Cortes de Aragón y al texto del Proyecto de Ley: https://ecomisiones.cortesaragon.es/index.php?option=com_content&view=article&id=5030:x-legislatura-ciencia-universidad-y-sociedad-del-conocimiento-proyectos-de-ley-proyecto-de-ley-de-medidas-para-la-implantacion-y-desarrollo-en-aragon-de-tecnologias-en-la-nube-cloud-computing&catid=468:ciencia-universidad-y-sociedad-del-conocimiento-docu&Itemid=177
- Idoia Salazar inaugura la jornada para visibilizar a mujeres referentes en el ámbito STEAM
Coincidiendo con el Día Internacional de Ada Lovelace, la primera programadora de la historia, 42Madrid, el campus gratuito de programación más innovador del mundo impulsado por Fundación Telefónica, y la mayor red de mujeres profesionales y emprendedoras de habla hispana, Womenalia, han organizado una jornada para visibilizar a mujeres referentes en el ámbito STEAM, impulsar la vocación de estas en el ámbito de la programación y contribuir a romper la brecha digital de género. Idoia Salazar, presidenta y co-fundadora del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), ha sido la responsable de inaugurar la sesión con una charla sobre la importancia del papel de la mujer en la implantación positiva y ética de la Inteligencia Artificial, y las consecuencias de la falta de mujeres en la programación en general y la programación de algoritmos en particular. Enlace a la noticia: https://www.eleconomista.es/ecoaula/noticias/11986570/10/22/Fundacion-Telefonica-y-Womenalia-impulsan-la-vocacion-de-las-mujeres-por-la-programacion.html
- Racismo, ‘deepfakes’ y opacidad: la ética de la IA, a debate
Desarrollar modelos entrenados con datos racistas o sexistas, utilizar datos de personas fallecidas para crear vídeos falsos y tomar decisiones basadas en los criterios de un algoritmo. La presidenta de OdiseaIA, Idoia Salazar, y la fundadora de The Ethical Tech Society, Lorena Jaume-Palasí, debaten sobre los riesgos de la IA y la forma de abordarlos en el cuarto episodio del pódcast ‘Constante Futuro’ Predecir proteínas para descubrir nuevos fármacos, vaticinar la lluvia o anticipar fallos en la cadena de suministro. Pese a las aplicaciones útiles de la inteligencia artificial (IA), las lagunas de privacidad o la perpetuación de comportamientos racistas, machistas o colonialistas debido al origen de los datos que se emplean para entrenar a los algoritmos son preocupantes. Para abordar esos desafíos éticos, la Unión Europea ha presentado un reglamento que propone multar a las empresas que desarrollen sistemas de IA dañinos, una norma que puede definir las bases para regular esta tecnología en todo el mundo. Más allá de la regulación, algunos expertos ya están reflexionando sobre las implicaciones éticas de la IA y la forma de enfrentarse a ellas. Idoia Salazar, fundadora del Observatorio Social y Ético de la IA (OdiseIA), colaboradora de la Secretaría de Estado de digitalización e Inteligencia Artificial de España y miembro del equipo de expertos en IA del Parlamento Europeo, y Lorena Jaume-Palasí, fundadora de The Ethical Tech Society, una organización que investiga las implicaciones sociales de los procesos de automatización y miembro del panel de Evaluación de Opciones Científicas y Tecnológicas de la Unión Europea, han debatido sobre las luces y las sombras de la inteligencia artificial en el cuarto episodio del pódcast Constante Futuro, que puedes escuchar en Spotify, Ivoox y Apple Podcasts. Uno de los problemas de la inteligencia artificial más conocidos es la discriminación. Un caso real fue el de COMPAS, un sistema utilizado por la justicia penal de EE UU con sesgos hacia los acusados afroamericanos. Los propios modelos de inteligencia artificial que generan textos automáticamente analizan datos de internet, entre ellos contenidos tóxicos y desinformación, que pueden replicar después. ¿Cuáles son los principales riesgos de que un algoritmo tenga prejuicios? Idoia: Sabemos que estos sistemas de IA necesitan muchísimos datos para su entrenamiento. La mayor parte de las veces son datos históricos de empresas donde ha habido casos de discriminación hacia mujeres o hacia razas específicas. Casos como el de COMPAS son un problema porque maximizan estos prejuicios sociales que han existido desde siempre. Pero a mí me gusta ver también el lado positivo de la situación que vivimos con el desarrollo de la IA: cada vez tenemos mayor consciencia sobre el problema de los sesgos. Existen herramientas para quitar estas variables de sexo, raza u otras para intentar entrenar de una manera más objetiva al algoritmo. Por otro lado, también se toma consciencia de esa necesidad de no dejar que sea el algoritmo el que tome la decisión final en casos en las que haya implicaciones humanas. Lorena: Yo soy un poco más escéptica, porque la semántica de sesgo le quita gravedad y distrae el debate de la discriminación. Ya no estamos hablando de racismo o de sexismo, sino que hablamos de sesgo, como si fuese un tema estadístico. Los sistemas algorítmicos tienen un pensamiento muy europeo y antiguo. Hacemos sistemas algorítmicos basados en una aproximación de reglas exactas estandarizadas. Y cuando se crean estándares, se crean cajones, y este tipo de sistemas tienden a discriminar. La revista ProPublica descubrió hace unos años que COMPAS estaba utilizando datos históricos y, con ello, discriminando o siendo racista con las personas negras en el sistema penitenciario norteamericano. Se siguen utilizando métodos como los que ha descrito Idoia para eliminar la clasificación racial o eliminar cualquier tipo de discriminación en este tipo de sistemas, lo cual es imposible porque ya sabemos que se puede inferir el género o la raza con las que se clasifica a una persona con otro tipo de datos. En la Guía de Buenas Prácticas de Impacto social y ética del Observatorio de Impacto Social de la IA del que forma parte Idoia, se comparan las competencias de la IA con las de los seres humanos o empresas. Y aquí me surge una pregunta, si los propios seres humanos ya fallamos en esas cuestiones y lo vemos constantemente. ¿Cómo podemos asegurar que los algoritmos no tienen esos sesgos si directamente están creados por seres humanos que ya los tienen? I: La cuestión es ver a estos sistemas de IA como lo que son, por muchas peculiares que tengan similares a los seres humanos, son herramientas que nos ayudan a lidiar con la cantidad de datos que tenemos a nuestro alrededor. Yo cada vez estoy más convencida que debiéramos desechar del concepto de toma de decisiones y decir solamente recomendaciones o conclusiones. Porque la decisión final la tiene que tomar la persona que es la capaz aplicar un contexto. Aun así, los profesionales deben formarse en IA para poder aprovechar las ventajas de este sistema. Hay una falta de formación muy clara. Foto: Idoia Salazar, presidenta de OdiseIA, y Lorena Jaume-Palasí, fundadora de The Ethical Tech Society. Crédito: cortesía de las entrevistadas La Comisión Europea presentó hace unos meses una propuesta de marco legal pionero para la inteligencia artificial que actualmente está en trámite. Entre otros muchos aspectos, pretende que esta tecnología sea más explicable y transparente. ¿Cómo se puede lograr esa transparencia? L: La transparencia en los sistemas de inteligencia artificial es una cortina de humo, como lo es el cambio de semántica cuando no hablamos de discriminación o de racismo sino de sesgos. Forma parte de este problema del solucionismo tecnológico: si cambiamos la fórmula matemática, lo solucionamos. Esa cortina de humo en la transparencia me parece bastante problemática porque lo que vemos en la tradición legal europea es que, con la transparencia, en muchos casos, se transfiere la responsabilidad allá dónde no toca, de la empresa al consumidor. I: En la declaración que hizo la UNESCO de los principios éticos de la IA, se está intentando materializar esa transparencia para que todo aquel que use un sistema de IA sepa de qué manera ha llegado a la toma de decisiones, los datos que ha usado y su metodología para que las personas entiendan cómo se llega a esa toma de decisiones. Creo que es importante que empecemos a hacer una labor de divulgación porque la sociedad debe ser partícipe de las decisiones al respecto de la IA. Además de la transparencia, en la propuesta de la Comisión Europea se están planteando de los algoritmos en cuatro niveles de riesgo, con obligaciones asociadas para los fabricantes. Hablamos de riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. Me recuerda un poco al debate que se planteó durante la regulación de la privacidad en Europa. ¿Cómo esta norma puede obstaculizar la innovación como han sugerido ya algunos expertos? L: No creo que las categorías de la UE obstaculicen la innovación. Esta regulación se basa en el artículo 114 de los tratados fundamentales que tenemos en la UE, es decir, es derecho mercantil. No estamos en una disciplina de derechos constitucionales. El riesgo es multidimensional y este tipo de categorizaciones que se hacen son muy simplistas porque no se especifica qué tipo de riesgo. Por otro lado, creer que se puede decir ex ante cuánto riesgo tiene un sistema es también irónico y demuestra la mirada cosmética de este tipo de regulación. I: Creo que la UE tiene claro que hay que impulsar los sistemas de IA. Para ello, quiere aumentar la confianza de los consumidores y no regular la tecnología en sí misma sino estos casos concretos. No solamente analizando los casos de uso que ya hemos tenido con la implementación de sistemas de IA en diferentes productos y situaciones sobre casos reales, sino intentar prever de qué manera va a seguir esta evolución en los distintos sectores y la distinta casuística que se está planteando. ¿Qué si va a ser difícil y en la regulación vamos a tener más problemas para incentivar el uso de la IA? Todo esto se está trabajando en el sandbox que está desarrollando el Gobierno de España en el que se va a intentar dotar de herramientas sobre todo a las pymes para que se produzcan todos los procesos de adecuación al reglamento de IA de una manera lo más ágil posible. El gran riesgo que tenemos aquí es que las pymes y las startups sean capaces de adecuarse, pero se está trabajando en eso. Algunos de los resultados de los algoritmos suscitan controversia. Es el caso de los ‘deepfakes’, imágenes, vídeos y audios ultrarrealistas que pueden imitar a personas vivas e incluso a fallecidas. Aunque la Unión Europea considera que tienen riesgo limitado, ¿es ético utilizar la cara, los gestos y la voz de otra persona, en especial si ya no está? L: Las personas que han fallecido dejan de tener esa protección con sus datos. Es legal. Y lo legal es una forma de fijar lo que creemos que es ético o aceptable en una sociedad. Sin embargo, a nivel técnico, se tiene que decir que se pretende replicar a una persona, pero no se está replicando a una persona; se está extrapolando lo que esa persona era en base a determinados modelos. Es como hacer títeres de gente fallecida y a mí me parece una falta de respecto teniendo en cuenta la cultura que tenemos con las personas fallecidas. Gracias a los avances de la inteligencia artificial, estamos preguntándonos qué es la inteligencia o la conciencia, e incluso se ha puesto de nuevo sobre la mesa una disciplina tan antigua como la ética. ¿Nos está ayudando la tecnología a replantearnos nuestros propios valores? I: Sí. Hacía mucho que no se hablaba tanto de ética y cuestiones filosóficas. Debemos pararnos a pensar en ese tipo de cuestiones como qué es el ser humano, hacia dónde queremos ir como humanidad, qué es la privacidad u otras cuestiones que nos ayudan a ser más conscientes de muchas de las acciones para que tomemos la decisión correcta. L: El problema que tenemos con la IA y las consecuencias negativas que esta tecnología tiene no es por la tecnología en sí en sí, sino por el pensamiento con el que hacemos ese tipo de tecnología. Ese pensamiento es profundamente racista y colonialista. Por ello, yo no diría que en general la tecnología nos está haciendo repensar cómo utilizamos las cosas, depende de dónde esté cada uno y el contexto donde uno esté. por Editores de MIT Technology Review en español https://www.technologyreview.es/podcast/constante-futuro/racismo-deepfakes-y-opacidad-la-etica-de-la-ia-debate
- Masterclass ¿Es ética la inteligencia artificial?
No te pierdas la Masterclass “Inteligencia Artificial y Ética” organizada por OdiseIA School y que tendrá lugar el próximo lunes 28 de noviembre a las 18:30 Con la participación de Fabián García Pastor, Mónica Villas, Javier Camacho y unos invitados excepcionales: Borja Adsuara Varela, Richard Benjamins, Ignacio González de los Reyes Gavilán, Javier Morales, José Luis Fernández Fernández. #IAyEtica
- Entrevista con nuestro socio Adrián Palma
Compartimos la entrevista que la página web “El Derecho” hizo a nuestro socio Adrián Palma con motivo de su participación en el Congreso de Delegados de Protección de Datos, organizado por la Asociación Española para la Calidad en Valencia, el 14 de diciembre de 2022. Leer la entrevista
- Neuroderechos. Próximo evento.
Evento híbrido sobre Neuroderechos en el espacio-temporal de las Tecnologías Disruptivas Martes 26 de enero, 18:30 horas CET Anunciamos con enorme satisfacción el primer evento organizado por OdiseIA en 2023, de la mano de A. Patricia Llaque Gálvez. En el contexto de la creación del 𝐂𝐞𝐧𝐭𝐫𝐨 𝐍𝐚𝐜𝐢𝐨𝐧𝐚𝐥 𝐝𝐞 𝐍𝐞𝐮𝐫𝐨𝐭𝐞𝐜𝐧𝐨𝐥𝐨𝐠í𝐚, Spain Neurotech, que involucra al Ministerio de Asuntos Económicos y Transformación Digital, a la Comunidad de Madrid y a la Universidad Autónoma de Madrid, es todo un orgullo y un honor poder contar con Rafael Yuste, quién ha dirigido al equipo que ha desarrollado el programa de dicho centro, en este nuevo evento. Desde OdiseIA compartimos el agradecimiento de la dirección del área de 𝐁𝐈𝐎É𝐓𝐈𝐂𝐀 𝐘 𝐍𝐄𝐔𝐑𝐎É𝐓𝐈𝐂𝐀 a Moisés Barrio Andrés, J.D., Ph.D., a nuestra compañera Wilma Arellano Toledo, Ph.D. y a Carolina Aguilar por sumarse a este nuevo encuentro híbrido en este flamante año. Enlace a las inscripciones aquí. #neuroscience #neuroethics #bioethics #neurotech #aiethics #neurotechnology #aiforgood #neurorights #brainstimulation #brainscience #brainresearch #braincomputerinterface #braindevelopment
- OdiseIA organiza encuentro sobre Neuroderechos
El desarrollo de la IA, la neurotecnología, la nanotecnología, la biotecnología, la edición genómica, la biología sintética, la vida artificial… allanan el camino hacia la modificación estructural y funcional de lo que significa ser humano. La retroalimentación continua de dichos avances con nuevos hallazgos provenientes de la ciencia básica supera la velocidad de nuestro ritmo y capacidad para prepararnos social, ética y jurídicamente ante los riesgos existenciales que se presentan. Ante la creciente imprevisibilidad de dicha convergencia tecnocientífica, en este evento abordaremos la protección internacional de los derechos humanos en la era de la neurotecnología. Más información












