
Search Results
190 resultados encontrados
Eventos (35)
- 17 de diciembre de 2025 | 16:00
- 30 de octubre de 2025 | 8:00Finca Torre Juana, Av. Pintor Pérez Gil, 16, 03540 Alicante (Alacant), Alicante, España
- 9 de julio de 2025 | 7:00C. de Almagro, 9, Chamberí, 28010 Madrid, España
Entradas del blog (108)
- 🎙️ Evaluaciones de impacto, derechos fundamentales y gobernanza de la IA: Pere Simón conversa con Mario Hernández Ramos
En esta entrevista, Pere Simón Castellano conversa con Mario Hernández Ramos, profesor de Derecho Constitucional en la Universidad Complutense de Madrid, presidente del Comité de Inteligencia Artificial del Consejo de Europa y una de las voces de referencia en el desarrollo de evaluaciones de impacto ético y de derechos humanos en inteligencia artificial. La conversación se inscribe en el Proyecto Red.es – Carta de Derechos Digitales, dentro del Ámbito 6: Derechos en los nuevos entornos digitales, y se centra en una cuestión clave para la gobernanza contemporánea de la IA: cómo alinear el desarrollo tecnológico con los valores democráticos, los derechos fundamentales y el Estado de derecho. A lo largo de la entrevista se abordan, de forma clara y rigurosa, cuestiones como: el enfoque basado en derechos humanos que el Consejo de Europa viene impulsando en materia de IA; el valor añadido de las evaluaciones de impacto como herramientas de anticipación de riesgos y de cultura de responsabilidad; la metodología HUDERIA (Human Rights, Democracy and Rule of Law Impact Assessment), sus fases, estructura y utilidad práctica; las posibilidades reales de aplicación de estas metodologías por administraciones públicas y actores internacionales; y su articulación con el modelo europeo basado en riesgos, especialmente en relación con el Reglamento de IA de la Unión Europea. El diálogo ofrece, además, una mirada prospectiva sobre el futuro de las evaluaciones de impacto, planteándolas no como un mero requisito formal, sino como un instrumento estructural de la gobernanza de la IA, llamado a integrarse de manera ordinaria en el diseño, despliegue y supervisión de sistemas algorítmicos. Una conversación imprescindible para responsables públicos, juristas, tecnólogos y todas las personas interesadas en comprender cómo las evaluaciones de impacto pueden convertirse en un puente efectivo entre innovación, derechos humanos y democracia. Pere Simón Castellano
- Nueva Guía de Ciberseguridad aplicada a la IA para la Alta Dirección
La adopción de la Inteligencia Artificial (IA) en nuestras organizaciones no es una simple transición tecnológica; es una realidad que ya sostiene el 89% de los sistemas críticos de negocio . Sin embargo, esta aceleración ha generado una brecha de seguridad preocupante: mientras la tecnología avanza, el 77% de las empresas admite enfrentar vulnerabilidades estructurales en su cadena de suministro de IA. Para cerrar esta brecha, el proyecto cAIre de OdiseIA , con el apoyo de Google.org , presenta la guía: Protección de Sistemas de Inteligencia Artificial (IA) en el entorno organizativo . Un documento esencial para transicionar la ciberseguridad desde un enfoque operativo que resuelve un "problema técnico" hacia un "pilar de gobierno corporativo". ¿Por qué la IA cambia las reglas del juego? A diferencia de la ciberseguridad tradicional, donde los fallos suelen ser visibles e inmediatos (como un ransomware), la inseguridad en la IA es silenciosa y acumulativa . Un sistema puede parecer que funciona perfectamente mientras está siendo "engañado" para tomar decisiones sesgadas, filtrar datos confidenciales o responder a instrucciones maliciosas ( prompt injection ). Como directivo, la pregunta ya no es solo "¿está el sistema caído?", sino "¿podemos confiar en la decisión que acaba de tomar este algoritmo?" . Lo que encontrará en esta Guía La guía desglosa la complejidad de la IA en cuatro bloques críticos para la toma de decisiones: El Ciclo de Vida Seguro: No se trata solo de proteger el "producto final", sino de asegurar desde la obtención de datos y el entrenamiento del modelo hasta su vigilancia continua. Mapa de Amenazas Específicas: Una disección de los nuevos vectores de ataque, como el envenenamiento de datos ( data poisoning ), la inversión de modelos para robar propiedad intelectual y el consumo incontrolado de recursos (DoS). Sistemas de Defensa y Mitigación: Un análisis de las herramientas de vanguardia, desde Guardrails y Firewalls para LLMs hasta estrategias de Red Teaming . Guía de uso para cargos directivos: Cómo obtener una visión general rápida Sabemos que el tiempo es su recurso más escaso. Por ello, la guía está estructurada para que un perfil ejecutivo pueda extraer valor inmediato mediante los siguientes pasos: 1. Evalúe el "Umbral de aceptación" (Sección 2.4) Utilice esta sección para definir qué nivel de riesgo está dispuesto a asumir la organización. La IA es estocástica (probabilística), por lo que la dirección debe decidir dónde termina la automatización y dónde empieza la supervisión humana necesaria. 2. Diferencie riesgo de impacto (Sección 3.3) Es vital que el C-Level o Alta Dirección entienda esta distinción: Gestión de Riesgos: Protege a la empresa (fallos técnicos, pérdidas económicas). Evaluación de Impacto: Protege a las personas (sesgos, derechos, reputación).Esta visión le permitirá liderar una "IA Responsable" que evite, p.ej.crisis reputacionales de marca y sanciones legales. 3. Comprenda las principales amenazas y soluciones técnicas aplicables (Sección 2 y 3) Nuestra guía no ha tratado de ofrecer una lista exhaustiva, sino un resumen general por bloques de las principales amenazas. Para conocer cómo proteger nuestros activos hemos incluido los sistemas de defensa más empleados junto con un listado de posibles soluciones técnicas en el mercado. 4. Priorice la "Alfabetización en IA" (Capítulo 4) El Reglamento de IA impone la obligación de formar al personal. Use el programa de capacitación propuesto en la guía para delegar responsabilidades no solo al equipo de IT, sino a los dueños de procesos de negocio que interactúan con la IA. 5. Checklist de activos críticos (Anexo I) Consulte el Anexo I para solicitar a sus equipos técnicos un inventario claro. No se puede proteger lo que no se sabe que se tiene: desde datasets de entrenamiento hasta prompts del sistema. De la reactividad a la resiliencia La IA es un activo estratégico que amplía la superficie de ataque de su organización. Esta guía no es solo un manual técnico; es una herramienta de gobierno corporativo diseñada para asegurar que la innovación no comprometa la sostenibilidad jurídica y reputacional de su empresa
- 🎙️ IA, justicia juvenil y derechos de la infancia: Pere Simón entrevista a Alfredo Abadías
En esta conversación, Pere Simón Castellano dialoga con Alfredo Abadías Selma , profesor titular de Derecho Penal y referente en justicia juvenil, protección de menores y análisis crítico del uso de tecnologías digitales en contextos judiciales y socioeducativos. La entrevista se enmarca en el Proyecto Red.es – Carta de Derechos Digitales , dentro del Ámbito 6: Derechos en los nuevos entornos digitales , y aborda uno de los terrenos más sensibles del debate actual sobre inteligencia artificial: su posible aplicación en la justicia juvenil, en los centros de menores y en los procesos de intervención, tratamiento y reinserción. A lo largo del diálogo se analizan, desde una perspectiva jurídica y práctica, cuestiones clave como: el estado actual —real y potencial— del uso de IA en justicia juvenil; las oportunidades que pueden ofrecer estas herramientas en la personalización de intervenciones socioeducativas; las líneas rojas que no deben cruzarse nunca cuando están en juego los derechos de la infancia; los riesgos de sesgos, estigmatización, automatización excesiva o falta de explicabilidad; y las garantías imprescindibles para cualquier eventual implantación: supervisión humana efectiva, evaluaciones de impacto, transparencia y control institucional. La conversación conecta estas cuestiones con el marco normativo europeo emergente, subrayando que el uso de IA en justicia juvenil exige un enfoque especialmente prudente, centrado en el interés superior del menor, el principio de mínima intervención y la finalidad última de reinserción social. Un diálogo riguroso y necesario para responsables públicos, profesionales del ámbito jurídico y socioeducativo, y para todas aquellas personas interesadas en cómo articular la innovación tecnológica sin sacrificar los derechos fundamentales de niños, niñas y adolescentes. Pere Simón Castellano
Otras páginas (23)
- Directorio y selección de recursos sobre Inteligencia artificial, empleo y grupos vulnerables
En el marco de la acción cAIre de OdiseIA (Proyecto Google Charity), presentamos la mayor recopilación de informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia sobre el impacto en el empleo, profesiones del futuro, inclusión, enseñanza, ciberseguridad o desinformación, todo con especial foco en los grupos vulnerables. Selección de recursos sobre Inteligencia artificial, empleo y grupos vulnerables En el marco de la acción cAIre de OdiseIA (Proyecto cAIre ), presentamos la mayor recopilación de informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia (puede seleccionar el “tipo de documento”). Igualmente puede elegir los subtemas de los subgrupos de investigación enfocados en una área concreta (seleccione “subgrupo”). Según los grupos el directorio se centra en impacto en el empleo, profesiones del futuro, inclusión, enseñanza, ciberseguridad o desinformación, todo con especial foco en los grupos vulnerables. El presente directorio está realizado por más de 60 miembros del equipo de dichos subgrupos. Volver a Proyecto cAIre Explorar directorio sobre "Gobernanza de la IA"
- Directorio y selección de recursos sobre Gobernanza e Inteligencia artificial
En el marco de la acción cAIre de OdiseIA (Proyecto Google Charity), presentamos la mayor recopilación de informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia Selección de recursos sobre Gobernanza e Inteligencia artificial En el marco de la acción cAIre de OdiseIA (Proyecto cAIre ), presentamos la mayor recopilación de informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia (puede seleccionar el “tipo de documento”). Igualmente puede elegir los subtemas de los subgrupos de investigación enfocados en una área concreta (seleccione “subgrupo”). El presente directorio está realizado por más de 60 miembros del equipo de dichos subgrupos. Volver a Proyecto cAIre Explorar directorio sobre "Impacto en el empleo"
- Directorio de recursos en Google Charity de OdiseIA
Directorio de recursos Inteligencia artificial sobre Gobernanza e impacto en el empleo en el marco de la acción cAIre de OdiseIA (Proyecto Google Charity) presentamos la mayor recopilación de informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia (seleccione “tipo de documento”) sobre temas de Gobernanza de la Inteligencia Artificial y el Impacto de la Inteligencia Artificial en el Empleo, así como ciberseguridad o enseñanza. Directorio de documentación en IA Directorio de recursos Inteligencia artificial sobre Gobernanza e impacto en el empleo en el marco de la acción cAIre de OdiseIA (Proyecto cAIre ) presentamos la mayor recopilación de informes, literatura especializada, sentencias, recursos web, herramientas, guías, legislación y jurisprudencia (seleccione “tipo de documento”) sobre temas de Gobernanza de la Inteligencia Artificial y el Impacto de la Inteligencia Artificial en el Empleo, así como ciberseguridad o enseñanza. El presente directorio está realizado por más de 60 miembros del equipo de dichos subgrupos. Gobernanza de la IA Documentación sobre las iniciativas de gobernanza de la IA, su impacto en procesos democráticos, iniciativas de Al for Good y la jurisprudencia asociada. Ver sección Impacto en el empleo Documentación desde múltiples perspectivas del impacto que la IA tiene y tendrá sobre el empleo como: casos de éxito, profesiones del futuro, inclusión, enseñanza y ciberseguridad Ver sección Lineas de trabajo Google










