Cuando AlphaGo Cambió Todo: Terah Lyons y la Política de IA desde Obama hasta la los LLMs
- Frank Escandell
- 10 jul
- 14 Min. de lectura
Introducción: El Momento que Definió una Era
Cuando muchos creían que, en 2004, tras la salida a mercado de Google, había empezado una nueva era, pueden haberse quedado bastante cortos. El 9 de marzo de 2016 el algoritmo AlphaGo de DeepMind derrotó al maestro de go, Lee Sedol, en Seúl. Entonces sí que el mundo presenció algo más que una victoria tecnológica.
En ese entonces, en las oficinas de la Casa Blanca, una pionera de la gobernanza de inteligencia artificial observaba cómo se desplegaba ante sus ojos el futuro de la política tecnológica. Terah Lyons, quien entonces trabajaba en la Oficina de Ciencia y Tecnología Política durante la administración Obama, recuerda vívidamente ese momento transformativo: "Todos nos miramos cuando llegamos al trabajo a la mañana siguiente y simplemente dijimos, esto realmente va a significar algo y probablemente deberíamos hacer algo al respecto".
Casi una década después, desde su posición actual como jefa de política de IA en JPMorgan Chase, Lyons ofrece una perspectiva única sobre la evolución dramática de la gobernanza de inteligencia artificial. Su trayectoria profesional —desde los pasillos del poder en Washington hasta las organizaciones sin ánimo de lucro y finalmente al sector financiero altamente regulado— refleja la metamorfosis de todo un campo disciplinario que ha pasado de la inexistencia virtual a convertirse en una de las preocupaciones centrales de la política tecnológica global.
La entrevista de Lyons durante el evento EmTech AI 2025 del MIT Technology Review, en mayo de 2025, revela cinco transformaciones fundamentales que han redefinido el panorama de la gobernanza de IA:
El surgimiento de marcos regulatorios sectoriales específicos que prometen revolucionar la supervisión tecnológica tradicional
La fragmentación regulatoria global que está creando un mosaico complejo de jurisdicciones normativas
La evolución desde principios éticos abstractos hacia implementaciones prácticas y herramientas operativas concretas
La emergencia del sector financiero como laboratorio de pruebas para la gobernanza responsable de IA a gran escala
La transición desde modelos de IA especializados hacia sistemas de lenguaje natural masivos que han redefinido las capacidades y riesgos de la tecnología.
El Génesis de la Política de IA: De AlphaGo a la Estrategia Nacional de EE.UU.
El Momento AlphaGo: Un Catalizador Inesperado
La victoria de AlphaGo sobre Lee Sedol representó mucho más que un hito técnico en el desarrollo de algoritmos de juegos. Como explica la investigación académica contemporánea, el juego del go había sido considerado durante décadas como el "santo grial de la inteligencia artificial" debido a su complejidad estratégica sin precedentes. El número de posibles configuraciones en el tablero de Go supera al número de átomos en el universo observable, lo que había mantenido a los programas de computadora en niveles de juego amateur durante años.
El impacto de este evento trascendió los círculos técnicos especializados. Según los análisis de ARK Invest, AlphaGo aceleró el cronograma de desarrollo de IA en go por más de una década, mejorando el rendimiento en más de dos órdenes de magnitud en un sólo año. Simplemente, impresionante. Esta aceleración exponencial sirvió como una señal de alerta para los formuladores de políticas sobre el potencial disruptivo de las tecnologías de aprendizaje automático.
Para Lyons y su equipo en la Casa Blanca, el momento AlphaGo cristalizó la necesidad urgente de desarrollar marcos de política proactivos. "No estábamos preparados para lo que se venía", reflexiona Lyons sobre ese período. La administración Obama respondió con una iniciativa gubernamental integral que resultaría en la primera estrategia nacional de IA de Estados Unidos y un plan estratégico de investigación y desarrollo que ha sido actualizado casi anualmente desde entonces.
La Arquitectura Inicial de la Política de IA
El trabajo pionero de la administración Obama en política de IA estableció varios precedentes fundamentales que continúan influyendo en el desarrollo de marcos regulatorios contemporáneos. El enfoque adoptado entre 2014 y 2017 se caracterizó por tres elementos clave: la coordinación entre agencias a través de un grupo de trabajo federal, el énfasis en la investigación y desarrollo públicos, y la promoción de asociaciones público-privadas.
La experiencia de Lyons coordinando estas iniciativas reveló desafíos organizacionales significativos. "Tuvimos que llamar a las agencias y rogarles básicamente que vinieran a estas conversaciones porque en ese momento no estaba claro que esto iba a ser tan impactante y no teníamos personal para gestionarlo", ella recuerda. Esta falta inicial de infraestructura institucional especializada reflejaba el estatus emergente del campo y la ausencia de precedentes administrativos claros.
El marco conceptual desarrollado durante este período anticipó muchos de los debates contemporáneos sobre gobernanza de IA. Los informes publicados por la Oficina Ejecutiva del presidente, en octubre de 2016, incluían 88 páginas y 25 recomendaciones que abordaban temas que van desde la preparación de la fuerza laboral hasta las consideraciones de seguridad nacional. Esencialmente, estos documentos establecieron el principio de regulación ligera y promoción de la innovación que continuaría caracterizando el enfoque estadounidense en las administraciones subsiguientes.
La Transición Institucional: Del Gobierno al Sector Civil
Partnership on AI: Pioneros en Autorregulación
La transición de Lyons desde el gobierno hacia el sector sin ánimo de lucro marcó una fase crítica en la evolución de la gobernanza de IA. En octubre de 2017, se convirtió en la primera directora ejecutiva fundadora de Partnership on AI, una organización que representaba un experimento sin precedentes en autorregulación industrial.
Partnership on AI fue establecida en septiembre de 2016 con miembros fundadores que incluían a Amazon, Facebook, Google, DeepMind, Microsoft e IBM. La organización emergió en un momento cuando la industria tecnológica reconocía la necesidad de marcos éticos proactivos, pero buscaba alternativas a la regulación gubernamental directa. Como observa Lyons, el lema de la organización durante ese período era "movamos este campo de principios a práctica".
La experiencia de liderar Partnership on AI proporcionó a Lyons perspectivas únicas sobre los desafíos de traducir principios éticos abstractos en herramientas operativas concretas. La organización desarrolló iniciativas que incluían el AI Incident Database, marcos para publicación responsable de investigación de IA, y directrices para diseño inclusivo. Estos proyectos representaron algunos de los primeros intentos sistémicos de crear infraestructura de gobernanza para la industria de IA.
Sin embargo, Partnership on AI también enfrentó críticas significativas sobre su efectividad. En octubre de 2020, Access Now anunció su renuncia oficial de la organización, citando un rol cada vez más reducido para la sociedad civil y la falta de influencia real sobre las prácticas corporativas de los miembros. Estas tensiones ilustraron las limitaciones inherentes de los modelos de autorregulación en un campo caracterizado por desequilibrios de poder estructurales entre actores industriales y organizaciones de la sociedad civil.
Evolución del Discurso: De Principios a Implementación
El período de Lyons en el sector sin fines de lucro coincidió con una transformación fundamental en el discurso sobre gobernanza de IA. Como ella observa, "hubo una conversación en el campo en ese momento sobre aplicar el campo de la ética aplicada a las ciencias de la computación y realmente hacer de esta una conversación multidisciplinaria en muchas otras dimensiones".
Esta evolución reflejó un reconocimiento creciente de que los principios éticos generales —aunque importantes— eran insuficientes para abordar los desafíos prácticos de implementación de sistemas de IA a gran escala. La investigación académica contemporánea comenzó a enfocarse en herramientas específicas para evaluación de sesgo, métodos de explicabilidad, y marcos de gestión de riesgos.
El trabajo de Partnership on AI durante este período contribuyó significativamente a este cambio paradigmático. La organización desarrolló metodologías para documentación de sistemas de IA, marcos para participación comunitaria, y protocolos para reporte de incidentes. Estas iniciativas establecieron precedentes importantes para el desarrollo posterior de estándares técnicos y marcos regulatorios más específicos.
La Era de los Grandes Modelos de Lenguaje: Transformación Acelerada
El Cambio Paradigmático hacia los Grandes Modelos Lingüísticos (LLM)
La trayectoria de la gobernanza de IA experimentó una aceleración dramática con la emergencia de los grandes modelos de lenguaje (LLMs) a partir de 2020. Como documenta la investigación académica, este período se caracterizó por una transición desde sistemas de IA especializados hacia modelos de propósito general capaces de realizar múltiples tareas cognitivas.
El desarrollo de GPT-3 en 2020, seguido por ChatGPT en noviembre de 2022, marcó un punto de inflexión fundamental. Estos sistemas demostraron capacidades emergentes que no habían sido explícitamente programadas, incluyendo razonamiento contextual, generación creativa, y traducción entre dominios de conocimiento. La adopción masiva de ChatGPT —que alcanzó 100 millones de usuarios en sólo dos meses— señaló una nueva fase en la democratización del acceso a tecnologías de IA avanzadas.
Para Lyons, observando desde su posición en JPMorgan Chase, esta transformación representó tanto oportunidades como desafíos fundamentalmente nuevos. "La IA que usamos hoy será irreconocible dentro de 10 años. Y 10 años no es tanto tiempo en el lapso del desarrollo de políticas". Esta observación captura una tensión central en la gobernanza contemporánea de IA: la necesidad de desarrollar marcos regulatorios que puedan adaptarse a la velocidad exponencial del cambio tecnológico.
Impacto en Servicios Financieros
El sector de servicios financieros emergió como un caso de estudio particularmente relevante para la implementación de LLMs a gran escala. Como documenta la investigación reciente, las instituciones financieras han adoptado IA generativa para automatizar procesamiento de documentos, mejorar detección de fraudes, personalizar asesoría financiera, y optimizar operaciones de atención al cliente.
JPMorgan Chase, bajo el liderazgo de Lyons, ha sido pionero en varios aspectos de esta implementación. La institución ha invertido significativamente en marcos de gobernanza de IA, incluyendo una inversión de $10 millones en FairPlay AI, una empresa especializada en equidad algorítmica. Esta inversión refleja un reconocimiento creciente de que la implementación responsable de IA requiere herramientas especializadas para identificar y mitigar sesgos algorítmicos.
La experiencia del sector financiero con LLMs también ha revelado nuevos tipos de riesgos. Como observa Lyons, "estamos viendo muchas actualizaciones de productos impulsadas a un ritmo muy rápido ahora porque las empresas están tratando de mantenerse al día con los competidores en un mercado cada vez más saturado que no puede venir a expensas de la seguridad y solidez". Esta tensión entre velocidad de innovación y gestión de riesgos representa uno de los desafíos centrales en la gobernanza contemporánea de IA.
Fragmentación Regulatoria Global: El Desafío de la Coordinación
El Mosaico Regulatorio Emergente
Una de las transformaciones más significativas en la gobernanza de IA durante la última década ha sido la proliferación de marcos regulatorios jurisdiccionales diversos y frecuentemente incompatibles. Como documenta Lyons, "hay mucha fragmentación ocurriendo y honestamente no son buenas noticias para la agenda de movilización de IA".
La Unión Europea lideró esta tendencia con el AI Act, que entró en vigor el 1 de agosto de 2024. Esta legislación establece un marco basado en riesgos que categoriza sistemas de IA según su potencial impacto en derechos fundamentales y seguridad ciudadana. Con multas máximas de hasta €35 millones o 7% del volumen de negocios anual mundial, la Ley de IA de la Unión Europea representa el intento más ambicioso hasta la fecha de regular comprehensivamente las tecnologías de IA.
Corea del Sur siguió con su AI Basic Act, aprobada el 21 de enero de 2025, convirtiéndose en el segundo país en establecer un marco legal comprensivo para IA. La legislación coreana adopta un enfoque similar al europeo, con clasificación basada en riesgos y requisitos específicos para sistemas de IA de alto impacto. Significativamente, la ley incluye disposiciones para representantes domésticos de organizaciones extranjeras, extendiendo su alcance más allá de las fronteras nacionales.
Desafíos para Organizaciones Multinacionales
La fragmentación regulatoria presenta desafíos operacionales complejos para organizaciones multinacionales como JPMorgan Chase. Como explica Lyons, "operamos en 100 países globalmente. Tenemos un gran negocio en Europa y Asia y muchos otros lugares. Y tenemos que mantener nuestra atención en todo ahora mismo porque hay una actividad creciente prácticamente en todo el panorama".
Estos desafíos se extienden más allá de la mera conformidad técnica. La variación en definiciones básicas, procedimientos de evaluación, y requisitos de reporte crea cargas administrativas significativas y puede inhibir la innovación. Como observa Lyons, esta fragmentación "hace que la carga de cumplimiento en las organizaciones sea extraordinariamente alta. Excluye del mercado a las empresas emergentes. Simplemente no pueden mantenerse al día con asegurar que puedan adherirse a esos requisitos".
La experiencia del sector financiero sugiere que la coordinación internacional efectiva requiere más que convergencia técnica. Como nota Lyons, "tenemos reguladores bancarios regionales muy grandes, pero coordinan muy estrechamente entre ellos. Tenemos un paradigma global para cómo articulamos la supervisión de servicios financieros y qué objetivos todos globalmente queremos dirigir con respecto a la forma en que el dinero se mueve alrededor del mundo". Esta infraestructura de coordinación establecida contrasta marcadamente con la fragmentación actual en gobernanza de IA.
Hacia la Regulación Sectorial: Lecciones del Sector Financiero
El Modelo de Regulación Sectorial
Una de las contribuciones más significativas de la perspectiva de Lyons al debate sobre gobernanza de IA es su defensa del enfoque de regulación sectorial específica. Basándose en su experiencia en el sector financiero altamente regulado, argumenta que "el enfoque específico por sector es el más efectivo".
Esta perspectiva se fundamenta en varias consideraciones prácticas. Primero, la velocidad del cambio tecnológico hace impracticable el desarrollo de marcos regulatorios tecnológicamente específicos. Como observa Lyons, "es muy difícil crear estos regímenes regulatorios laterales que abarquen toda la economía y se fundamenten en un enfoque en una tecnología específica. Porque la tecnología en sí misma va a moverse tan rápidamente que no lo hará, el IA que usamos hoy será irreconocible dentro de 10 años".
Segundo, los riesgos y casos de uso de IA varían significativamente entre sectores, requiriendo marcos de supervisión especializados. El uso de IA en servicios financieros para evaluación crediticia presenta riesgos y consideraciones fundamentalmente diferentes a su aplicación en diagnóstico médico o vehículos autónomos. Esta variabilidad sectorial sugiere que la regulación horizontal uniforme puede ser tanto ineficaz como contraproducente.
Infraestructura de Gobernanza en Servicios Financieros
El sector de servicios financieros ofrece un modelo instructivo para la implementación de gobernanza de IA a gran escala. Como documenta la investigación del Bank for International Settlements, las instituciones financieras han desarrollado marcos sofisticados para gestión de riesgos algorítmicos que integran consideraciones de equidad, explicabilidad, y robustez.
La experiencia de JPMorgan Chase ilustra varios componentes clave de esta infraestructura de gobernanza. La institución ha establecido marcos de gestión de riesgos que incluyen pruebas regulares de sesgo, documentación comprensiva de modelos, y supervisión humana de decisiones automatizadas. Estos sistemas han demostrado la viabilidad de implementar IA responsablemente en entornos de alto riesgo mientras se mantiene la eficiencia operacional.
El enfoque sectorial también facilita la coordinación entre reguladores y la industria. Como observa Lyons, "hemos estado trabajando mano a mano con nuestros reguladores mientras hemos estado en el viaje de transformación de IA". Esta colaboración cercana permite el desarrollo de marcos regulatorios que son tanto técnicamente informados como prácticamente implementables.
Casos de Estudio en Legislación Sectorial
Varias jurisdicciones han comenzado a implementar marcos regulatorios sectoriales específicos que proporcionan precedentes importantes para desarrollos futuros. La ley SB21-169 en el Estado de Colorado, efectiva desde enero de 2023, representa uno de los primeros ejemplos de regulación específica de IA en seguros.
La legislación de Colorado requiere que las aseguradoras implementen programas de gobernanza comprensivos para el uso de fuentes de datos de consumidores externos y algoritmos predictivos. Las empresas deben realizar pruebas cuantitativas para detectar discriminación injusta y tomar medidas correctivas cuando se identifiquen daño. El proceso de implementación gradual —comenzando con seguros de vida, seguido por automóviles y salud— ilustra los desafíos prácticos de desarrollar marcos regulatorios sectoriales específicos.
El Futuro de la Gobernanza de IA: Tendencias Emergentes
Estándares Técnicos y Marcos de Implementación
El desarrollo de estándares técnicos emergentes representa una dimensión crítica en la evolución de la gobernanza de IA. El NIST AI Risk Management Framework (AI RMF), publicado en enero de 2023, proporciona un marco voluntario para incorporar consideraciones de confiabilidad en el diseño, desarrollo, uso, y evaluación de sistemas de IA.
El AI RMF adopta un enfoque basado en funciones que incluye cuatro componentes principales: Gobernar, Mapear, Medir, y Gestionar. Este marco está diseñado para ser adaptable a contextos sectoriales específicos a través del desarrollo de "perfiles" que implementan las categorías y subcategorías del marco para aplicaciones específicas. Como observa Lyons, "ha habido cierta discusión sobre adaptar el Marco de Gestión de Riesgos NIST para IA en perfiles específicos por sector que apoyen el pensamiento sobre gestión de riesgos de estas maneras más especificadas".
El desarrollo de estándares técnicos también enfrenta desafíos significativos relacionados con la velocidad del cambio tecnológico y la diversidad de stakeholders. Como nota la investigación académica sobre implementación de la Ley Europea de IA de la UE, "sin métodos robustos para evaluar sistemas de IA y su efecto en individuos y sociedad, el AI Act de la UE puede llevar a repetir los errores del Reglamento General de Protección de Datos de la UE y a una implementación apresurada, caótica, ad hoc y ambigua".
Desafíos en Certificación y Auditoría
La implementación práctica de marcos de gobernanza de IA requiere infraestructura para certificación, auditoría, y cumplimiento. Como observa Lyons, "si vamos a tener un requisito de certificación que emerja, independientemente de si es agnóstico por sector o más específico que eso, realmente necesita haber una infraestructura alrededor de eso que lo apoye capazmente".
Esta infraestructura debe incluir varios componentes: terceras partes especializadas en pruebas de modelos, funciones de auditoría independientes, y marcos de cualificación para profesionales. El desarrollo de estas capacidades requiere coordinación entre múltiples stakeholders, incluyendo instituciones académicas, organizaciones de estándares, y entidades regulatorias.
La experiencia internacional sugiere que el desarrollo de infraestructura de certificación puede ser particularmente desafiante para tecnologías emergentes. Como documenta la investigación sobre implementación de la ley alemana al respecto, "la incorporación de controles ISMS existentes con extensiones específicas de IA presenta una estrategia efectiva para cumplir con el Artículo 15 del AIA". Este enfoque de construcción sobre marcos existentes puede ofrecer un camino más pragmático hacia la implementación efectiva.
Conclusiones: Navegando la Complejidad de la Gobernanza de IA
Lecciones Aprendidas de Quince Años de Evolución
La trayectoria de Terah Lyons desde la Casa Blanca hasta JPMorgan Chase ofrece perspectivas únicas sobre la evolución de la gobernanza de IA durante sus primeros quince años de existencia como campo disciplinario. Su experiencia ilustra varias lecciones fundamentales sobre los desafíos y oportunidades en el desarrollo de marcos de supervisión efectivos para tecnologías emergentes.
Primero, la importancia de la adaptabilidad institucional. Como demuestra la experiencia durante la administración Obama, los marcos de política iniciales deben ser suficientemente flexibles para evolucionar con el cambio tecnológico acelerado. La velocidad de transformación desde AlphaGo hasta los LLMs contemporáneos subraya la necesidad de enfoques regulatorios que puedan adaptarse dinámicamente a nuevas capacidades y riesgos emergentes.
Segundo, el valor de la coordinación multisectorial. La experiencia de Partnership on AI demostró tanto el potencial como las limitaciones de los modelos de autorregulación. Si bien estos enfoques pueden facilitar el desarrollo rápido de mejores prácticas, también requieren mecanismos de rendición de cuentas robustos para asegurar implementación efectiva y representación equitativa de intereses diversos.
Tercero, la centralidad de la implementación práctica. Como observa Lyons, el campo ha evolucionado "de principios a práctica" durante la última década. Esta transición refleja un reconocimiento maduro de que los marcos éticos abstractos deben ser complementados con herramientas operativas específicas, métricas de evaluación, y procedimientos de cumplimiento.
Implicaciones para el Desarrollo Futuro de Políticas
Llegada esta etapa durante la entrevista a Lyons en el EmTech AI 2025, su perspectiva sobre regulación sectorial específica tiene implicaciones significativas para el desarrollo futuro de marcos de gobernanza de IA. Su experiencia en el sector financiero sugiere que los enfoques especializados pueden ser más efectivos que los marcos horizontales uniformes para abordar los riesgos específicos del contexto y las consideraciones de implementación.
Esta perspectiva sectorial no implica fragmentación regulatoria total. Como demuestra la coordinación internacional en regulación financiera, es posible desarrollar marcos sectoriales que mantienen coherencia global mientras se adaptan a contextos nacionales y aplicaciones específicas. El desafío es desarrollar mecanismos de coordinación similares para la gobernanza de IA que puedan equilibrar la especialización sectorial con la coherencia sistémica.
La experiencia con LLMs también subraya la necesidad de marcos regulatorios que puedan abordar sistemas de IA de propósito general. A diferencia de aplicaciones especializadas anteriores, los LLMs contemporáneos pueden ser adaptados para múltiples casos de uso a través de diferentes sectores. Esta versatilidad requiere nuevos enfoques para evaluación de riesgos y supervisión que puedan abordar tanto las capacidades del modelo base como las implementaciones específicas de aplicación.
El Arduo Camino Hacia Adelante
Mientras el campo de la gobernanza de IA continúa evolucionando, la experiencia de Lyons ofrece varias recomendaciones para stakeholders diversos. Para formuladores de políticas, enfatiza la importancia de participación proactiva con la industria y la necesidad de marcos adaptativos que puedan evolucionar con el cambio tecnológico. Para organizaciones de la industria, subraya el valor de invertir en infraestructura de gobernanza robusta y mantener colaboración cercana con reguladores.
Para la comunidad académica y de investigación, su perspectiva destaca la necesidad continua de investigación interdisciplinaria que pueda informar el desarrollo de estándares técnicos y mejores prácticas. Como observa, "sin ustedes pesando, los formuladores de políticas no van a saber qué brechas llenar. No van a saber qué falta de orientación abordar".
Finalmente, la trayectoria de Lyons ilustra la importancia de perspectivas a largo plazo en la gobernanza de tecnologías emergentes. Desde el momento AlphaGo en 2016 hasta la era contemporánea de LLMs, el campo ha demostrado una capacidad notable para adaptarse y evolucionar. Mientras enfrentamos nuevos desafíos relacionados con sistemas de IA cada vez más capaces, las lecciones aprendidas durante estos años formativos proporcionan una base valiosa para navegar la complejidad continua de la gobernanza de IA responsable.
La transformación que comenzó con una victoria en un juego de mesa en Seúl ha evolucionado hacia uno de los desafíos de política más complejos de nuestro tiempo. La experiencia de Terah Lyons nos recuerda que, mientras la tecnología puede cambiar exponencialmente, los principios fundamentales de gobernanza responsable —transparencia, rendición de cuentas, participación multisectorial, y adaptabilidad— permanecen constantes como guías esenciales para navegar el futuro de la inteligencia artificial.
Comentarios