La gobernanza imposible: utopías y límites de un marco ético-jurídico global para la inteligencia artificial

ChatGPT Image 3 sept 2025, 18_17_13

La gobernanza imposible: utopías y límites de un marco ético-jurídico global para la inteligencia artificial

Por Andrea Rivera, Periodista Especializada en Inteligencia Artificial y Ética Tecnológica, para Mundo IA

 

Gobernar lo ingobernable

Este ensayo examina críticamente la búsqueda de un marco de gobernanza global para la inteligencia artificial (IA), un esfuerzo que se presenta como una «gobernanza imposible» debido a la tensión inherente entre la aspiración utópica de un orden regulatorio universal y los límites estructurales impuestos por la realidad geopolítica y económica. Se analiza la construcción de un consenso ético inicial a través de iniciativas multilaterales como las de la OCDE y la UNESCO, así como el intento de la Unión Europea de exportar su modelo normativo mediante el «Efecto Bruselas». Sin embargo, esta visión idealista se enfrenta a barreras significativas. El análisis profundiza en los límites geopolíticos, marcados por la competición estratégica entre Estados Unidos y China, el resurgimiento del nacionalismo digital y la consecuente fragmentación regulatoria. Asimismo, se exploran los intereses en pugna entre Estados, corporaciones tecnológicas transnacionales y la defensa de los derechos universales, destacando la brecha entre los principios declarativos y su implementación jurídica vinculante. Finalmente, se plantean los escenarios futuros, que oscilan entre la consolidación de «tecno-bloques» con estándares competitivos y la posibilidad de una cooperación selectiva en áreas críticas. El ensayo concluye que, si bien una gobernanza global unificada y vinculante para la IA puede ser una ideal inalcanzable, el diálogo continuo y la búsqueda de consensos mínimos son indispensables para mitigar los riesgos existenciales y orientar el desarrollo tecnológico hacia un futuro más equitativo y seguro.

Mirada preliminar

La inteligencia artificial (IA) se ha consolidado como una de las fuerzas tecnológicas más transformadoras del siglo XXI. Su capacidad para procesar ingentes volúmenes de datos, identificar patrones y automatizar tareas cognitivas complejas promete revolucionar desde la medicina y la ciencia hasta la economía y la vida cotidiana. Sin embargo, esta promesa de progreso discurre en paralelo a una serie de riesgos profundos que abarcan desde la perpetuación de sesgos discriminatorios y la erosión de la privacidad hasta la desestabilización del mercado laboral y el desarrollo de sistemas de armamento autónomo. La naturaleza dual de la IA, como herramienta de inmenso potencial benéfico y a la vez de considerable peligro, plantea uno de los desafíos de gobernanza más complejos de nuestra era.

A diferencia de tecnologías anteriores, la IA posee una cualidad intrínsecamente transfronteriza. Los algoritmos, los datos y el talento no respetan las fronteras nacionales, y las decisiones de diseño tomadas en un rincón del planeta pueden tener consecuencias globales inmediatas. Esta realidad ha generado un amplio consenso sobre la necesidad de establecer algún tipo de marco de gobernanza global que permita alinear el desarrollo tecnológico con valores humanos fundamentales, garantizar la seguridad y promover una distribución equitativa de sus beneficios. No obstante, esta ambición choca frontalmente con un orden mundial caracterizado por la fragmentación, la competición geopolítica y la reafirmación de la soberanía nacional.

Este ensayo se adentra en esta paradoja, a la que denominamos la «gobernanza imposible». Se argumenta que la tentativa de construir un marco ético-jurídico global para la IA es una fantasía normativa, no porque sea indeseable, sino porque las estructuras del sistema internacional contemporáneo imponen límites casi insuperables a su plena realización. Se examinarán críticamente los esfuerzos multilaterales por establecer principios universales, liderados por organizaciones como la OCDE y la UNESCO, y se analizará el modelo regulatorio de la Unión Europea como un intento de fijar un estándar global. A continuación, el análisis se centrará en las fuerzas centrífugas que socavan esta quimera regulatoria: la rivalidad estratégica entre Estados Unidos y China, que fomenta la balcanización tecnológica; el auge del «nacionalismo de la IA», que prioriza la ventaja competitiva sobre la cooperación; y la tensión irresoluble entre los intereses de los Estados, el poder de las corporaciones tecnológicas y la defensa de los derechos universales.

Al explorar estos elementos, el ensayo sostiene que, si bien un régimen de gobernanza global, cohesivo y jurídicamente vinculante para toda la IA parece inalcanzable, el propio proceso de diálogo, negociación y búsqueda de consensos es fundamental. En lugar de una arquitectura única y omnicomprensiva, el futuro de la gobernanza de la IA se perfila como un mosaico de regulaciones fragmentadas, acuerdos de cooperación selectiva y conflictos normativos persistentes. Comprender la naturaleza «imposible» de esta gobernanza no es una invitación al cinismo o la inacción, sino un llamado a un enfoque más pragmático y realista, centrado en la mitigación de los riesgos más graves y en la construcción de puentes de diálogo en un terreno inherentemente conflictivo.

La Utopía de una Regulación Global: Principios y Actores Multilaterales

Frente a la velocidad disruptiva del desarrollo de la inteligencia artificial, ha surgido un contramovimiento global que persigue un ideal casi irrealizable: la creación de un marco normativo universal que garantice que esta tecnología se desarrolle y despliegue de manera ética, segura y alineada con los derechos humanos. Esta aspiración no es meramente teórica, sino que se ha materializado en un denso ecosistema de iniciativas, principios y debates liderados por organizaciones internacionales y actores estatales con vocación normativa. Este capítulo explora la construcción de este sueño regulatorio, analizando los fundamentos éticos comunes que se han logrado establecer, el papel de actores clave como la Unión Europea en su intento de proyectar un modelo legal, y la función de los foros multilaterales como catalizadores de un consenso global. Aunque estos esfuerzos se enfrentan a enormes desafíos, constituyen la base indispensable sobre la cual se articula todo el debate sobre la gobernanza de la IA.

Los fundamentos éticos comunes: Iniciativas de la OCDE y la UNESCO

En la búsqueda de una gobernanza global para la IA, el primer paso fundamental ha sido la articulación de un conjunto de principios éticos compartidos que puedan servir como lenguaje común para una comunidad internacional diversa. Dos organizaciones han destacado en esta labor pionera: la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). Sus trabajos han sentado las bases conceptuales sobre las que se construyen los marcos regulatorios y las políticas públicas en todo el mundo.

La OCDE, un foro de países con economías de mercado, fue una de las primeras en actuar. En mayo de 2019, sus países miembros adoptaron los Principios de la OCDE sobre Inteligencia Artificial, que se convirtieron rápidamente en un punto de referencia global. Estos principios se articulan en torno a cinco valores fundamentales para un desarrollo de la IA fiable y centrado en el ser humano: crecimiento inclusivo, desarrollo sostenible y bienestar; valores centrados en el ser humano y equidad; transparencia y explicabilidad; robustez, seguridad y protección; y rendición de cuentas. Un aspecto clave de su éxito fue su enfoque pragmático y su rápida adopción por parte del G20, lo que les confirió un peso político significativo y amplió su alcance más allá de los miembros de la OCDE. Los principios no solo establecen ideales éticos, sino que también ofrecen recomendaciones de política a los gobiernos, abarcando desde la inversión en investigación y desarrollo hasta la creación de un entorno propicio para un ecosistema de IA fiable.

Poco después, la UNESCO elevó el debate a un plano aún más universal con la adopción, en noviembre de 2021, de la Recomendación sobre la Ética de la Inteligencia Artificial. Este documento es el primer instrumento normativo global en este campo y fue aprobado por la totalidad de sus 193 Estados miembros, lo que le otorga una legitimidad sin precedentes. La Recomendación de la UNESCO va más allá de los principios de la OCDE al anclar de manera explícita la gobernanza de la IA en el marco de los derechos humanos y la dignidad humana. Su enfoque es holístico, cubriendo no solo los valores y principios, sino también áreas de acción política concretas como la gobernanza y la administración de los datos, la igualdad de género, y la protección del medio ambiente y los ecosistemas. Al proponer un marco ético de alcance verdaderamente global, la UNESCO busca garantizar que los beneficios de la IA sean compartidos por todos y que la tecnología no exacerbe las brechas existentes.

El valor de estas iniciativas reside en su capacidad para haber creado un consenso transnacional sobre los pilares éticos de la IA. Términos como «transparencia», «equidad», «rendición de cuentas» y «supervisión humana» se han convertido en el léxico estándar del debate global. Sin embargo, su principal fortaleza es también su principal debilidad: su carácter declarativo y no vinculante. Son marcos de «soft law» que dependen de la voluntad política de los Estados y las empresas para su implementación. Los críticos señalan que, si bien estos principios son loables, a menudo carecen de la especificidad y los mecanismos de aplicación necesarios para abordar los desafíos más espinosos, como la polarización global en torno a la IA o la conversión de la ética en regulación concreta. Además, algunos análisis sugieren que el enfoque predominante en la ética puede desviar la atención de la necesidad de desarrollar marcos jurídicos y principios de gobernanza más robustos y aplicables.

El modelo normativo de la Unión Europea y su aspiración global: El «Efecto Bruselas»

Mientras organizaciones como la OCDE y la UNESCO se centraban en forjar un consenso ético global, la Unión Europea (UE) ha adoptado un rol diferente y más ambicioso: el de legislador global. A través de su estrategia regulatoria, la UE no solo busca ordenar su mercado interior, sino también establecer el estándar de oro para la gobernanza de la IA a nivel mundial, un fenómeno conocido como el «Efecto Bruselas». Esta estrategia se basa en la premisa de que, debido al tamaño y la importancia económica de su mercado único, las empresas de todo el mundo preferirán adherirse a las estrictas normas europeas antes que renunciar a acceder a sus más de 450 millones de consumidores.

El instrumento central de esta estrategia es el Reglamento de Inteligencia Artificial (AI Act), la primera propuesta legislativa horizontal y completa del mundo para regular la IA. En lugar de un enfoque único, la AI Act propone una metodología basada en el riesgo, que clasifica los sistemas de IA en cuatro categorías. En la cima se encuentran los sistemas de «riesgo inaceptable», como aquellos que permiten la puntuación social por parte de los gobiernos o la manipulación subliminal, los cuales quedan prohibidos. A continuación, se sitúan los sistemas de «alto riesgo», como los utilizados en infraestructuras críticas, selección de personal, diagnóstico médico o aplicación de la ley. Estos sistemas no están prohibidos, pero están sujetos a estrictos requisitos de conformidad antes de poder comercializarse, incluyendo la calidad de los datos, la transparencia, la supervisión humana y la ciberseguridad. Las categorías inferiores, de «riesgo limitado» (como los chatbots) y «riesgo mínimo», enfrentan obligaciones mucho más ligeras, principalmente de transparencia.

Este enfoque busca equilibrar la protección de los derechos fundamentales y la seguridad con la necesidad de fomentar la innovación. La UE pretende que su marco no sea visto simplemente como una carga burocrática, sino como un sello de calidad y fiabilidad que genere confianza en la tecnología. Al hacerlo, intenta codificar en legislación vinculante muchos de los principios éticos abstractos discutidos en foros internacionales. Conceptos como la rendición de cuentas y la transparencia dejan de ser meras aspiraciones para convertirse en obligaciones legales con consecuencias tangibles en caso de incumplimiento. La gobernanza de la IA, desde la perspectiva de la UE, no es solo una operación técnico-normativa, sino un proyecto político fundamental para definir el tipo de sociedad digital que se desea construir.

La aspiración de la UE a ejercer un «Efecto Bruselas» en la IA es una manifestación de su identidad como «potencia normativa». Sin embargo, este enfoque no está exento de críticas y desafíos. Por un lado, competidores como Estados Unidos y China pueden percibir la regulación europea como un obstáculo a la innovación que busca compensar la falta de gigantes tecnológicos europeos. Por otro lado, la complejidad y el rigor del Reglamento de IA podrían generar altos costes de cumplimiento que perjudiquen a las pequeñas y medianas empresas. El éxito de esta utopía normativa europea dependerá de su capacidad para demostrar que su modelo no solo es ético, sino también competitivo y viable en un mercado tecnológico global que avanza a una velocidad vertiginosa.

El rol de la ONU y otros foros multilaterales en la búsqueda de consensos

Más allá de los esfuerzos normativos de la OCDE, la UNESCO y la UE, la búsqueda de una gobernanza global para la IA se nutre de un ecosistema más amplio de foros multilaterales, con la Organización de las Naciones Unidas (ONU) en su epicentro. El sistema de la ONU ofrece una plataforma única por su universalidad y legitimidad, permitiendo que el debate sobre la IA trascienda los clubes de países desarrollados e incluya las voces del Sur Global. La implicación de la ONU ha elevado la gobernanza de la IA al más alto nivel de la agenda internacional, reconociéndola no solo como un asunto técnico, sino como una cuestión fundamental para la paz, la seguridad y el desarrollo sostenible.

Un hito reciente fue la adopción por consenso de la primera resolución de la Asamblea General de la ONU sobre la IA en marzo de 2024, que insta a los Estados a promover sistemas de IA «seguros, protegidos y fiables» que respeten los derechos humanos. Aunque no es vinculante, la resolución representa una poderosa señal de unidad política y establece una base común de principios. Además, el Secretario General de la ONU ha establecido un Órgano Asesor de Alto Nivel sobre Inteligencia Artificial, compuesto por expertos de diversos campos y geografías. Este órgano tiene el mandato de analizar y ofrecer recomendaciones sobre la gobernanza internacional de la IA, buscando construir una convergencia científica y un consenso global sobre riesgos y desafíos. Estas iniciativas de la ONU son cruciales para democratizar el debate y asegurar que la gobernanza de la IA no sea dictada únicamente por las potencias tecnológicas.

Junto a la ONU, otros foros multilaterales y plurilaterales desempeñan roles complementarios. El G7 y el G20, que agrupan a las principales economías del mundo, han incorporado la IA de forma permanente en sus agendas. A menudo, actúan como plataformas para reforzar y dar impulso político a los trabajos técnicos realizados en la OCDE, como ocurrió con la adopción de los Principios de IA del G20, que se basaron directamente en los de la OCDE. Foros regionales como el Consejo de Europa también están trabajando en sus propios instrumentos jurídicos, como una convención sobre IA, derechos humanos, democracia y Estado de derecho, que busca complementar el enfoque basado en el mercado de la UE con un tratado internacional centrado exclusivamente en los derechos fundamentales.

En conjunto, esta constelación de actores multilaterales teje una red densa y, a veces, superpuesta, de diálogo y construcción de normas. Representan la maquinaria institucional del horizonte inalcanzable de gobernanza, trabajando para crear un marco de referencia global a través de la persuasión, la legitimación y la creación de un entendimiento compartido. Sin embargo, este proceso de búsqueda de consensos es lento, deliberativo y a menudo genera resultados de mínimo común denominador. La eficacia de estos foros se ve constantemente desafiada por las fuerzas de la fragmentación, principalmente las tensiones geopolíticas y los intereses nacionales divergentes, que amenazan con desmantelar el frágil consenso que con tanto esfuerzo se ha construido. Esta tensión entre la aspiración cooperativa multilateral y las realidades del poder en un mundo fragmentado constituye el núcleo del dilema de la «gobernanza imposible» de la IA.

Los Límites Geopolíticos: Soberanía Nacional y Fragmentación Regulatoria

Frente a las aspiraciones de una gobernanza global concertada, articuladas en torno a principios éticos universales, se erigen las realidades ineludibles de la geopolítica. La arquitectura del sistema internacional, fundamentada en el principio de soberanía estatal, y la creciente competición por la hegemonía tecnológica, imponen límites estructurales que socavan la viabilidad de un marco regulatorio unificado para la inteligencia artificial (IA). Lejos de converger hacia un consenso, el panorama global se caracteriza por una creciente fragmentación, impulsada por la primacía de los intereses nacionales, la seguridad y la competencia económica. Este capítulo analiza cómo la rivalidad estratégica, el resurgimiento del nacionalismo digital y la divergencia de modelos regulatorios constituyen las principales barreras para el sueño jurídico de una gobernanza global, configurando un escenario de competencia normativa en lugar de cooperación universal.

La competición estratégica EE.UU.-China como eje de la fragmentación tecnológica

El principal motor de la fragmentación en la gobernanza de la IA es la intensificación de la competencia estratégica entre Estados Unidos y la República Popular China. Esta rivalidad ha trascendido la esfera puramente económica para convertirse en una contienda por la supremacía tecnológica y la influencia geopolítica en el siglo XXI. Dentro de este marco, la IA no es percibida meramente como una tecnología transformadora, sino como un activo estratégico fundamental, un pilar del poder nacional y una herramienta decisiva para obtener ventajas militares y económicas. Esta percepción ha desencadenado una dinámica que muchos analistas no dudan en calificar de «carrera armamentística» por la IA, donde la colaboración es vista con recelo y la competencia se convierte en la norma.

La pugna entre Washington y Pekín ha cristalizado en la formulación de narrativas contrapuestas sobre la soberanía tecnológica y el papel que la IA debe desempeñar en la sociedad. Por un lado, Estados Unidos y sus aliados promueven un discurso centrado en la innovación abierta, los valores democráticos y el liderazgo del sector privado, abogando por marcos de gobernanza que no sofoquen el desarrollo tecnológico. Por otro lado, China articula una visión en la que el Estado juega un papel central, enfatizando la soberanía tecnológica, la seguridad nacional y el control social como prioridades. Su enfoque subraya la necesidad de que el país alcance la autonomía en tecnologías críticas para asegurar su desarrollo y estabilidad.

Esta bifurcación ideológica y estratégica tiene consecuencias directas sobre cualquier intento de gobernanza global. En lugar de buscar estándares comunes, ambas potencias tienden a promover sus propios modelos y ecosistemas tecnológicos, generando una profunda fractura en el panorama internacional. La competencia no se limita al desarrollo de algoritmos, sino que se extiende al control de las infraestructuras críticas, las cadenas de suministro de semiconductores, la acumulación masiva de datos y la definición de los estándares técnicos que regirán el futuro. Este conflicto estructural amenaza con dividir el mundo digital en esferas de influencia incompatibles, un fenómeno que puede conducir a la fragmentación del paisaje tecnológico global. Las tensiones geopolíticas específicas que surgen en la era digital, con la IA en su centro, condicionan de manera decisiva el modo en que los gobiernos abordan la regulación, priorizando la seguridad y la competitividad sobre los ideales de cooperación multilateral.

El resurgimiento del nacionalismo digital y la defensa de la soberanía de los datos

La rivalidad estratégica entre las grandes potencias actúa como catalizador de una tendencia más amplia y global: el resurgimiento del «nacionalismo de la IA» o «nacionalismo digital». Este fenómeno se manifiesta en un esfuerzo concertado por parte de los Estados-nación para reafirmar su soberanía en el ciberespacio, un dominio que por su naturaleza transfronteriza desafía las concepciones tradicionales del control territorial. En el contexto de la IA, este impulso nacionalista se traduce en políticas diseñadas para proteger y fomentar las capacidades tecnológicas domésticas, controlar los flujos de datos y asegurar que el desarrollo y despliegue de la IA sirvan primordialmente a los intereses nacionales. La consecuencia inevitable de esta priorización es la fragmentación de los marcos regulatorios a nivel mundial.

El concepto de soberanía digital se ha convertido en la piedra angular de esta nueva forma de nacionalismo. Los Estados perciben cada vez más los datos no solo como un recurso económico, sino como un activo estratégico cuya protección es vital para la seguridad nacional. Por ello, proliferan las políticas de localización de datos, que exigen que la información generada dentro de un país sea almacenada y procesada en servidores ubicados dentro de sus fronteras. Si bien se justifican en términos de privacidad y seguridad para los ciudadanos, estas medidas también actúan como barreras proteccionistas que dificultan la operación de empresas tecnológicas globales y limitan el desarrollo de sistemas de IA que dependen de conjuntos de datos transnacionales. Este enfoque nacionalista ha sido observado no solo en potencias como China y Rusia, donde el «ciber-nacionalismo» está explícitamente vinculado a la ideología estatal, sino también en otras regiones que buscan proteger su autonomía digital frente a la dominación de actores extranjeros.

Este resurgimiento del nacionalismo pone en tela de juicio la propia viabilidad de una gobernanza global basada en principios universales. La naturaleza intrínsecamente fragmentada de este enfoque choca frontalmente con la aspiración de crear normas comunes para sistemas de IA que, por definición, operan más allá de las fronteras nacionales. Mientras la lógica de la soberanía digital priorice el control nacional sobre la interoperabilidad global, cualquier intento de convergencia regulatoria se verá severamente limitado. Fenómenos similares de nacionalismo que restringen la convergencia se han documentado en otros sectores tecnológicos, como el de las finanzas digitales (Fintech), lo que sugiere una tendencia estructural en la gobernanza de la tecnología digital. En última instancia, el nacionalismo digital transforma la gobernanza de la IA de un ejercicio de cooperación multilateral a un campo de batalla donde los Estados compiten por el control de los recursos digitales y la capacidad de imponer sus propias reglas.

El «Tecnofederalismo» y la divergencia de enfoques regulatorios

La fragmentación geopolítica no solo se manifiesta en la división entre naciones, sino que se ve agravada por la complejidad y divergencia de los modelos regulatorios que emergen a nivel global e incluso subnacional. Un concepto útil para comprender esta dinámica, particularmente en el caso estadounidense, es el de «Tecnofederalismo». Este término describe cómo la autoridad regulatoria sobre la tecnología se encuentra dispersa entre diferentes niveles de gobierno —federal, estatal y local—, creando un mosaico de normativas a menudo inconsistente dentro de un mismo país. En Estados Unidos, por ejemplo, mientras el gobierno federal ha adoptado una postura cautelosa para no reprimir la innovación, varios estados han tomado la iniciativa en la regulación de la IA, generando un panorama jurídico interno complejo y fragmentado. Esta fragmentación interna dificulta la capacidad de una nación para proyectar un modelo regulatorio coherente y unificado en el escenario internacional.

Esta dinámica de fragmentación interna y externa consolida la formación de «tecno-bloques» regulatorios con filosofías y objetivos marcadamente distintos. El primer bloque es la Unión Europea, que aspira a ser una «potencia normativa» global a través del llamado «Efecto Bruselas». Con normativas como el Reglamento General de Protección de Datos (GDPR) y su propuesta de Ley de Inteligencia Artificial, la UE promueve un modelo centrado en los derechos fundamentales, la ética y la evaluación de riesgos, buscando establecer un estándar de facto que las empresas de todo el mundo deban adoptar para acceder a su mercado.

En claro contraste se encuentra el modelo estadounidense, caracterizado por el «Tecnofederalismo» y un enfoque pro-innovación, sectorial y liderado por el mercado. En lugar de una regulación horizontal exhaustiva, Estados Unidos prefiere abordar los riesgos de la IA a través de marcos voluntarios y adaptaciones de las leyes existentes en sectores específicos, priorizando la competitividad y el liderazgo tecnológico sobre una regulación preventiva. Finalmente, el modelo chino representa un tercer polo, donde la IA es una herramienta al servicio de los objetivos del Estado. Su enfoque es centralizado y dirigido desde el gobierno, con un fuerte énfasis en la soberanía tecnológica, la seguridad nacional, la estabilidad social y la promoción de campeones nacionales, lo que refleja una estrategia de «nacionalismo tecnológico y autonomía».

Estas divergencias no son meramente técnicas, sino que revelan tensiones subyacentes sobre visiones del mundo fundamentalmente distintas y el rol que la tecnología debe jugar en la sociedad. Mientras Europa prioriza al individuo y sus derechos, Estados Unidos se enfoca en el mercado y la innovación, y China lo hace en el Estado y la estabilidad colectiva. El resultado es un «ecosistema digital disputado y fragmentado», en el que la interoperabilidad normativa se vuelve una quimera. La existencia de estos tecno-bloques con estándares competitivos e incluso antagónicos constituye uno de los límites más formidables para la gobernanza global de la IA, perpetuando un ciclo de fragmentación que hace que la aspiración a un marco universal sea, en la práctica, imposible.

No es que la IA sea ingobernable; lo que es ingobernable es la idea de un sólo gobierno de la IA. Lo gobernable es un tejido de acuerdos mínimos, estándares interoperables y controles de cómputo que, combinados, reducen riesgo sistémico.

Intereses en Pugna: El Dilema entre Estados, Corporaciones y Derechos Universales

La búsqueda de una gobernanza global para la inteligencia artificial no solo se enfrenta a las divisiones geopolíticas, sino también a una compleja red de intereses contrapuestos que operan a diferentes niveles. El ecosistema de la IA está habitado por una pluralidad de actores —Estados-nación, corporaciones tecnológicas multinacionales, organizaciones de la sociedad civil y organismos internacionales— cada uno con sus propias agendas, incentivos y concepciones del orden normativo deseable. Este capítulo analiza las tensiones fundamentales que surgen de la interacción entre el poder corporativo, la soberanía estatal y la aspiración a principios universales, desvelando una de las capas más profundas de la «imposibilidad» de una gobernanza unificada. La pugna no es meramente por la regulación, sino por la definición misma de los valores que deben ser inscritos en la arquitectura digital del futuro.

El poder de las grandes corporaciones tecnológicas en la definición de estándares

En el debate sobre la gobernanza de la IA, los Estados ya no son los únicos actores con capacidad de agencia significativa. Un conjunto reducido de corporaciones tecnológicas transnacionales, comúnmente denominadas «Big Tech», ejerce una influencia estructural que rivaliza, y en ocasiones supera, la de muchos gobiernos. Empresas como Google, Microsoft, Amazon, Meta, Apple, junto a sus homólogas chinas como Baidu, Alibaba y Tencent, no solo dominan el mercado, sino que también controlan los recursos fundamentales para el desarrollo de la IA: el talento de ingeniería, los vastos conjuntos de datos y la infraestructura de computación en la nube. Esta concentración de poder fáctico les confiere un papel central en la definición de los estándares técnicos y, por extensión, de las normas de facto que gobiernan la tecnología.

El poder de estas corporaciones se manifiesta de múltiples maneras. En primer lugar, son los principales motores de la investigación y el desarrollo. Sus laboratorios de IA dictan el ritmo y la dirección de la innovación, creando nuevos sistemas y aplicaciones mucho antes de que los legisladores puedan comprender sus implicaciones. Esta primacía en la innovación les permite establecer estándares técnicos que, una vez adoptados a gran escala, se convierten en la norma del mercado, obligando a otros actores a adaptarse. Este fenómeno, conocido como «gobernanza por la infraestructura», significa que las decisiones de diseño tomadas en los despachos de Silicon Valley o Shenzhen tienen consecuencias normativas a nivel global.

En segundo lugar, las grandes tecnológicas despliegan un considerable poder de cabildeo para moldear la legislación a su favor. Invierten masivamente en influir sobre los procesos normativos vinculantes en centros de poder como Washington D.C. y Bruselas, abogando por marcos que prioricen la innovación, la flexibilidad y el libre flujo de datos, a menudo en detrimento de regulaciones más estrictas sobre privacidad, competencia o rendición de cuentas. Su participación en foros multilaterales y alianzas multistakeholder les permite posicionar sus intereses comerciales como si fueran sinónimo del progreso tecnológico, presentando la autorregulación como una alternativa más eficiente y ágil que la legislación estatal.

En tercer lugar, estas empresas han desarrollado sus propios marcos éticos y principios para la IA. Si bien estos documentos suelen afirmar un compromiso con valores como la equidad, la transparencia y la seguridad, carecen de fuerza vinculante y su implementación es opaca. Críticos señalan que esta «ética corporativa» puede funcionar como una estrategia de «ethics washing», diseñada para anticiparse y desactivar la presión por una regulación externa más onerosa. No obstante, en ausencia de leyes claras, estos principios corporativos se convierten en la guía principal para miles de ingenieros y desarrolladores, ejerciendo una influencia real en la configuración de los sistemas de IA.

Esta acumulación de poder corporativo desafía directamente la soberanía estatal tradicional. Los Estados se encuentran en una posición ambivalente: por un lado, dependen de estas empresas para la innovación, el crecimiento económico y la modernización de sus infraestructuras; por otro, luchan por afirmar su autoridad regulatoria sobre entidades que operan a una escala transnacional y controlan tecnologías de importancia estratégica. Este dilema se intensifica a medida que la IA se convierte en un pilar de la seguridad nacional y los servicios públicos, creando una interdependencia que limita la capacidad de los gobiernos para imponer reglas que contravengan los intereses de los gigantes tecnológicos. La soberanía en la era digital se ve así disputada no solo entre Estados, sino también en la tensión entre el poder público y el poder privado corporativo.

La tensión permanente entre la soberanía estatal y la universalidad de los principios éticos

Mientras las corporaciones ejercen su poder desde el ámbito del mercado y la tecnología, los Estados-nación continúan siendo los protagonistas centrales del orden jurídico internacional. La principal tensión en la gobernanza global de la IA emana del choque entre el principio westfaliano de soberanía nacional y la aspiración a un marco ético-jurídico basado en derechos y valores universales. Cada Estado reclama el derecho a regular las actividades dentro de sus fronteras de acuerdo con sus propios intereses nacionales, su sistema político y sus valores culturales. Sin embargo, la naturaleza transfronteriza e interconectada de la IA hace que las decisiones reglamentarias de un país tengan efectos extraterritoriales, creando un imperativo de coordinación que choca frontalmente con el instinto soberanista.

Esta tensión se manifiesta de manera más aguda en el fenómeno del «nacionalismo de la IA» o «nacionalismo tecnológico». Las principales potencias mundiales han identificado el liderazgo en IA como un imperativo estratégico para su competitividad económica, su seguridad nacional y su influencia geopolítica en el siglo XXI. Esta visión convierte la IA en un campo de competición de suma cero, donde el avance de un país se percibe como una amenaza para otros. En este contexto, la cooperación para establecer normas globales vinculantes se subordina a la carrera por la supremacía tecnológica. Las políticas nacionales se orientan a proteger y promover una «industria de IA nacional», a menudo mediante subsidios, políticas proteccionistas y el control estricto sobre los flujos de datos y tecnología, una tendencia que promueve la fragmentación regulatoria.

Este resurgimiento del nacionalismo se expresa a través de la defensa de la «soberanía digital» y la «soberanía de los datos». Conceptos como estos son invocados por Estados tan diversos como China, Rusia y algunos países europeos para justificar medidas que van desde la localización forzosa de datos hasta el bloqueo de servicios digitales extranjeros. Si bien estas políticas pueden estar motivadas por preocupaciones legítimas sobre la privacidad de los ciudadanos o la seguridad nacional, también sirven como herramientas para el control estatal sobre la información y para erigir barreras comerciales digitales. Este «ciber-nacionalismo» es fundamentalmente incompatible con la idea de un internet global y abierto, y conduce inevitablemente a una gobernanza de la IA fragmentada a lo largo de líneas nacionales y regionales.

Frente a esta reafirmación de la soberanía, organizaciones internacionales como la UNESCO y actores de la sociedad civil abogan por un enfoque basado en la universalidad de los derechos humanos. Argumentan que principios como la dignidad humana, la no discriminación, la privacidad y el derecho a un recurso efectivo deben constituir el fundamento ético de cualquier regulación de la IA, independientemente de las fronteras nacionales. Desde esta perspectiva, la soberanía estatal no puede ser un cheque en blanco para desarrollar o desplegar sistemas de IA que violen derechos fundamentales. El dilema radica en que no existe una autoridad supranacional con el poder coercitivo para imponer estos principios universales sobre la voluntad de los Estados soberanos. La tensión, por tanto, permanece irresoluble: por un lado, la lógica geopolítica que empuja a los Estados a instrumentalizar la IA para sus fines nacionales; por otro, la lógica humanista que exige que la tecnología se someta a un estándar ético común para proteger a todos los individuos.

La brecha entre los principios éticos declarativos y su implementación jurídica vinculante

Una de las características más notables del panorama actual de la gobernanza de la IA es la proliferación de marcos éticos. Gobiernos, corporaciones, instituciones académicas y organizaciones internacionales han publicado cientos de documentos que delinean principios de alto nivel para un desarrollo y uso responsable de la IA. Existe un sorprendente grado de convergencia en torno a conceptos abstractos como la transparencia, la justicia, la rendición de cuentas, la seguridad y la privacidad. Sin embargo, esta aparente armonía en el plano declarativo enmascara una profunda brecha con respecto a su implementación en normas jurídicas vinculantes y mecanismos de aplicación efectivos.

El paso de la ética a la ley está plagado de dificultades. En primer lugar, los principios éticos son, por naturaleza, abstractos y abiertos a la interpretación. Conceptos como «justicia» o «equidad» tienen significados distintos en diferentes contextos culturales y filosóficos. Traducir estas ideas a un lenguaje jurídico preciso y operativo es un desafío técnico y político monumental. Por ejemplo, ¿cómo se define y mide legalmente el «sesgo algorítmico injusto»? ¿Qué nivel de «transparencia» es exigible sin comprometer la propiedad intelectual o la seguridad de un sistema? La vaguedad de los principios éticos permite a los actores suscribirlos sin comprometerse a acciones concretas, creando un consenso superficial que se desvanece al abordar los detalles de la regulación.

En segundo lugar, muchos de los marcos éticos más influyentes, como las recomendaciones de la OCDE o de la UNESCO, son instrumentos de «derecho blando» (soft law), es decir, no son jurídicamente vinculantes para los Estados miembros. Su objetivo es guiar las políticas nacionales y promover la convergencia, pero su adopción y aplicación dependen enteramente de la voluntad política de cada gobierno. Esta dependencia de la voluntariedad es una debilidad estructural en un entorno geopolítico competitivo, donde los incentivos para desviarse de las normas en busca de una ventaja estratégica o económica son altos.

Esta brecha entre la declaración y la implementación es funcional para aquellos actores, tanto estatales como corporativos, que desean proyectar una imagen de responsabilidad sin someterse a restricciones reales. Permite a las corporaciones continuar con sus prácticas comerciales mientras señalan sus códigos éticos como prueba de su compromiso social. De igual modo, permite a los gobiernos eludir compromisos internacionales difíciles mientras afirman estar alineados con los estándares éticos globales. El resultado es un «teatro de la gobernanza», donde la actividad se concentra en la producción de principios y declaraciones, mientras que las estructuras de poder y las prácticas problemáticas subyacentes permanecen inalteradas.

En última instancia, esta brecha socava la credibilidad del proyecto de gobernanza global. Sin mecanismos de cumplimiento, verificación y sanción, los principios éticos corren el riesgo de convertirse en meras aspiraciones sin impacto práctico. La ausencia de un marco legal robusto deja a los individuos sin recursos efectivos en caso de sufrir daños por sistemas de IA y perpetúa la incertidumbre jurídica para desarrolladores e inversores. La dificultad para cerrar esta brecha no es solo técnica, sino fundamentalmente política, ya que requeriría que los actores más poderosos aceptaran límites a su autonomía y se sometieran a una supervisión externa, un paso que, hasta ahora, pocos han estado dispuestos a dar.

Escenarios Futuros: Entre la Cooperación Selectiva y el Conflicto Normativo

El análisis de los espejismos normativos y los límites estructurales de la gobernanza de la IA conduce a una encrucijada de futuros posibles. La trayectoria de la regulación global no parece encaminarse hacia un único tratado omnicomprensivo, sino más bien hacia un panorama complejo y dinámico donde coexisten fuerzas de fragmentación y cooperación. La interacción entre la competencia geopolítica, los intereses corporativos y las diferentes tradiciones jurídicas y culturales está configurando un orden normativo multipolar. Este capítulo explora los escenarios más probables para la evolución de la gobernanza de la IA, desde la consolidación de bloques regulatorios competitivos hasta la emergencia de focos de cooperación en áreas de interés común, para finalmente reflexionar sobre la necesidad de reimaginar el propio concepto de gobernanza global en este nuevo contexto.

El mosaico regulatorio: La consolidación de «tecno-bloques» con estándares competitivos

El escenario más probable a corto y medio plazo no es el de una gobernanza global unificada, sino el de un «mosaico regulatorio» caracterizado por la consolidación de varios «tecno-bloques» con enfoques y estándares normativos divergentes. Esta fragmentación es la consecuencia directa del resurgimiento del nacionalismo digital y la intensificación de la competencia estratégica entre las grandes potencias, especialmente entre Estados Unidos y China. En lugar de un marco global, el mundo se está organizando en torno a esferas de influencia regulatoria, cada una promovida por una potencia hegemónica que busca exportar su modelo.

Se pueden identificar al menos tres grandes bloques en formación:

  1. El Bloque Europeo («Efecto Bruselas»): Liderado por la Unión Europea, este bloque se define por un enfoque basado en los derechos fundamentales y una regulación exhaustiva basada en el riesgo. Instrumentos como el Reglamento General de Protección de Datos (RGPD) y la propuesta de Ley de Inteligencia Artificial (AI Act) ejemplifican este modelo. La UE aspira a establecer el estándar de oro global a través del «Efecto Bruselas», utilizando el poder de su mercado único para obligar a las empresas de todo el mundo a cumplir con sus normas si desean operar dentro de sus fronteras. Este enfoque prioriza la protección del individuo y la confianza en la tecnología, aun a riesgo de ser percibido como un freno a la innovación.
  2. El Bloque Estadounidense (Enfoque pro-innovación): Tradicionalmente, Estados Unidos ha favorecido un enfoque más laxo y sectorial, impulsado por el mercado y la innovación. La regulación se ha delegado en gran medida a las agencias existentes y se ha fomentado la autorregulación de la industria, con el objetivo de mantener el liderazgo tecnológico del país. Sin embargo, este modelo está experimentando una creciente fragmentación interna, un fenómeno que se ha denominado «tecnofederalismo». Diferentes estados, como California, Colorado o Illinois, están aprobando sus propias leyes sobre privacidad y IA, creando un complejo mosaico regulatorio dentro del propio país. A nivel federal, aunque hay un creciente interés en la regulación, la polarización política dificulta la aprobación de una legislación integral, manteniendo un enfoque que favorece la competitividad sobre la regulación preventiva.
  3. El Bloque Chino (Enfoque estatista): China está desarrollando un modelo de gobernanza de la IA distintivo, caracterizado por el control estatal y la instrumentalización de la tecnología para objetivos de desarrollo económico y estabilidad social. Su enfoque combina regulaciones específicas y rigurosas en áreas como las recomendaciones algorítmicas y los «deepfakes» con un uso extensivo de la IA para la vigilancia y el crédito social. El objetivo de Pekín es construir una «soberanía tecnológica» que le permita liderar la próxima ola de innovación bajo la estricta dirección del Partido Comunista. China exporta activamente su tecnología y sus modelos de gobernanza a otros países a través de iniciativas como la Ruta de la Seda Digital, creando una esfera de influencia tecnológica que compite directamente con el modelo occidental.

Esta consolidación de tecno-bloques tendrá profundas consecuencias. Conducirá a una «guerra de estándares» donde cada bloque intentará imponer sus normas técnicas y éticas como el estándar global. Las empresas multinacionales se enfrentarán a crecientes costes de cumplimiento al tener que navegar por regímenes regulatorios contradictorios. Los flujos de datos e innovación podrían verse obstaculizados por barreras legislativas, ralentizando el progreso científico global. En el peor de los casos, esta fragmentación podría solidificar una «balcanización digital», un mundo donde diferentes ecosistemas tecnológicos operan con lógicas incompatibles, socavando la promesa de un espacio digital global e interconectado.

Áreas de posible cooperación: Hacia una gobernanza de «mínimos viables» en dominios críticos

A pesar de la tendencia dominante hacia la fragmentación, un conflicto normativo absoluto es improbable y desaconsejable. La propia naturaleza de la IA, con sus potenciales beneficios globales y riesgos existenciales, crea fuertes incentivos para la cooperación selectiva incluso entre rivales geopolíticos. En lugar de aspirar a un marco integral, el futuro de la gobernanza podría residir en una estrategia de «mínimos viables»: identificar dominios críticos donde el interés mutuo en evitar catástrofes o asegurar beneficios compartidos supere las dinámicas competitivas.

Varias áreas se perfilan como candidatas para esta cooperación pragmática:

  1. Seguridad y Riesgos Catastróficos (AI Safety): Existe un creciente consenso científico y político sobre la necesidad de investigar y mitigar los riesgos asociados con los sistemas de IA avanzados. La posibilidad de que una IA pierda el control, sea utilizada con fines maliciosos a gran escala (ciberataques masivos, desarrollo de armas biológicas) o genere crisis sistémicas imprevistas representa una amenaza para toda la humanidad. Cumbres internacionales como la AI Safety Summit del Reino Unido son un primer paso hacia la creación de un diálogo global sobre estos riesgos, buscando establecer protocolos comunes para las pruebas de seguridad de los modelos más potentes y crear redes de colaboración científica para la detección de peligros.
  2. Armas Autónomas Letales (LAWS): La perspectiva de una carrera armamentística en armas que pueden seleccionar y atacar objetivos sin intervención humana significativa es una de las preocupaciones más urgentes. Aunque las negociaciones formales en el marco de la ONU han avanzado lentamente, existe un interés compartido entre las principales potencias militares en evitar un escenario de desestabilización estratégica. La cooperación podría centrarse en establecer «líneas rojas» claras, como la prohibición de sistemas que violen el derecho internacional humanitario o la exigencia de un «control humano significativo» en todas las decisiones de vida o muerte. El objetivo no sería prohibir toda la IA militar, sino establecer normas de comportamiento para prevenir los usos más desestabilizadores.
  3. Bienes Públicos Globales: La IA tiene un enorme potencial para abordar desafíos globales compartidos, como el cambio climático, la prevención de pandemias, la seguridad alimentaria o el descubrimiento de nuevos materiales. La cooperación internacional podría catalizar estos beneficios, por ejemplo, mediante la creación de conjuntos de datos abiertos para la investigación climática, el desarrollo de modelos de IA para la predicción de enfermedades o la promoción de plataformas de investigación colaborativa. Estas iniciativas podrían fomentar la confianza y demostrar el valor de la cooperación tecnológica más allá de la competencia.
  4. Estándares Técnicos de Interoperabilidad: Incluso en un mundo fragmentado, se necesitarán ciertos estándares técnicos comunes para garantizar que los sistemas de diferentes bloques puedan interactuar. Organizaciones de estandarización como ISO e IEEE ya desempeñan un papel crucial en este ámbito. La cooperación en estos foros técnicos, a menudo menos politizados que los diplomáticos, puede ser una vía para mantener un grado mínimo de conectividad en el ecosistema digital global.

Esta gobernanza de «mínimos viables» es inherentemente menos ambiciosa que el proyecto irrealizable de regulación de un marco ético-jurídico global. No busca armonizar los valores culturales ni resolver las tensiones geopolíticas, sino gestionar los riesgos más extremos y facilitar la cooperación en áreas de beneficio mutuo evidente. Representa un enfoque pragmático y realista, reconociendo que en un mundo fragmentado, la prevención del desastre puede ser el único terreno común universalmente aceptado.

Repensando la gobernanza global: La necesidad del diálogo en un marco «imposible»

El reconocimiento de que una gobernanza global unificada es, en su forma idealizada, «imposible», no debe conducir al cinismo o la inacción. Por el contrario, exige un replanteamiento fundamental de lo que significa «gobernar» una tecnología global en el siglo XXI. Si el objetivo ya no es un único tratado mundial, sino la gestión de un ecosistema normativo complejo y en permanente tensión, el diálogo y la negociación continua se convierten en fines en sí mismos, no solo en medios para un acuerdo final.

En este contexto, el valor de los foros multilaterales como la ONU, la OCDE, el G7 o el G20 no reside tanto en su capacidad para producir leyes vinculantes, sino en su función como plataformas indispensables para el diálogo estratégico. Son los espacios donde los diferentes tecno-bloques pueden comunicar sus «líneas rojas», desarrollar un entendimiento mutuo de sus enfoques reglamentarios, y reducir el riesgo de malentendidos y escaladas accidentales. Mantener estos canales de comunicación abiertos es crucial para gestionar la competencia y evitar que la fragmentación regulatoria degenere en un conflicto tecnológico abierto.

La gobernanza del futuro probablemente será policéntrica y en red, en lugar de jerárquica y centralizada. Implicará una interacción constante entre diversos tipos de actores: redes de reguladores nacionales que comparten mejores prácticas, coaliciones de países afines que promueven normas específicas, consorcios industriales que desarrollan estándares técnicos, y organizaciones de la sociedad civil que actúan como vigilantes transnacionales. Este modelo, a veces descrito como «gobernanza distribuida», es más desordenado y menos predecible que un sistema basado en tratados, pero también es potencialmente más resiliente y adaptable a la rápida evolución de la tecnología.

Repensar la gobernanza también implica aceptar la permanencia del conflicto normativo. La competencia entre el modelo europeo basado en derechos, el modelo estadounidense basado en el mercado y el modelo chino basado en el Estado no se resolverá a corto plazo. Es una manifestación de diferencias fundamentales en valores políticos y económicos. La tarea de la diplomacia y la gobernanza será gestionar esta competencia de manera que no socave la estabilidad global, buscando un equilibrio dinámico entre la competencia y la cooperación.

En última instancia, la búsqueda de la gobernanza de la IA, incluso en un marco «imposible», es un imperativo político y ético. El proceso de debatir, negociar y contender sobre las reglas que deben aplicarse a esta poderosa tecnología es en sí mismo un ejercicio fundamental de agencia humana. Obliga a las sociedades a confrontar preguntas difíciles sobre sus valores, su futuro y el tipo de mundo que desean construir. La «imposibilidad» no es una condena al fracaso, sino una descripción realista del terreno sobre el que se debe construir, pieza por pieza, un futuro más seguro y equitativo con la inteligencia artificial.

Una última reflexión

El trayecto a través del laberíntico paisaje de la gobernanza de la inteligencia artificial revela una paradoja fundamental: mientras la naturaleza global y transformadora de la IA exige una respuesta coordinada y universal, la estructura del orden mundial contemporáneo hace que tal respuesta sea, en su forma ideal, una «gobernanza imposible». Este ensayo ha argumentado que esta imposibilidad no deriva de una falta de voluntad o de un déficit de ingenio, sino de una serie de límites estructurales profundamente arraigados en la geopolítica, la economía política y la propia naturaleza del derecho internacional. La aspiración a un marco ético-jurídico global, encarnada en las iniciativas de organismos como la OCDE y la UNESCO y en la ambición normativa de la Unión Europea, choca frontalmente con la realidad de un mundo fragmentado.

La principal barrera es la competencia geopolítica, cristalizada en la rivalidad estratégica entre Estados Unidos y China. Esta contienda ha transformado la IA de un mero campo de innovación tecnológica a un dominio central de la seguridad nacional y la lucha por la hegemonía global. El resultado ha sido el auge del «nacionalismo de la IA», un fenómeno que prioriza la ventaja competitiva y la soberanía tecnológica por encima de la cooperación y la estandarización global. Esta dinámica impulsa la fragmentación del espacio digital en «tecno-bloques» con sistemas normativos divergentes y, a menudo, incompatibles, socavando cualquier intento de crear un régimen universal.

A esta fragmentación geopolítica se suma la tensión ineludible entre los tres actores clave del ecosistema digital: los Estados, las grandes corporaciones tecnológicas y los defensores de los derechos universales. Los Estados defienden su soberanía westfaliana; las corporaciones, cuyo poder en la definición de estándares de facto rivaliza con el de muchos gobiernos, persiguen la innovación sin trabas y el acceso a los mercados; y la sociedad civil aboga por principios éticos universales que trasciendan tanto los intereses nacionales como los comerciales. Esta pugna de intereses se ve agravada por la persistente brecha entre los principios éticos declarativos, en los que es fácil alcanzar un consenso superficial, y su traducción a normas jurídicas vinculantes, un proceso mucho más contencioso y políticamente costoso.

Ante este panorama, el futuro de la gobernanza de la IA no se perfila como una estructura monolítica, sino como un mosaico complejo de cooperación selectiva y conflicto normativo. La consolidación de bloques regulatorios competidores parece inevitable. Sin embargo, incluso en este mundo fragmentado, el interés propio y la aversión al riesgo catastrófico crearán incentivos para una cooperación pragmática en dominios críticos, como la seguridad de los sistemas avanzados (AI Safety) o la regulación de las armas autónomas. La gobernanza, por tanto, adoptará la forma de «mínimos viables», centrada en prevenir los peores escenarios en lugar de alcanzar el mejor de los mundos.

En conclusión, la «imposibilidad» de la gobernanza global de la IA no es un llamado a la resignación, sino una exhortación a la lucidez y el pragmatismo. Reconocer los límites estructurales nos libera de la parálisis de buscar una utopía inalcanzable y nos permite centrarnos en estrategias más realistas y adaptativas. La tarea no es construir una catedral jurídica única y perfecta, sino aprender a navegar un ecosistema normativo policéntrico, gestionar la competencia de manera constructiva y forjar alianzas tácticas para abordar las amenazas existenciales. El diálogo continuo entre bloques, la diplomacia tecnológica y el fortalecimiento de los foros multilaterales como espacios de negociación son esenciales, no para eliminar el conflicto, sino para gestionarlo. La gobernanza de la inteligencia artificial será un proceso permanente de negociación, contención y ajuste, un reflejo de las tensiones inherentes a nuestro tiempo. La cuestión crucial no es si lograremos una gobernanza perfecta, sino si seremos capaces de dirigir colectivamente el poder sin precedentes de esta tecnología hacia fines que reafirmen, en lugar de erosionar, nuestra humanidad compartida.

 

Referencias

Li, J… (2025). Governing High-Risk Technologies in a Fragmented World: Geopolitical Tensions, Regulatory Gaps, and Institutional Barriers to Global Cooperation. Fudan Journal of the Humanities and Social Sciences. https://link.springer.com/article/10.1007/s40647-025-00445-4

Riedho, M… (2025). AI Nationalism in Shaping Global Governance. SIYAR Journal. https://jurnalfisip.uinsa.ac.id/index.php/siyar/article/view/990

Cate, M… (2025). Global Regulatory Frameworks and Their Stance on AI in Compliance. researchgate.net. https://www.researchgate.net/profile/Mia-Cate/publication/390916602_Global_Regulatory_Frameworks_and_Their_Stance_on_AI_in_Compliance/links/68023fd0df0e3f544f42b030/Global-Regulatory-Frameworks-and-Their-Stance-on-AI-in-Compliance.pdf

Rebolledo, V. G… (2025). Impact of the Artificial Intelligence on International Relations: Towards a Global Algorithms Governance… Revista UNISCI. https://www.unisci.es/wp-content/uploads/2025/01/UNISCIDP67-1GARRIDO.pdf

Mukherjee, B… (2025). Navigating AI Governance: National and International Legal and Regulatory Frameworks. https://www.igi-global.com/chapter/navigating-ai-governance/382021

Asenov, E… (2024). The Global Framework for the Regulation of Artificial Intelligence. Годишник на УНСС. https://www.ceeol.com/search/article-detail?id=1295020

Li, Y., Tolosa, L., Rivas-Echeverria, F., & Marquez, R… (2025). Integrating AI in education: Navigating UNESCO global guidelines, emerging trends, and its intersection with sustainable development goals. chemrxiv.org. https://chemrxiv.org/engage/chemrxiv/article-details/67d5cbf681d2151a0281479b

Cole, M… (2024). AI regulation and governance on a global scale: An overview of international, regional and national instruments. Journal of AI Law and Regulation. https://scholar.archive.org/work/gwbfan6uovdfze364zqqn42ksu/access/wayback/https://aire.lexxion.eu/data/article/19406/pdf/aire_2024_01-017.pdf

Niazi, M… (2025). How Do Current AI Regulations Shape the Global Governance Framework?. cigionline.org. https://www.cigionline.org/documents/3192/DPH-paper-Maral_Niazi.pdf

Huang, J… (2024). A Literature Review: International Organizations and the Global Governance of Artificial Intelligence. https://ieeexplore.ieee.org/abstract/document/11022173/

Dragomir, A… (2025). The role of the European Union in shaping an ethical and legal framework for artificial intelligence (AI) in education. Review of Artificial Intelligence in Education. https://educationai-review.org/revista/article/view/48

Singh, N. & Krishnaiah, L… (2025). The Governance of AI from 16 Diverse Ethical Perspectives. https://books.google.com/books?hl=en&lr=&id=rVFpEQAAQBAJ&oi=fnd&pg=PA216&dq=AI+governance+international+frameworks,+EU+AI+Act+global+impact,+UNESCO+AI+ethics,+OECD+AI+principles&ots=vpbbBGqeXe&sig=NJ0c6NDHJ_HgNjyg3Wjnr5C0Cn0

Bazoobandi, S., Mahapatra, S., Schipper, T., & Wieczorek, I… (2025). From Global Governance to Nationalism: The Future of AI. ssoar.info. https://www.ssoar.info/ssoar/handle/document/102118

Wu, J… (2025). Techno-Federalism: How Regulatory Fragmentation Shapes the US-China AI Race. papers.ssrn.com. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5138815

Li, L., Abbas, S., Khan, G., & Ali, S… (2025). Competing narratives of technological sovereignty: a constructivist analysis of US-China AI diplomacy. https://contemporaryjournal.com/index.php/14/article/view/632

Gatica, J… (2025). Geopolitics in the digital age: the US-China competition through their narratives on digital technologies. IDP. Revista de Internet. https://www.raco.cat/index.php/IDP/article/view/428663

Chari, S… (2025). Power, Pixels, and Politics: The Geopolitics of Emerging Technologies in the Digital Age. https://www.academia.edu/download/121360075/Power_Pixels_and_Politics_The_Geopolitics_of_Emerging_Technologies_in_the_Digital_Age_published_version.pdf

Bollerman, M… (2025). Digital Sovereigns Big Tech and Nation-State Influence. arXiv preprint arXiv:2507.21066. https://arxiv.org/abs/2507.21066

Ishkhanyan, A… (2025). Governing AI across borders: corporate power, state sovereignty and global regulation. Digital Policy. https://www.emerald.com/insight/content/doi/10.1108/DPRG-03-2025-0057/full/html

Mukherjee, B… (2025). Regulating digital fintech: how states navigate power and geopolitics… Revista UNISCI. https://www.researchgate.net/profile/Bipul-Mukherjee/publication/392370749_regulating_digital_fintech_how_states_navigate_power_and_geopolitics/links/683fc29a8a76251f22eb4a1e/regulating-digital-fintech-how-states-navigate-power-and-geopolitics.pdf

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí