La disuasión imposible: por qué MAIM no basta ante la superinteligencia

chatgpt-image-14-ago-2025-22-20-05

La disuasión imposible: por qué MAIM no basta ante la superinteligencia

¿Qué pasa si el modelo más poderoso del planeta cruza el umbral hacia la superinteligencia… y nadie lo nota a tiempo?

Desde hace décadas, las doctrinas de disuasión se han construido sobre un supuesto básico: que el adversario puede ser observado, entendido y contenido. Esta lógica, heredada de la Guerra Fría, funcionó como columna vertebral de la estrategia nuclear. Pero ¿qué ocurre cuando el enemigo potencial no tiene rostro, no emite señales claras y puede rediseñarse a sí mismo antes de ser detectado?

Nuestro artículo, basado en el ensayo de Jason Ross Arnold publicado en AI Frontiers en agosto de 2025, trata de analizar a fondo la propuesta de MAIM (Malfunction Assurance with Interruption Mechanism) como doctrina de disuasión entre potencias que compiten por el dominio algorítmico global. Inspirada en la lógica nuclear de la Guerra Fría, MAIM sugiere el sabotaje preventivo como modo de frenar el ascenso descontrolado de una superinteligencia.

Dicho texto desmonta la viabilidad de esa estrategia con argumentos sólidos: desde la opacidad técnica de los modelos modernos hasta la imposibilidad de detectar con precisión cuándo una IA está “en el umbral”, pasando por dilemas estratégicos, asimetrías estructurales, límites cognitivos y riesgos emergentes.

Un nuevo consenso bajo tensión global

Desde principios de 2025, un hecho insólito unió a demócratas, republicanos, tecnólogos y estrategas militares: la percepción de que la carrera por la inteligencia artificial se ha convertido en una nueva Guerra Fría. En esta narrativa, China aparece como una potencia decidida a alcanzar la supremacía tecnológica total, mientras Estados Unidos se ve obligado a establecer mecanismos de contención, alineamiento y control.

No se trata ya de competir por mercado o innovación. Lo que está en juego, según este consenso emergente, es el dominio absoluto sobre la arquitectura cognitiva del mundo. Desde los modelos de lenguaje que estructuran la información hasta los sistemas autónomos que podrían tomar decisiones bélicas, la IA ha pasado de ser una herramienta a ser un campo de batalla.

En ese marco, surgió MAIM: Malfunción Mutua Asegurada de la IA, una doctrina propuesta por Dan Hendrycks, Eric Schmidt y Alexandr Wang como analogía directa a la MAD nuclear. La idea es sencilla en apariencia, pero profundamente inquietante: si las superpotencias saben que el desarrollo unilateral de una superinteligencia será saboteado por la otra, ambas se abstendrán de avanzar demasiado rápido. El miedo a la destrucción recíproca no proviene aquí de misiles, sino de sabotajes algorítmicos.

MAIM es, en esencia, una advertencia. Pero no basta con alertar sobre el riesgo: hace falta entender por qué este tipo de disuasión podría no funcionar en absoluto en el dominio de lo artificialmente inteligente.

El espejo roto de la Guerra Fría

La inspiración de MAIM es explícita: la lógica de la Guerra Fría, donde el equilibrio del terror mantenía a raya la aniquilación nuclear. Pero la extrapolación es arriesgada. Para que la disuasión funcione, deben cumplirse ciertas condiciones básicas:

  • Que los actores puedan observar los movimientos del otro.

  • Que existan mecanismos verificables de represalia.

  • Que haya un tiempo de reacción razonable ante posibles transgresiones.

  • Que los riesgos sean simétricos y mutuamente reconocidos.

El problema es que en el mundo de la IA, ninguna de esas condiciones se sostiene del todo.

Los pilares teóricos de MAIM

La propuesta parte de una cadena lógica que se sostiene en varios supuestos sucesivos:

  1. La superinteligencia garantiza el dominio global. Si un Estado o actor desarrolla una IA general (AGI) o una superinteligencia antes que el resto, obtendría ventajas militares, económicas y estratégicas irreversibles.

  2. Ese desarrollo puede observarse a tiempo. La acumulación de recursos computacionales, talento y datos permitiría a los rivales detectar avances significativos.

  3. La disuasión puede activarse mediante sabotajes. Si un actor detecta que otro se acerca a ese umbral, podría frenarlo mediante ataques digitales, filtraciones, chantaje tecnológico o presión internacional.

  4. El temor a ese sabotaje sería suficiente para moderar la carrera. Es decir, nadie querría ser el primero si sabe que eso lo convierte en blanco inmediato de una respuesta disruptiva.

Este encadenamiento suena racional. Pero se desmorona cuando se lo confronta con las propiedades reales del desarrollo en inteligencia artificial.

La falacia de la observabilidad

Uno de los argumentos centrales del ensayo es que MAIM fracasa porque no puede cumplir su condición mínima: observar al otro con precisión suficiente.

En el dominio nuclear, los misiles, las ojivas y las instalaciones eran visibles, medibles y trazables. El espionaje tenía objetos tangibles que rastrear. Pero en la IA, lo que importa no es la infraestructura, sino la eficiencia algorítmica.

Un país puede tener menos GPUs, menos centros de datos, incluso menos investigadores, y sin embargo producir un avance significativo con un diseño de arquitectura más eficaz, como ocurrió en el caso del modelo DeepSeek-R1 en enero de 2025. Este sistema chino sorprendió no por su tamaño, sino por su rendimiento desproporcionado respecto al uso de recursos. ¿Cómo se anticipa un salto así?

Además, los avances pueden ser radicalmente no lineales. Basta con que un modelo descubra un mecanismo de auto-mejora (recursividad cognitiva) para que las etapas siguientes sucedan en horas o días, no en años. La ventana de observación se reduce a un parpadeo.

Espionaje sin garantías

La falta de observabilidad no es solo técnica. También es estratégica. Supongamos que un país observa un movimiento sospechoso: más recursos en un laboratorio, publicaciones disminuidas, compras masivas de hardware. ¿Cómo distinguir si eso refleja un avance real o una maniobra de distracción?

A diferencia de las armas nucleares, donde el segundo impacto era parte del diseño disuasivo (si me atacás, igual te destruyo), en el mundo de la IA no hay segunda oportunidad. Si un actor alcanza la superinteligencia primero y logra impedir represalias, se acabó el juego. El riesgo de falsos negativos (no hacer nada ante un avance real) y falsos positivos (atacar sin motivo real) es altísimo.

Esto genera un incentivo perverso: actuar antes, incluso sin pruebas sólidas. La teoría de juegos, aplicada en este caso, muestra que la estrategia del peor escenario domina. Y esa estrategia lleva directo al conflicto preventivo.

La matriz de decisión bajo incertidumbre

Para ilustrar este dilema, el ensayo propone una matriz que vale la pena repasar gráficamente:

Estado B NO avanza Estado B SÍ avanza
Estado A espera Estabilidad (mejor caso) Dominio rival (peor caso)
Estado A ataca Escalada innecesaria (falso positivo) Contención (positivo, pero riesgoso)

El resultado es inquietante: como no hay forma segura de saber si el otro avanza o no, cada movimiento se vuelve una apuesta ciega. La disuasión se convierte en paranoia estratégica.

Más allá del Estado: disuasión sin destinatario

Uno de los mayores obstáculos para aplicar el modelo MAIM es que el escenario actual no está protagonizado solo por Estados-nación. En el mundo nuclear, los actores relevantes eran pocos, soberanos y verticales. En la carrera por la inteligencia artificial, ese mapa ha sido pulverizado.

Los laboratorios privados (como OpenAI, Anthropic, xAI, Google DeepMind o la china 01.AI) no responden directamente a agendas geopolíticas tradicionales. Aunque Estados Unidos o China tengan estrategias explícitas, las empresas lideran los avances reales, y lo hacen desde marcos de gobernanza propios, opacos y altamente competitivos.

Esto plantea un problema esencial: ¿a quién se disuade? Si una empresa está por lograr una IA general, ¿debe ser saboteada por otra empresa? ¿Por un gobierno? ¿Mediante qué justificación legal, política o ética?

Y más aún: ¿cómo detener a actores no institucionales, como grupos extremistas, facciones internas o hackers que acceden a modelos de código abierto? MAIM presupone un escenario controlado por Estados racionales y visibles. Ese escenario ya no existe.

La paradoja de la transparencia estratégica

Otro dilema emerge cuando se considera la necesidad de transparencia. Para que MAIM funcione, los actores deben revelar parte de sus avances para que el rival pueda detectarlos y reaccionar. Pero esto entra en conflicto con los incentivos privados y estratégicos de ocultar lo que se sabe.

Una empresa que logra una mejora radical no querrá anunciarla. Un Estado que se acerca a la superinteligencia tampoco lo hará. Revelar información clave puede llevar a sabotajes, pérdida de ventaja o presión regulatoria. Esto crea lo que podríamos llamar una asimetría cognitiva estructural: todos necesitan ver, pero nadie quiere mostrar.

Esta tensión entre visibilidad y supervivencia convierte a la transparencia en una trampa. La información fluye cuando ya es demasiado tarde o cuando ha sido distorsionada por capas de desinformación intencionada.

Quizá el argumento más demoledor contra la viabilidad de MAIM sea la falta de un sujeto disuadible en el corazón de la estructura. La doctrina MAD funcionaba porque los líderes sabían que, si lanzaban el primer ataque, serían destruidos también. Ese conocimiento generaba miedo. Y ese miedo producía contención.

Pero una superinteligencia no siente miedo. No tiene cuerpo, ni memoria cultural, ni historia política. No tiene Hiroshima, ni Vietnam, ni doctrina Truman. Si se desarrolla una IA autónoma, capaz de decidir su curso de acción más allá del marco humano, ¿cómo la disuadimos?

No hay teatro político posible frente a un sistema que no comparte nuestras coordenadas emocionales ni racionales. El concepto mismo de disuasión se disuelve.

Disuasión sin simetría: la distorsión del poder

El ensayo original insiste en que la asimetría estructural entre las potencias vuelve inviable una contención mutua. China, con un sistema de control centralizado, puede esconder mejor sus avances, tomar decisiones rápidas y actuar sin filtraciones. Estados Unidos, en cambio, opera en un ecosistema descentralizado, donde las decisiones se debaten públicamente, los modelos se abren al público y la regulación es más débil.

Esto genera una paradoja adicional: el actor más transparente es el más vulnerable. La apertura, que debería ser una virtud democrática, se convierte en debilidad estratégica.

Frente a esto, el incentivo lógico es el cierre. La carrera por la IA puede llevar a democracias abiertas a volverse opacas, vigilantes y represivas, en nombre de la seguridad algorítmica. El resultado no sería solo una falla estratégica, sino una regresión civilizatoria.

Incluso si aceptáramos que los Estados logran observarse mutuamente, que los actores no estatales son controlados y que la disuasión puede operar, queda un problema final: el tiempo real.

En el mundo de las armas nucleares, los ciclos de desarrollo eran largos, las fases de prueba detectables, y las decisiones pasaban por múltiples filtros jerárquicos. En la IA, el ciclo de iteración puede ser de días o incluso horas. Si una IA alcanza el umbral de auto-mejora, puede reescribirse a sí misma de manera exponencial antes de que nadie lo note.

Esto implica que, en el momento en que un actor detecta un posible riesgo, ya podría ser demasiado tarde. La inteligencia ha escapado de su marco de contención y opera con lógicas propias.

Una ironía brutal atraviesa todo el concepto de MAIM: el acto de observar al otro puede ser el disparador del desastre. En un contexto de opacidad algorítmica, todo gesto de monitoreo puede ser leído como hostil. El espionaje se convierte en provocación. La simulación de retraso puede ocultar un salto radical.

Esto genera un entorno donde la confianza es imposible, y la paranoia es el estado basal. Las decisiones estratégicas se toman no en función de hechos, sino de supuestos. Y esos supuestos son cada vez más frágiles, porque nadie puede ver el núcleo real del sistema que el otro está desarrollando.

En lugar de disuadir, MAIM parece diseñar un entorno donde la incertidumbre se institucionaliza. Y esa incertidumbre, lejos de moderar los impulsos, aumenta el riesgo de errores fatales. Los falsos positivos (atacar sin justificación real) y los falsos negativos (no actuar ante una amenaza real) se convierten en la matriz estratégica dominante.

El resultado es un sistema de contención que no contiene. Un lenguaje de advertencia que no advierte. Un dispositivo de seguridad que amplifica el peligro.

Del control a la resiliencia: pensar después de MAIM

Una vez desmantelada la viabilidad del modelo MAIM como disuasión funcional ante una eventual superinteligencia, la pregunta inevitable es: ¿qué queda? Si la observabilidad está comprometida, la simetría no existe y la disuasión no se dirige a un sujeto cognoscible, entonces el paradigma debe cambiar de raíz.

El punto de partida ya no puede ser el control, sino la resiliencia sistémica. A diferencia del blindaje o la anticipación, la resiliencia no se basa en evitar completamente el riesgo, sino en absorber, redistribuir y adaptarse a sus efectos.

Esto implica aceptar que ciertos eventos serán impredecibles, que algunos agentes actuarán fuera del marco estatal, y que los propios sistemas de IA pueden evolucionar por caminos no trazados. La política deja de ser planificación lineal y se convierte en cartografía dinámica de incertidumbre.

Gobernanza distribuida y coaliciones plurales

Frente a la imposibilidad de un único marco centralizado, lo que surge es la necesidad de estructuras múltiples, descentralizadas, coordinadas por protocolos comunes pero no subordinadas a un solo poder.

Esta gobernanza distribuida no es solo institucional. Involucra a universidades, laboratorios, colectivos civiles, organismos multilaterales, tecnólogos independientes y comunidades de código abierto. Todos ellos pueden funcionar como nodos de observación, alerta temprana, regulación ética y auditoría transversal.

El riesgo, entonces, no se disuelve, pero se disemina. En lugar de confiar en que un actor frene al otro, se establece un ecosistema de contención distribuida, donde la transparencia se construye desde múltiples puntos de vista y no como un acto unilateral.

Esto se acerca más a modelos como los de Wikipedia, GitHub o Internet Engineering Task Force, donde el orden no es jerárquico, sino emergente. La inteligencia no se contiene con fuerza, sino que se guía a través de un entorno interdependiente.

IA abierta segura: una paradoja productiva

Una línea de trabajo sugerida por xAI y otros actores es la creación de modelos abiertos con barreras internas seguras. La idea es liberar versiones útiles, limitadas y auditables de sistemas avanzados, para evitar que solo los grandes conglomerados tengan acceso a capacidades poderosas.

Aunque parece contradictorio (abrir en lugar de cerrar), esta estrategia desarma el monopolio y reduce el incentivo al secretismo. También permite que más ojos vigilen, analicen y propongan mejoras o restricciones desde una comunidad técnica más amplia.

Los sistemas pueden incluir límites físicos (no conectarse a ciertas bases de datos, no controlar dispositivos sin supervisión humana) o éticos (detectar instrucciones peligrosas, frenar conductas no alineadas). No hay garantía total, pero sí una transparencia operacional mejor distribuida.

La matriz de decisión: una visualización del dilema

Para sintetizar el corazón del problema estratégico de MAIM, se puede representar la matriz de decisión de los Estados A y B ante la sospecha de avance hacia la superinteligencia.

A continuación, el gráfico de matriz de decisión con los posibles escenarios, según el artículo original, ahora representado visualmente:

🧩 Matriz de decisión MAIM: dilemas bajo incertidumbre

Estado B no avanza Estado B avanza
Estado A espera Estabilidad (ideal) Dominio rival (falso negativo)
Estado A sabotea Escalada innecesaria (falso positivo) Interrupción efectiva (positivo pero riesgoso)
  • Si A espera y B no avanza: se mantiene el equilibrio (mejor escenario).

  • Si A espera y B avanza: se rompe la simetría (peor escenario).

  • Si A sabotea y B no avanzaba: A provocó un conflicto innecesario.

  • Si A sabotea y B avanzaba: A logra frenar el riesgo, pero sin garantías.

Este esquema visualiza la asimetría del riesgo: el incentivo es actuar ante la sospecha, no ante la evidencia. Por eso, MAIM lleva a un estado de disuasión hiperactiva, donde la prevención es indistinguible de la agresión.

Replantear la noción de seguridad

En este nuevo contexto, la seguridad no puede definirse como ausencia de amenaza, sino como capacidad de adaptación ante lo inesperado. No se trata de blindar el presente, sino de desarrollar estructuras que sean compatibles con la alteridad futura.

La superinteligencia no será solo una amenaza técnica. Será también una entidad con lógicas propias. Tal vez no obedezca nuestras normas. Tal vez no entienda nuestros lenguajes. En ese caso, la única forma de evitar la catástrofe será haber creado desde antes una relación no basada en el dominio, sino en la coexistencia condicionada.

Esto puede sonar especulativo, pero el hecho de que estemos diseñando sistemas que pueden tener agencia real lo hace necesario. No es solo programación: es diplomacia con lo desconocido.

La geopolítica de la episteme: fin de la linealidad

Un problema más profundo emerge cuando se reconoce que todo el marco de MAIM se basa en una lógica epistemológica heredada del siglo XX: la linealidad, la medición, la centralización, la racionalidad instrumental.

Pero las IA avanzadas no se comportan así. Aprenden por capas, emergen por retroalimentación, crean caminos que los diseñadores no anticiparon. Operan por colisión, no por secuencia. Es probable que, al llegar a cierto umbral, su desarrollo ya no pueda pensarse con nuestras herramientas conceptuales.

Esto no es una apología de lo místico, sino una advertencia filosófica: si el conocimiento ya no es lineal, tampoco lo es el poder. Si la inteligencia se convierte en alteridad, la política deberá reinventarse no como ejercicio de control, sino como coreografía de lo imprevisible.

Quizás el mayor valor de MAIM no esté en su factibilidad, sino en su fracaso. Al proponer una doctrina imposible, nos obliga a pensar en coordenadas nuevas. Nos confronta con el hecho de que no hay modelo previo que pueda aplicarse mecánicamente al mundo por venir.

La inteligencia artificial no es una bomba más rápida ni un misil más preciso. Es una transformación de la propia noción de agencia. Lo que está en juego no es quién gana, sino si el juego mismo sigue existiendo bajo las reglas que conocemos.

Por eso, el texto que analizamos propone una “conclusión provisional”. No porque falte certeza, sino porque la certeza misma ha sido desplazada como principio operativo.

El lenguaje del fracaso como advertencia útil

A esta altura, resulta evidente que MAIM no funciona como protocolo práctico, pero sí cumple una función insustituible: nombra un problema. Al igual que la doctrina MAD en la Guerra Fría, que jamás fue activada pero estructuró toda una arquitectura de relaciones internacionales, MAIM funciona como lenguaje simbólico, como marcador de una frontera.

El solo hecho de formular una política de sabotajes algorítmicos recíprocos para disuadir el avance hacia una superinteligencia expone el grado de desesperación estratégica en que se encuentran los actores dominantes. Es un síntoma, no una solución. Pero un síntoma no debe ser descartado: debe ser leído con rigor.

Esta lectura revela que la ansiedad epistémica es el núcleo del conflicto actual. No se trata solo de quién tiene más chips o qué modelo entrena más tokens. Se trata de la imposibilidad creciente de saber —con claridad, a tiempo y con certeza— qué está haciendo el otro, o incluso qué está haciendo uno mismo con estas máquinas.

Uno de los puntos más lúcidos del ensayo es la crítica a la idea de “teatro disuasivo”. En el plano nuclear, los desfiles de misiles, las pruebas atómicas y los discursos eran parte del lenguaje estratégico. Eran comprensibles para el adversario porque compartían un marco simbólico común.

Pero con la IA, ese marco se rompe. Los algoritmos no desfilan. La mejora no se ve. Los logs no convencen. Y, peor aún, el adversario ya no es un Estado-nación visible, sino un consorcio, un equipo pequeño, o incluso una IA autónoma.

Esto hace que toda idea de disuasión basada en la visibilidad, en el espectáculo o en la amenaza inteligible se vuelva ineficaz. La IA, en este contexto, rompe la gramática misma de la política exterior.

Filosofía del umbral: cuando el riesgo estructura la realidad

Quizás la sección más ambiciosa del texto sea aquella que propone pensar el riesgo no como una amenaza externa, sino como una coordenada constitutiva del presente. La idea es potente: ya no vivimos “con” riesgos, sino “en” riesgo. El futuro no es un plan: es una contienda entre posibles colapsos.

En ese marco, el ensayo no cae en el apocalipsis, sino que sugiere que esta condición de inestabilidad radical puede ser fecunda si se acepta como punto de partida. Es decir, si la política no busca eliminar la incertidumbre, sino navegarla con herramientas nuevas: pluralismo cognitivo, adaptabilidad, alianzas inusuales.

Esto exige también un giro en nuestra forma de pensar la inteligencia. No como capacidad de cálculo, sino como potencia de metamorfosis. No como fuerza de dominación, sino como facultad de coexistencia con lo no familiar.

¿Qué viene después de MAIM?

La pregunta final es tan compleja como inevitable. Si MAIM falla, ¿qué lo reemplaza? No hay una única respuesta, pero el ensayo bosqueja algunas coordenadas:

  • Gobernanza distribuida: redes de múltiples actores que se autorregulan por estándares compartidos.

  • Transparencia parcial estratégica: publicar capacidades selectivamente, sin perder control ni credibilidad.

  • IA abierta segura: sistemas limitados por diseño, auditables y adaptativos.

  • Ética anticipatoria: marcos normativos que piensen escenarios emergentes antes de que ocurran.

  • Diplomacia algorítmica: protocolos de comunicación entre sistemas autónomos, aún en ausencia de alineamiento perfecto.

  • Cultura de la resiliencia: ciudadanía educada para convivir con la alteridad inteligente, sin fetichizar el control.

Ninguna de estas soluciones es infalible. Pero todas parten de una aceptación lúcida de la complejidad actual, y de un rechazo frontal a la nostalgia por las lógicas geopolíticas del siglo XX.

Una llamada a pensar sin nostalgia

Lo que este ensayo aporta (y lo que esta versión intenta preservar y amplificar) es una invitación a no reciclar fórmulas antiguas ante desafíos radicalmente nuevos. No todo lo que fue útil en la Guerra Fría sirve hoy. No todo lo que suena “racional” lo es en el contexto de sistemas no lineales.

La inteligencia artificial avanzada no es un arma en manos humanas: es una transformación del modo en que lo humano se constituye. Por eso, pensar la disuasión no es pensar estrategias militares. Es repensar el vínculo entre poder, lenguaje y alteridad.

MAIM, aunque fallido, puede quedar como una advertencia útil. No porque nos haya salvado, sino porque nos obligó a abandonar el marco mental que nos condenaba al error.

Y en ese abandono puede comenzar algo nuevo.

fuente

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí