La amenaza no es hipotética ni distante. Cuando un estado desarrolle sistemas cognitivos que superen radicalmente las capacidades humanas en todas las tareas intelectuales, ese estado podría adquirir ventajas militares y tecnológicas tan abrumadoras que ningún rival podría contenerlo. Esta perspectiva, lejos de pertenecer a la ciencia ficción, es el escenario que Dan Hendrycks, Eric Schmidt y Alexandr Wang pusieron sobre la mesa en su documento "Superintelligence Strategy", publicado a comienzos de 2025. La propuesta central es tan perturbadora como lógica: las potencias deberían amenazar con sabotear los proyectos de superinteligencia de sus adversarios antes de que sea demasiado tarde. El marco conceptual que sostiene esta visión lleva el nombre de Destrucción Mutua Asegurada por Malfuncionamiento de sistemas cognitivos avanzados, conocido por su acrónimo en inglés MAIM.
Desde su publicación, el documento ha generado un debate intenso entre expertos en seguridad nacional, investigadores y analistas estratégicos. Las críticas han sido múltiples y variadas. Algunos argumentan que este esquema carece de líneas rojas precisas que definan cuándo un proyecto merece ser destruido. Otros sostienen que la visibilidad insuficiente sobre el progreso de los rivales haría imposible implementar un sistema de disuasión efectivo. Hay quienes temen que la amenaza de sabotaje no sea creíble, que los estados no actúen racionalmente frente a presiones existenciales, o que todo el esquema sea simplemente demasiado inestable para funcionar sin desencadenar conflictos prematuros.
Hendrycks y su coautor Adam Khoja responden ahora a esas objeciones con un ensayo que refuerza la premisa original. El argumento que presentan es contundente: las tensiones que surgen del desarrollo de superinteligencia no son exclusivas de MAIM; son inherentes a cualquier carrera hacia sistemas cognitivos superhumanos. El sabotaje, lejos de ser una propuesta radical, es la respuesta racional que cualquier potencia adoptaría al ver que un rival está a punto de obtener capacidades que podrían hacer colapsar el equilibrio estratégico global. Lo que MAIM ofrece no es la creación de conflicto, sino su canalización hacia un esquema de disuasión estructurado que podría reducir la probabilidad de guerra preventiva o escalada descontrolada.
La recursión como punto de quiebre
El concepto de recursión de inteligencia ocupa un lugar central en el análisis. Se trata de la fase en que sistemas cognitivos avanzados diseñan autónomamente a sus sucesores, sin intervención humana significativa. Esta capacidad, que las principales empresas de desarrollo tecnológico anticipan alcanzar en los próximos años, podría transformar meses de investigación en semanas o días. Dario Amodei, director ejecutivo de Anthropic, ha señalado que una ventaja temporal en este terreno podría traducirse en una supremacía duradera. Sam Altman, de OpenAI, ha descrito un futuro donde décadas de investigación se compriman en períodos mensuales gracias a sistemas que trabajan a velocidades sobrehumanas.
Para las agencias de inteligencia y los estrategas militares, esta posibilidad representa un escenario de pesadilla. Las armas tradicionales, los sistemas de defensa antimisiles, las redes de ciberdefensa y hasta el arsenal nuclear podrían perder relevancia frente a capacidades desarrolladas por sistemas cognitivos que operan órdenes de magnitud por encima de la inteligencia humana. Geoffrey Hinton advirtió sobre la dificultad histórica de que entidades menos inteligentes controlen a las más inteligentes. Durante una recursión, cuando los sistemas diseñan a sus propios sucesores con mínima supervisión humana, el riesgo de pérdida de control alcanza niveles críticos.
⚠️ Vulnerabilidades actuales de los proyectos avanzados
Los centros de datos que albergan el desarrollo de capacidades superhumanas requieren miles de millones de dólares en infraestructura, emiten calor masivo que impide ocultarlos bajo tierra y dependen de cadenas de suministro extremadamente frágiles. La seguridad en la mayoría de los laboratorios es notablemente laxa, dejando información crítica vulnerable a estados con recursos robustos. Cualquier potencia determinada podría bloquear el acceso a componentes clave durante meses o años si lo considerara necesario para su supervivencia.
Disuasión sin certezas absolutas
Una de las críticas más persistentes contra MAIM es que carece de líneas rojas claras. ¿En qué punto exacto un proyecto cruza el umbral que justifica sabotaje? ¿Qué métricas determinan que un rival está a semanas de lograr recursión? La ausencia de respuestas precisas ha llevado a varios analistas a concluir que el esquema es inviable. David Abecassis sostiene que la recursión podría ocurrir tan rápido que los rivales no tendrían tiempo de responder.
Hendrycks y Khoja replican que esta crítica malinterpreta cómo funciona la disuasión. No todos los esquemas de prevención requieren umbrales ultraprecisos. La ambigüedad estratégica puede ser un activo. Generales estadounidenses han indicado que responderían con fuerza nuclear ante ciberataques suficientemente destructivos contra infraestructura crítica, pero nunca han especificado exactamente dónde está ese límite. Ningún rival ha tenido interés en probar dónde se encuentra esa línea.
Convertir amenazas en estabilidad
Varios críticos argumentan que MAIM no evitaría que un estado determinado persiga superinteligencia a cualquier costo. Iskander Rehman, científico político senior de RAND, señala que incluso una amenaza creíble de sabotaje podría no disuadir a un rival de continuar su proyecto. Detener el desarrollo implicaría costos similares a sufrir un ataque: la pérdida del programa.
Esta objeción asume erróneamente que el único éxito medible de MAIM sería prevenir todo desarrollo de superinteligencia. Pero incluso si un rival decide continuar pese a las amenazas, el marco propuesto sigue siendo útil. Las intervenciones escalonadas comunican incomodidad creciente y demuestran voluntad de escalar. Las amenazas vinculadas a vías de desarrollo especialmente riesgosas, como la recursión, moldean la evaluación de riesgo del rival y lo incentivan a buscar métodos menos peligrosos.
✓ La disuasión como camino orgánico hacia la cooperación
Los estados probablemente preferirían visibilidad mutua sobre sus proyectos de sistemas cognitivos avanzados en lugar de una carrera que cada lado enmarca como emergencia de seguridad nacional. Las herramientas de MAIM (escaleras de escalada, transparencia y verificación) son el andamiaje para acuerdos legítimamente ejecutables. Rivales cautelosos difícilmente aceptarían propuestas de detención voluntaria sin mecanismos robustos para detectar y negar violaciones.
Las medidas de verificación que Hendrycks y sus coautores enumeran incluyen comprobación de ubicación e inspecciones de centros de datos asistidas por sistemas cognitivos avanzados. Investigaciones posteriores a la publicación del documento original han pintado un panorama preliminar pero prometedor sobre cómo podrían implementarse. Estas medidas eventualmente complementarían el espionaje unilateral y las técnicas de sabotaje como base de un régimen de disuasión robusto.
Que los proyectos de superinteligencia sean técnicamente vulnerables al sabotaje representa simultáneamente un peligro y una oportunidad estratégica. El peligro es evidente: escalada prematura, ataques basados en inteligencia defectuosa, carreras armamentistas que nadie puede controlar. Pero la oportunidad también existe. Esa misma vulnerabilidad permite a los estados canalizar sus incentivos de conflicto hacia una dinámica de disuasión más estructurada y, potencialmente, más estable. MAIM, sostienen Hendrycks y Khoja, es la vía orgánica más realista hacia ese resultado.
Referencias
Hendrycks, D., Schmidt, E., & Wang, A. (2025). Superintelligence Strategy. Center for AI Safety.
Hendrycks, D., & Khoja, A. (2025). AI Deterrence Is Our Best Option. AI Frontiers.
Amodei, D. (2025). On DeepSeek and Export Controls.
Altman, S. (2025). The Gentle Singularity.
Wildeford, P., & Delaney, O. (2025). Mutual Sabotage of AI Probably Won't Work.
Abecassis, D. (2025). Refining MAIM: Identifying Changes Required to Meet Conditions for Deterrence.
Rehman, I., et al. (2025). Seeking Stability in the Competition for AI Advantage. RAND Corporation.



