NEWSLETTER

El machine learning cataliza el avance cuántico hacia el temido ‘Día Q’

ChatGPT Image 15 sept 2025, 19_56_37

El machine learning cataliza el avance cuántico hacia el temido ‘Día Q’

Por Benjamín Vidal, Periodista Especializado en Inteligencia Artificial y Ciencia y Datos, para Mundo IA

 

La cuenta regresiva cuántica: cómo la IA acelera el fin del secreto

Un estudio reciente confirma una alianza inesperada: la IA está resolviendo los cuellos de botella de la computación cuántica. Esta sinergia acelera la llegada del “Día Q”, el momento en que toda la criptografía actual quedará obsoleta, forzando una carrera geopolítica y tecnológica para la que nadie está completamente preparado.

El tictac de un reloj invisible

En los sótanos de laboratorios de élite de todo el mundo, dentro de cilindros metálicos que evocan altares de una nueva era tecnológica y enfriados a temperaturas más gélidas que el vacío del espacio interestelar, se está gestando una tormenta silenciosa. Es una tormenta computacional que, cuando finalmente se desate, no derribará edificios ni inundará ciudades. Su poder destructivo es más sutil y a la vez más absoluto: evaporará el concepto mismo de secreto digital, el pilar sobre el que se asienta la civilización del siglo XXI. Este evento tiene un nombre que oscila entre la jerga de laboratorio y el titular apocalíptico: el “Día Q”. Es el punto de inflexión teórico, el momento preciso en el tiempo, en que una computadora cuántica suficientemente potente y estable será capaz de pulverizar los algoritmos de encriptación que protegen todo, desde los secretos de estado y las transacciones del sistema financiero global hasta la privacidad de nuestras conversaciones cotidianas.

Durante décadas, el Día Q ha sido un horizonte lejano, una preocupación abstracta relegada a las pizarras de los criptógrafos y a los informes clasificados de las agencias de inteligencia. Sin embargo, un informe reciente de SandboxAQ, una compañía de software cuántico y de IA surgida del seno de Google, ha puesto sobre la mesa una evidencia contundente y ha sacudido esta complacencia. La inteligencia artificial está actuando como un catalizador inesperado, un acelerador formidable del desarrollo cuántico. El informe, que sintetiza tendencias en la industria y la academia, no revela un único avance milagroso, sino algo mucho más sistémico y profundo. Describe con detalle técnico cómo las técnicas de aprendizaje automático, desde las redes neuronales profundas hasta el aprendizaje por refuerzo, se están convirtiendo en la herramienta indispensable para domar la endiablada complejidad de la física cuántica a escala de ingeniería.

La IA, el gran disruptor de nuestra década, está proveyendo el arnés digital para controlar la tecnología que definirá la siguiente. Esta simbiosis crea un círculo virtuoso de aceleración que obliga a reformular la pregunta clave. Ya no es si el Día Q llegará, sino con qué velocidad se está precipitando hacia nosotros. La alianza entre estas dos tecnologías exponenciales nos fuerza a confrontar la posibilidad de que los plazos de veinte o treinta años que se manejaban hasta ahora sean peligrosamente optimistas. Este análisis no es sobre una máquina futura y teórica, sino sobre una carrera presente, una nueva carrera armamentista combatida con algoritmos y física de partículas, cuyas consecuencias estratégicas y sociales ya están en marcha.

La danza frágil de los qubits

Para entender por qué la intervención de la IA es un punto de inflexión tan crítico, primero hay que internalizar por qué construir una computadora cuántica funcional es uno de los desafíos de ingeniería más formidables jamás emprendidos por la humanidad. La diferencia entre la computación clásica y la cuántica es un abismo conceptual. Un bit clásico es un simple interruptor, inequívocamente un 0 o un 1. La unidad fundamental de la computación cuántica, el qubit, es una bestia mucho más extraña, delicada y potente. Gracias al principio de superposición, un qubit puede ser un 0, un 1, o ambos a la vez en una infinidad de combinaciones ponderadas. Pensemos en ello no como un interruptor, sino como un punto en la superficie de una esfera. Mientras que un bit solo puede estar en el polo norte o en el polo sur, un qubit puede existir en cualquier latitud y longitud.

Además, los qubits pueden entrelazarse, un fenómeno que Albert Einstein, escéptico, describió como “acción fantasmal a distancia”. Cuando dos qubits se entrelazan, sus destinos quedan inextricablemente unidos. El estado de un qubit afecta instantáneamente al de otro, sin importar la distancia física que los separe. Si uno colapsa a 0, su par entrelazado podría colapsar instantáneamente a 1, sin que medie ninguna señal conocida. Es esta riqueza de estados, la superposición y el entrelazamiento, lo que otorga a las computadoras cuánticas su poder de procesamiento exponencial para ciertos tipos de problemas. Una computadora cuántica con solo 300 qubits entrelazados podría, en teoría, representar más estados que el número de átomos en el universo observable.

Pero esta increíble potencia es directamente proporcional a su fragilidad. Los estados cuánticos son efímeros, casi etéreos. La más mínima perturbación externa, una vibración de un camión que pasa por la calle, una fluctuación de temperatura de una milésima de grado Celsius, una onda de radio parásita de un teléfono móvil cercano, puede destruir la delicada coreografía cuántica en un proceso llamado decoherencia. En ese instante, que puede ocurrir en microsegundos, el qubit colapsa a un estado clásico de 0 o 1. Toda la rica información cuántica que contenía se pierde de forma irrecuperable. Es el equivalente a intentar dirigir una sinfonía de susurros en medio de un huracán. Cada partícula de aire, cada vibración, es un enemigo.

El desafío, por tanto, es un acto de equilibrio casi imposible: aislar por completo un sistema de qubits del resto del universo, mientras al mismo tiempo se lo controla con una precisión casi perfecta para ejecutar un algoritmo. Esto implica fabricar chips a escala nanométrica con tolerancias que desafían las leyes de la física de materiales, enfriarlos en refrigeradores de dilución a temperaturas de milikelvins, más frías que el espacio profundo, y diseñar sistemas de control capaces de enviar pulsos de microondas con una duración y forma precisas de femtosegundos para manipular cada qubit individualmente. El “ruido” cuántico, la tendencia inherente de estos sistemas a cometer errores, es tan abrumadoramente alto que, según las estimaciones actuales, por cada qubit que realiza un cálculo útil (un qubit lógico), se necesitarán entre mil y un millón de qubits físicos dedicados exclusivamente a una tarea: la corrección de errores cuánticos (QEC). Este obstáculo monumental, conocido como la construcción de una computadora cuántica “tolerante a fallos”, es el verdadero muro que separa la promesa teórica de la realidad funcional. Y es precisamente en la hercúlea tarea de escalar ese muro donde la inteligencia artificial se ha revelado como el sherpa indispensable.

El algoritmo como arnés cuántico

La alianza entre la inteligencia artificial y la computación cuántica es una de las simbiosis tecnológicas más potentes de nuestro tiempo. Estamos utilizando los sistemas de computación clásica más avanzados, llevados a su máxima expresión a través del machine learning, para resolver los problemas de física e ingeniería que nos impiden construir la siguiente generación de computadoras. El informe de SandboxAQ y la evidencia que emerge de los laboratorios de Google, IBM y múltiples universidades, apuntan a varias áreas clave donde la IA está produciendo avances que antes llevaban años.

La primera y más inmediata es la caracterización y calibración del hardware. La fabricación de procesadores cuánticos es más un arte oscuro que una ciencia industrial. No hay dos qubits exactamente iguales. Pequeñas imperfecciones a nivel atómico en el material hacen que cada uno responda de manera ligeramente diferente a los pulsos de control. Calibrar manualmente un procesador de unas pocas docenas de qubits, ajustando miles de parámetros para optimizar su rendimiento, puede llevar horas o días a un equipo de físicos expertos. Escalar este proceso a los miles o millones de qubits necesarios para una máquina útil es humanamente imposible. Aquí es donde los algoritmos de IA han cambiado el juego. Un modelo de aprendizaje automático puede ser entrenado para analizar el comportamiento errático de cada qubit, aprendiendo sus “manías” individuales. Imaginemos un modelo de IA que analiza 100,000 mediciones por segundo de un chip de IBM. El modelo aprende las imperfecciones únicas del chip y genera en tiempo real un mapa de corrección, ajustando la forma y la duración de cada pulso de microondas para que un qubit imperfecto se comporte como si fuera uno ideal. La IA se convierte en una capa de software inteligente que abstrae la imperfección y el ruido del hardware físico.

La segunda área de impacto es el control activo de los qubits. Tradicionalmente, los sistemas de control cuántico operan en “bucle abierto”: envían una secuencia predefinida de pulsos y simplemente esperan que el sistema se comporte como los modelos teóricos predicen. El aprendizaje por refuerzo (reinforcement learning), la misma técnica que ha permitido a la IA derrotar a los campeones mundiales de Go y ajedrez, permite un enfoque de “bucle cerrado” mucho más dinámico. Un agente de IA puede “jugar” con los qubits, probando secuencias de pulsos ligeramente diferentes y midiendo los resultados. A través de millones de iteraciones de prueba y error en una fracción de segundo, el agente aprende una “política” de control óptima, una que maximiza el tiempo de coherencia de los qubits y ejecuta las operaciones lógicas con la mayor fidelidad posible. Es, en esencia, una IA que aprende por sí misma el arte de pastorear partículas subatómicas para que no sucumban a la decoherencia.

La tercera, y quizás la más crítica a largo plazo, es el diseño de la corrección de errores cuánticos. Los códigos de QEC son la espina dorsal de la computación tolerante a fallos. Son esquemas ingeniosos donde la información de un qubit lógico se distribuye entre muchos qubits físicos, de tal manera que si uno o varios de ellos fallan, la información original todavía puede ser reconstruida. Diseñar códigos eficientes, que requieran la menor cantidad de qubits físicos por qubit lógico, es un problema matemático de una complejidad abrumadora. Los modelos de IA, especialmente las redes neuronales profundas y las redes generativas antagónicas (GANs), son excepcionalmente buenos para encontrar patrones y estructuras novedosas en espacios matemáticos de alta dimensionalidad. Los investigadores están utilizando la IA para descubrir nuevos y más eficientes códigos de corrección, algunos con propiedades que habían eludido a los teóricos humanos durante años.

Finalmente, la IA es fundamental en el ciclo de simulación y diseño. Antes de invertir millones de dólares y meses de trabajo en fabricar un nuevo diseño de procesador cuántico en un laboratorio de sala limpia, su comportamiento puede ser simulado en supercomputadoras clásicas. Estas simulaciones, que son en sí mismas una aplicación de computación de alto rendimiento y modelos de machine learning, permiten a los ingenieros probar y refinar diseños de qubits, acopladores y arquitecturas de circuitos de manera completamente virtual. Esto acelera radicalmente el ciclo de investigación y desarrollo, permitiendo una innovación más rápida y barata.

Día Q: el horizonte criptográfico

La consecuencia más tangible y alarmante de esta aceleración sinérgica es que el Día Q, el apocalipsis criptográfico, se acerca de forma inexorable. Para entender la magnitud de la amenaza, es necesario comprender el pilar sobre el que se construye toda nuestra seguridad digital: la criptografía de clave pública. Sistemas como RSA, la Criptografía de Curva Elíptica (ECC) y el intercambio de claves de Diffie-Hellman son la base de casi todo lo que consideramos seguro en línea. Su seguridad no reside en el secreto del método, que es público, sino en la dificultad computacional de un problema matemático subyacente. Para RSA, ese problema es la factorización de números enteros muy grandes. Es trivialmente fácil para cualquier computadora multiplicar dos números primos de, digamos, 300 dígitos cada uno, para generar una clave pública de 600 dígitos. Sin embargo, tomar esa clave pública y encontrar los dos factores primos originales es una tarea que a las supercomputadoras más potentes de la actualidad, como Frontier o Aurora, les llevaría un tiempo superior a la edad del universo.

Aquí es donde entra en juego el Algoritmo de Shor. Descubierto en 1994 por el matemático Peter Shor en los Bell Labs, este algoritmo, diseñado para ejecutarse en una computadora cuántica tolerante a fallos, puede encontrar los factores primos de un número grande de manera exponencialmente más rápida que cualquier algoritmo clásico conocido. No es una mejora de velocidad lineal o cuadrática; es un cambio de paradigma fundamental en la complejidad computacional. Un problema que hoy es intratable, la base de nuestra seguridad, se volvería trivialmente fácil, resoluble en horas o minutos.

El Día Q, por lo tanto, representa un evento de extinción criptográfica. En el momento en que un actor estatal o privado anuncie la posesión creíble de una máquina de este tipo, toda la infraestructura de confianza de la economía y la política global se volverá instantáneamente vulnerable. Las implicaciones son difíciles de exagerar. Los sistemas de pago como SWIFT, las transacciones con tarjetas de crédito, las comunicaciones militares y diplomáticas clasificadas, las redes de infraestructuras críticas como la red eléctrica o los sistemas de control de agua, los historiales médicos de millones de personas, la propiedad intelectual de las corporaciones y, por supuesto, la seguridad de las carteras de criptomonedas como Bitcoin y Ethereum, quedarían completamente expuestas.

Peor aún es la amenaza insidiosa conocida como “Cosechar ahora, desencriptar después” (Harvest Now, Decrypt Later). Es un secreto a voces que adversarios, presumiblemente las agencias de inteligencia de las principales potencias mundiales, ya están capturando y almacenando enormes cantidades de tráfico de internet encriptado. Estos terabytes de datos son indescifrables hoy. Pero están siendo guardados pacientemente en centros de datos masivos con la expectativa de que, en el Día Q, podrán ser desencriptados retroactivamente. Esto significa que los secretos de hoy, las comunicaciones diplomáticas de la semana pasada, los planes de negocio del mes pasado, todo lo que viaja por la red protegido por una encriptación que consideramos robusta, puede tener una fecha de caducidad. La urgencia, por tanto, no comienza en el futuro Día Q, sino que existe en el presente.

En respuesta a esta amenaza existencial, la comunidad criptográfica global se ha movilizado en el campo de la Criptografía Post-Cuántica (PQC). El objetivo de la PQC es desarrollar una nueva generación de algoritmos de clave pública que sean resistentes tanto a los ataques de computadoras clásicas como cuánticas. Estos nuevos algoritmos no se basan en la factorización o en los logaritmos discretos, sino en otros problemas matemáticos que se cree que son difíciles para ambos tipos de computadoras. Entre ellos se encuentran los problemas basados en retículos (lattices), que implican encontrar el punto más cercano en una red multidimensional, los basados en códigos correctores de errores, o los basados en hashes. Instituciones como el Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST) llevan desde 2016 liderando un proceso global y abierto para seleccionar y estandarizar estos nuevos algoritmos. En 2022, anunciaron los primeros ganadores, como CRYSTALS-Kyber para el establecimiento de claves y CRYSTALS-Dilithium para las firmas digitales. Este anuncio marcó el pistoletazo de salida para una de las migraciones tecnológicas más grandes, críticas y complejas de la historia.

La nueva carrera geopolítica

La simbiosis entre la IA y la computación cuántica, y la inminencia del Día Q, han transformado lo que era una búsqueda científica en una arena de competencia geopolítica de primer orden. La nación que primero desarrolle una computadora cuántica tolerante a fallos no solo obtendrá una ventaja económica incalculable, sino también un poder estratégico sin precedentes, comparable a la obtención de la bomba atómica en el siglo XX. Es una carrera armamentista silenciosa, una nueva forma de la Guerra Fría luchada en los dominios de la física de partículas y la informática.

Estados Unidos y China se han establecido como los dos competidores principales. En Estados Unidos, gigantes tecnológicos como Google, IBM, Microsoft y Quantinuum, junto con un vibrante ecosistema de startups como SandboxAQ y Rigetti, lideran el desarrollo de hardware y software. Su enfoque es impulsado por el mercado y la innovación corporativa, aunque fuertemente apoyado por miles de millones de dólares en fondos gubernamentales a través de iniciativas como la National Quantum Initiative Act.

China, por su parte, ha declarado la supremacía cuántica como una prioridad estratégica nacional, integrada en sus planes quinquenales. Con una inversión estatal masiva, estimada en decenas de miles de millones de dólares, y liderada por figuras de renombre mundial como el físico Jian-Wei Pan, el país ha logrado avances espectaculares, especialmente en áreas como la comunicación cuántica y los satélites cuánticos, donde ostenta récords mundiales. El enfoque chino, más centralizado y guiado por la doctrina de la “fusión cívico-militar”, podría permitirle movilizar recursos a una escala y con una dirección estratégica que las democracias occidentales, más fragmentadas, encuentran difícil de igualar.

Europa, a través de su programa Quantum Flagship, y naciones como Canadá, el Reino Unido y Australia, no se quedan atrás, formando consorcios y programas de investigación para no perder el tren tecnológico. Esta carrera no está exenta de un profundo dilema de doble uso. La misma máquina que podría desestabilizar el orden mundial al romper la criptografía es también la que promete diseñar nuevos medicamentos contra el cáncer y el Alzheimer, descubrir nuevos materiales superconductores para una transición energética eficiente, optimizar las redes logísticas globales para combatir el cambio climático y, en un bucle de retroalimentación, acelerar aún más la investigación en inteligencia artificial.

Sin embargo, es crucial inyectar una dosis de realismo en medio de la creciente alarma. A pesar de la aceleración impulsada por la IA, construir una computadora cuántica tolerante a fallos, con los millones de qubits físicos estables necesarios para formar unos pocos miles de qubits lógicos capaces de ejecutar el Algoritmo de Shor, sigue siendo un desafío de ingeniería monumental. Las máquinas actuales, con cientos o unos pocos miles de qubits físicos y extremadamente ruidosos, son impresionantes proezas científicas, pero están a años, probablemente una década o más, de ser una amenaza criptográfica real. No obstante, la aceleración de la IA introduce un factor de incertidumbre, un “cisne negro” potencial que aconseja a gobiernos y empresas prepararse para los escenarios más pesimistas.

La era de la cripto-agilidad

El informe de SandboxAQ no es una profecía del apocalipsis, sino un llamado de atención urgente y basado en datos. La convergencia de la IA y la computación cuántica es un motor de progreso sin precedentes, pero también un acelerador de riesgos sistémicos. La respuesta adecuada no puede ser el pánico, sino una acción deliberada, estratégica y urgente. La migración hacia la criptografía post-cuántica no es una actualización de software rutinaria; es una reinvención de los cimientos de nuestra infraestructura digital que llevará años, si no décadas, y requerirá una inversión masiva y una coordinación global. Cada dispositivo, cada servidor, cada protocolo de comunicación deberá ser actualizado.

El verdadero legado de esta era de transición no será la máquina cuántica en sí, sino la necesidad de desarrollar una nueva capacidad sistémica: la “cripto-agilidad”. La idea de un estándar criptográfico que dure 50 años, como lo hizo RSA, ha muerto. Debemos diseñar y construir sistemas de información que puedan intercambiar y actualizar sus algoritmos criptográficos de manera fluida y segura a medida que surjan nuevas amenazas, ya sean cuánticas o de otra índole. La seguridad ya no puede ser un estado estático, sino un proceso dinámico de adaptación continua.

La danza íntima y compleja entre la inteligencia artificial y el qubit es una de las historias científicas y estratégicas más importantes de nuestro tiempo. Una está ayudando a la otra a nacer y a madurar, y juntas prometen redefinir los límites de lo computable, lo conocible y lo secreto. El reloj del Día Q avanza, y su tictac, antes apenas el susurro lejano de los físicos teóricos, se vuelve cada vez más fuerte, impulsado por el motor silencioso pero implacable del aprendizaje automático. Ignorarlo ya no es una opción viable.

 

Glosario mínimo

  • Qubit: Unidad básica de información cuántica. A diferencia de un bit (0 o 1), puede estar en una superposición de ambos estados.
  • Superposición: Propiedad cuántica que permite a un qubit existir en múltiples estados simultáneamente.
  • Entrelazamiento: Conexión cuántica entre dos o más qubits, donde el estado de uno afecta instantáneamente a los otros.
  • Decoherencia: Pérdida del estado cuántico de un qubit debido a la interacción con su entorno (ruido). El mayor obstáculo práctico.
  • Día Q (Q-Day): Momento hipotético en que una computadora cuántica puede romper la criptografía de clave pública actual.
  • Criptografía Post-Cuántica (PQC): Nuevos algoritmos de encriptación diseñados para ser seguros contra ataques tanto de computadoras clásicas como cuánticas.
  • Algoritmo de Shor: Algoritmo cuántico que puede factorizar números grandes de manera eficiente, lo que le permite romper el cifrado RSA.

 

Actores y Hitos Clave

  • 1994: Peter Shor desarrolla su algoritmo de factorización, estableciendo la amenaza teórica de las computadoras cuánticas para la criptografía.
  • 2016: El NIST (EE.UU.) inicia la competición global para seleccionar y estandarizar los algoritmos de Criptografía Post-Cuántica (PQC).
  • 2019: Google anuncia haber alcanzado la “supremacía cuántica” con su procesador Sycamore, realizando un cálculo específico más rápido que cualquier supercomputadora clásica (un hito simbólico, no una amenaza criptográfica).
  • 2022: El NIST anuncia la primera tanda de algoritmos PQC estandarizados, iniciando la fase de migración.
  • Actores Corporativos: Google, IBM, Microsoft, Quantinuum (fusión de Honeywell Quantum Solutions y Cambridge Quantum), Amazon, Rigetti, SandboxAQ.
  • Actores Estatales: Estados Unidos (Iniciativa Cuántica Nacional), China (programas de inversión masiva), Unión Europea (Quantum Flagship), Canadá.

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí