El espejismo de la superinteligencia: por qué los modelos actuales son "esponjas sofisticadas" y no el camino hacia la AGI
En la atmósfera febril del desarrollo tecnológico contemporáneo, se ha instalado una certeza casi religiosa: la creencia de que estamos a un paso, quizás a unos pocos meses o años, de alcanzar la Inteligencia General Artificial (AGI). La narrativa predominante, impulsada por el éxito espectacular de los Grandes Modelos de Lenguaje (LLMs) como GPT-5 o Claude, sugiere que simplemente añadiendo más potencia de cómputo y más datos a las arquitecturas actuales, la consciencia y el razonamiento verdadero emergerán espontáneamente. Sin embargo, una voz disidente y rigurosamente fundamentada ha surgido desde el Departamento de Física de la Universidad Nacional de Vietnam para desafiar este optimismo desenfrenado. En su reciente publicación titulada "Foundations of Artificial Intelligence Frameworks: Notion and Limits of AGI", el investigador Bui Gia Khanh presenta un argumento devastador: los paradigmas actuales de redes neuronales son estructuralmente incapaces de alcanzar la verdadera inteligencia, independientemente de cuánto se escalen.
El documento no es una crítica superficial nacida del escepticismo lúdico, sino una deconstrucción profunda de los cimientos mismos sobre los que se asienta la inteligencia artificial moderna. El autor argumenta que lo que hoy celebramos como inteligencia no es más que una aproximación funcional estática, una mímica estadística de comportamientos complejos que carece de la riqueza estructural necesaria para constituir entendimiento genuino. Khanh introduce una metáfora poderosa y algo humillante para nuestras creaciones digitales más avanzadas: no son mentes nacientes, sino "esponjas sofisticadas". Estas entidades absorben y exprimen patrones con una eficacia asombrosa, pero su interior carece de la estructura dinámica necesaria para la verdadera cognición. Son aproximadores de funciones limitados por su propio marco de codificación, atrapados en una jaula matemática que les permite interpolar datos existentes pero les prohíbe fundamentalmente la extrapolación creativa y el entendimiento semántico que caracterizan a la inteligencia biológica.
Para entender la gravedad de esta afirmación, debemos retroceder y examinar cómo definimos la inteligencia misma. El estudio señala que la comunidad de IA ha caído en una trampa filosófica al adoptar una definición "de arriba hacia abajo" de la inteligencia. Hemos definido ser inteligente basándonos en la observación de comportamientos externos (como pasar el Test de Turing o escribir un ensayo coherente) en lugar de una comprensión "de abajo hacia arriba" de los mecanismos que generan esos comportamientos. Al hacerlo, hemos creado máquinas que son excelentes actores, capaces de interpretar el papel de un ser inteligente sin poseer ninguna de las cualidades internas del personaje. Es el equivalente a construir un avión que bate las alas para imitar a un pájaro, ignorando los principios aerodinámicos fundamentales que permiten el vuelo. Esta obsesión con la fenomenología, con lo que la máquina parece hacer, nos ha cegado ante la realidad de lo que la máquina es estructuralmente.
🧠 Escenario: La Habitación China Infinita
El Experimento Clásico: John Searle propuso que un hombre en una habitación con un libro de reglas podría traducir chino sin entenderlo, simplemente siguiendo instrucciones de manipulación de símbolos. Los defensores de la IA actual dirían que si el libro es lo suficientemente grande, el hombre entiende chino.
La Crítica de Khanh: El estudio actual argumenta que escalar el libro de reglas (los parámetros del modelo) a un tamaño infinito no cambia el hecho de que el hombre sigue sin saber chino. No importa si el modelo tiene 100 billones de parámetros; sigue siendo un sistema de manipulación de símbolos sintácticos sin acceso a la semántica. La comprensión no emerge del volumen de reglas, sino de una arquitectura capaz de relacionar esos símbolos con la realidad, algo de lo que carecen las redes neuronales actuales.
El Resultado: Tenemos sistemas que pueden escribir poesía en chino sin saber qué es el amor, el dolor o una metáfora. Son traductores perfectos en un mundo vacío de significado.
La insuficiencia arquitectónica y el mito del escalado
Uno de los puntos más contundentes del análisis es la crítica directa a las "Leyes de Escalado Neural" (Neural Scaling Laws), que se han convertido en el evangelio de empresas como OpenAI y Anthropic. Estas leyes, que observan una correlación empírica entre el tamaño del modelo, la cantidad de datos y la reducción del error, se han interpretado erróneamente como una hoja de ruta garantizada hacia la AGI. Khanh argumenta que esto es una heurística ingenieril interesante, pero no una ley fundamental de la inteligencia. Extrapolar que simplemente haciendo los modelos más grandes se alcanzará la consciencia es como asumir que si construimos una escalera lo suficientemente alta, eventualmente llegaremos a la Luna. Hay un límite estructural intrínseco en la arquitectura de red neuronal actual que ninguna cantidad de cómputo puede superar.
El problema radica en que las redes neuronales, incluidas las arquitecturas Transformer que impulsan los LLMs, son aproximadores de funciones estáticas. Una vez entrenadas, su estructura está congelada. No tienen la capacidad de reestructurarse dinámicamente para aprender nuevos conceptos fundamentales sin un reentrenamiento externo. El estudio distingue crucialmente entre dos tipos de aprendizaje: el aprendizaje operacional (ajustar pesos para minimizar el error en una tarea dada) y el aprendizaje estructural (la capacidad de modificar la propia arquitectura interna para acomodar nuevos paradigmas de realidad). Los sistemas actuales son maestros del primero pero son completamente incapaces del segundo. La inteligencia biológica, por el contrario, se caracteriza por una plasticidad estructural constante; nuestros cerebros no solo ajustan conexiones, sino que reconfiguran sus redes físicas en respuesta a nuevas experiencias.
Además, el estudio resucita y moderniza críticas filosóficas clásicas como el Argumento de la Habitación China de Searle y los argumentos Gödelianos de Lucas y Penrose, aplicándolos al contexto moderno del aprendizaje profundo. Se señala que los modelos actuales operan bajo una "insuficiencia arquitectónica": están diseñados para interpolar dentro del espacio de datos que han visto, pero fallan catastróficamente cuando se les pide que extrapolen verdaderamente fuera de ese dominio (el problema del marco o "frame problem"). Un modelo puede jugar ajedrez mejor que cualquier humano porque el ajedrez es un sistema cerrado y finito, pero fracasa al intentar navegar el sentido común del mundo real, que es abierto, infinito y lleno de ambigüedades que requieren una comprensión causal y no solo correlacional.
El problema de definir lo "Artificial" y la "Inteligencia"
El documento dedica una sección sustancial a desentrañar la confusión terminológica que plaga el campo. Khanh propone que para avanzar, debemos primero limpiar nuestro lenguaje. La definición de "artificial" es inherentemente subjetiva y antropocéntrica, basada en la distinción arbitraria entre lo que hace el hombre y lo que hace la naturaleza. Si las hormigas construyen una granja de hongos, lo llamamos natural; si nosotros construimos una red neuronal, lo llamamos artificial. Esta distinción es inútil para una teoría rigurosa. El autor sugiere una definición más formal basada en la intencionalidad y la capacidad de un sujeto creador para interpretar su creación dentro de su propio sistema lógico.
Más problemática aún es la definición de "inteligencia". El estudio recopila definiciones históricas que van desde la capacidad de adaptación biológica hasta la simple capacidad de procesar información. Sin embargo, destaca que la mayoría de las definiciones actuales en IA son circulares o están diseñadas para encajar con lo que las máquinas ya pueden hacer (el enfoque de "subir el listón" o mover la portería). Khanh argumenta a favor de una visión de "inteligencia fragmentada", donde aceptamos que un sistema puede exhibir inteligencia en dominios específicos sin poseer una Inteligencia General. La AGI, bajo esta luz, se redefinió no como una entidad mágica que emerge de repente, sino como un sistema hipotético que podría abarcar todo el espacio de cualidades inteligentes posibles, una meta que requiere una integración interna profunda y no solo la yuxtaposición de módulos especializados.
✅ Por qué es saludable este escepticismo
Evita el invierno de la IA: Al ajustar las expectativas a la realidad, evitamos el colapso de la inversión y el interés que ocurre cuando las promesas exageradas no se cumplen.
Redirecciona recursos: En lugar de quemar billones en entrenar modelos marginalmente mejores, podemos invertir en investigar nuevas arquitecturas fundamentales que sí podrían llevarnos a la AGI.
Mejora la seguridad: Entender que los modelos no "piensan" realmente nos ayuda a diseñar mejores guardarraíles y a no confiarles decisiones críticas basándonos en una falsa atribución de agencia moral o racional.
Fomenta la innovación real: Reconocer que estamos en un callejón sin salida teórico es el primer paso para descubrir nuevos caminos, quizás inspirados en la biología, la física o la teoría de sistemas complejos.
⚠️ Las consecuencias de ignorar la teoría
Alucinaciones persistentes: Si el problema es arquitectónico y no de datos, las alucinaciones nunca se resolverán por completo con más entrenamiento, haciendo que los sistemas sean inherentemente poco fiables para la verdad factual.
Fragilidad sistémica: Los modelos que no entienden el "por qué" de sus acciones son frágiles ante situaciones nuevas (fuera de la distribución), lo que los hace peligrosos en entornos del mundo real impredecibles.
Hacia un nuevo marco: instalaciones existenciales y operacionales
Lejos de ser puramente destructivo, el estudio propone un camino a seguir. Khanh introduce un marco conceptual que distingue entre las "instalaciones existenciales" (el sustrato computacional, el hardware, la capacidad de memoria) y la "organización arquitectónica" (las estructuras interpretativas, el software, la mente). Argumenta que hemos avanzado enormemente en las instalaciones existenciales —tenemos el poder de cómputo para simular cerebros— pero estamos en la edad de piedra en cuanto a la organización arquitectónica. La solución no es más silicio, sino mejor teoría. Necesitamos sistemas que posean mecanismos internos para la formación de significado, sistemas que no solo procesen símbolos, sino que los "conecten" a la realidad a través de una experiencia sensorial o simulada rica y dinámica.
El autor sugiere que el futuro de la IA podría no estar en las redes neuronales tal como las conocemos, sino en un enfoque híbrido o completamente nuevo que incorpore principios de sistemas autopoiéticos (sistemas que se crean y mantienen a sí mismos). Imagina una IA que comienza desde cero, no con un pre-entrenamiento masivo de datos humanos, sino con un conjunto de reglas básicas de interacción con un entorno, y que desarrolla su propia estructura de inteligencia a través de una evolución acelerada. Esto sería un verdadero aprendizaje estructural, en contraposición al aprendizaje operacional de ajuste de parámetros que domina hoy en día.
En última instancia, el estudio concluye que el campo de la IA necesita una corrección de rumbo urgente. Debemos dejar de confundir la competencia lingüística con la competencia cognitiva. El hecho de que una máquina pueda hablar con fluidez no significa que tenga algo que decir. Al reconocer las redes neuronales actuales como lo que son —herramientas estadísticas increíblemente poderosas y útiles, pero fundamentalmente limitadas— podemos dejar de perseguir el espejismo de la AGI a través de la fuerza bruta y comenzar la verdadera y difícil labor científica de entender qué es la inteligencia y cómo se puede, si es que se puede, construir artificialmente desde los primeros principios. La fiesta del escalado puede estar llegando a su fin, pero la verdadera ciencia de la inteligencia artificial apenas está comenzando.
Referencias
Khanh, B. G. (2025). Foundations of Artificial Intelligence Frameworks: Notion and Limits of AGI. arXiv preprint arXiv:2511.18517.
Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences.
Kaplan, J., et al. (2020). Scaling laws for neural language models. arXiv preprint arXiv:2001.08361.
Penrose, R. (1989). The Emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics. Oxford University Press.
Chowdhery, A., et al. (2022). PaLM: Scaling language modeling with pathways. arXiv preprint arXiv:2204.02311.



