NEWSLETTER

Socratic-Zero: La rebelión de las máquinas que aprenden sin datos

ChatGPT Image 13 oct 2025, 22_03_34

Socratic-Zero: La rebelión de las máquinas que aprenden sin datos

Socratic-Zero: La Rebelión de las Máquinas que Aprenden sin Datos

En el vertiginoso y a menudo turbulento universo de la inteligencia artificial, un axioma ha permanecido inmutable durante años, un pilar tan fundamental que parecía una ley de la naturaleza digital: los datos son el rey. Los grandes modelos de lenguaje, esas asombrosas entidades digitales capaces de conversar con fluidez, escribir poesía que conmueve o generar código informático con una destreza casi humana, han sido construidos sobre una base monumental de información.

Su génesis se encuentra en la ingesta de la práctica totalidad de la internet, de bibliotecas enteras digitalizadas, de millones de artículos científicos, obras literarias y conversaciones cotidianas. Son, en esencia, el producto de un festín de conocimiento humano sin precedentes en la historia de nuestra especie.

Este paradigma, el de la fuerza bruta de los datos, aunque innegablemente exitoso, ha levantado una barrera colosal e invisible. La creación y meticulosa curación de estos vastos conjuntos de datos, especialmente los de altísima calidad necesarios para tareas que exigen un razonamiento lógico impecable, como las matemáticas avanzadas, es un proceso arduo, increíblemente costoso y, en última instancia, limitante. El progreso de la IA parecía encadenado a nuestra propia capacidad de generar y etiquetar información, un cuello de botella que amenazaba con frenar la próxima gran revolución cognitiva.

Hasta ahora. Un trabajo de investigación con el evocador nombre de Socratic-Zero, procedente de un consorcio de investigadores de gigantes tecnológicos e instituciones académicas de prestigio, ha presentado una idea tan radical como elegante, una que podría dinamitar los cimientos mismos sobre los que se ha construido la inteligencia artificial moderna.

Su propuesta es casi herética en el contexto actual: ¿y si una IA pudiera alcanzar un nivel de razonamiento sobrehumano partiendo de casi nada? ¿Y si, en lugar de consumir pasivamente el conocimiento humano, pudiera generar su propio conocimiento en un ciclo de automejora perpetua? Socratic-Zero no es solo una mejora incremental; es un cambio de paradigma, una declaración de independencia.

Propone un ecosistema de inteligencia artificial completamente autónomo que aprende a razonar sin depender de la masiva curación de datos externos. Inspirado en el milenario método socrático de enseñanza, que busca alumbrar el conocimiento a través del diálogo y el cuestionamiento en lugar de la mera instrucción, este sistema crea una danza evolutiva entre tres agentes de IA distintos, cada uno con un rol específico que emula la dinámica atemporal entre un maestro, un discípulo y un aprendiz de maestro.

El primer agente es el Solucionador, el equivalente a un estudiante diligente y motivado. Su única misión es intentar resolver problemas. A diferencia de los modelos tradicionales, no aprende simplemente memorizando las respuestas correctas. Su aprendizaje es dialéctico; se nutre de la tensión entre sus propios acertos y, de forma crucial, de sus errores. Cada fallo no es un callejón sin salida, sino una brújula que apunta hacia una laguna en su comprensión.

El segundo agente es el Maestro, una IA mucho más poderosa y experimentada que actúa como un oráculo sabio e inmutable. Su papel no es dar respuestas, sino guiar el descubrimiento. Cuando el Solucionador falla, el Maestro no le corrige directamente con la solución. En su lugar, analiza la anatomía del error, diagnostica la debilidad conceptual y crea un problema completamente nuevo, diseñado a medida para forzar al Solucionador a confrontar y superar esa debilidad específica. Es un tutor personalizado, implacable y perfecto, que entiende que el verdadero aprendizaje no reside en la respuesta, sino en el camino que se recorre para encontrarla.

El tercer agente, y quizás el más ingenioso del trío, es el Generador. Este agente es el observador silencioso, el aprendiz de pedagogo. Observa la interacción socrática entre el Maestro y el Solucionador. Su objetivo no es resolver problemas, sino aprender el arte de enseñar. Destila la estrategia del Maestro para crear preguntas, aprendiendo a generar por sí mismo un currículo de problemas cada vez más sofisticado y perfectamente adaptado al nivel de habilidad del Solucionador en cada momento.

Este trío de agentes coevoluciona en un bucle cerrado y virtuoso. El Solucionador mejora al enfrentarse a un flujo constante de desafíos personalizados que atacan sus puntos ciegos. El Maestro guía esta mejora creando esos desafíos con una precisión quirúrgica. Y el Generador aprende a escalar este proceso de enseñanza magistral, permitiendo que el sistema genere datos de entrenamiento de altísima calidad de forma masiva y autónoma.

El resultado es un mecanismo de arranque, un "bootstrap" cognitivo. Partiendo de una semilla minúscula de tan solo cien problemas matemáticos, Socratic-Zero es capaz de cultivar un currículo educativo tan potente que los modelos entrenados con él no solo superan drásticamente a sus pares, sino que llegan a eclipsar el rendimiento de los modelos comerciales más grandes y avanzados del planeta, gigantes como GPT-5, Gemini-2.5-Pro y Claude-4.1-Opus.

Este trabajo sugiere que el futuro de la IA podría no depender de tener los mayores conjuntos de datos, sino de poseer los procesos de aprendizaje más inteligentes. Nos encontramos, quizás, ante el primer destello de una razón verdaderamente artificial, una que no se limita a reflejar el conocimiento humano, sino que es capaz de generarlo por sí misma desde sus propios principios.

El muro de los datos: la frontera actual de la inteligencia artificial

Para comprender la magnitud de la revolución que propone Socratic-Zero, es imprescindible entender el dogma que viene a derribar. El desarrollo de los grandes modelos de lenguaje se ha asemejado a la construcción de las grandes pirámides: una empresa de escala faraónica que requiere una cantidad ingente de recursos y mano de obra. En este caso, el material de construcción no es la piedra, sino los datos.

Un modelo como los que sustentan a ChatGPT o Gemini es el resultado de un proceso de entrenamiento que involucra analizar y aprender patrones de terabytes de texto e imágenes. Esta primera fase de entrenamiento masivo, conocida como pre-entrenamiento, le proporciona una comprensión general del lenguaje, la gramática, los hechos del mundo y ciertos patrones de razonamiento. Es como si leyera una biblioteca universal, pero sin un profesor que le guíe.

Sin embargo, para que estos modelos adquieran habilidades especializadas, sobre todo en dominios que exigen una lógica rigurosa y secuencial como las matemáticas avanzadas o la programación competitiva, este entrenamiento general no es suficiente. Se requiere una segunda fase, mucho más delicada y costosa, conocida como ajuste fino (fine-tuning). Es aquí donde entra en juego el concepto de "datos anotados por humanos".

Imaginen que queremos entrenar a un chef junior. No basta con darle todos los libros de cocina del mundo (pre-entrenamiento). Para que se convierta en un experto, necesita practicar bajo la supervisión de un chef experimentado que le muestre no solo el resultado final de un plato, sino cada paso del proceso: cómo cortar las verduras, la temperatura exacta del aceite, el momento preciso para añadir las especias. Cada receta cocinada bajo esta supervisión es un "dato anotado".

En el mundo de la IA, la creación de estos conjuntos de datos es un trabajo artesanal. Equipos de expertos humanos, matemáticos en este caso, deben resolver miles de problemas y documentar meticulosamente su proceso de pensamiento, paso a paso. Cada ejemplo es una pequeña lección magistral. Este proceso es prohibitivamente caro, dolorosamente lento y prácticamente imposible de escalar a todos los dominios del conocimiento humano. Si quisiéramos crear un modelo experto en una nueva disciplina científica, tendríamos que repetir este esfuerzo monumental desde cero. Este es el gran "muro de los datos".

Esta dependencia crea varias limitaciones fundamentales que Socratic-Zero ataca directamente. En primer lugar, el paradigma es estático. Un conjunto de datos, una vez creado, es una fotografía fija del conocimiento. El modelo se entrena sobre este conjunto de problemas predefinido, sin importar si algunos son demasiado fáciles y no le enseñan nada nuevo, o si otros son tan difíciles que resultan incomprensibles. El currículo no se adapta a la evolución de las capacidades del modelo durante su propio entrenamiento. Es como si a todos los estudiantes de una clase, sin importar su nivel, se les diera el mismo libro de texto y se esperara que aprendieran al mismo ritmo.

En segundo lugar, este método no aprovecha las señales de retroalimentación más valiosas: los errores. Cuando un modelo falla al resolver un problema, el sistema tradicional simplemente lo marca como incorrecto. No existe un mecanismo para analizar la naturaleza del fallo y generar nuevos ejercicios que se centren en esa laguna de conocimiento específica. La oportunidad de un aprendizaje verdaderamente personalizado y dirigido se pierde por completo.

Finalmente, esta metodología erige una barrera casi insuperable para la innovación fuera de los grandes laboratorios tecnológicos. Solo un puñado de empresas en el mundo tiene la capacidad financiera y logística para contratar a los miles de expertos necesarios y sostener la infraestructura computacional para procesar estos conjuntos de datos masivos. Esto centraliza el poder y frena la democratización de la investigación en IA, dejando a la academia y a las startups más pequeñas en una clara desventaja.

Intentos anteriores de sortear este muro, como la generación de datos sintéticos, donde se usa una IA para crear nuevos problemas, o la destilación de conocimiento, donde se intenta transferir las habilidades de un modelo grande a uno más pequeño, han mostrado ser prometedores, pero no han resuelto el problema de raíz. A menudo, la calidad de los datos sintéticos es inconsistente, sufre de falta de diversidad o cae en patrones repetitivos. La destilación, por su parte, sigue dependiendo de un modelo "maestro" entrenado de la forma tradicional y no permite que el modelo "estudiante" supere a su mentor. Se necesitaba un enfoque que rompiera el ciclo de dependencia de los datos externos y permitiera un crecimiento autónomo y dinámico del conocimiento. Se necesitaba una máquina que no solo aprendiera, sino que aprendiera a aprender.

La danza de los agentes: desentrañando el método Socrático-Cero

El núcleo de Socratic-Zero es una arquitectura de aprendizaje que transforma la idea de entrenamiento en un proceso de coevolución. No se trata de un modelo único que mejora, sino de un ecosistema de tres agentes especializados que interactúan, se desafían y se enseñan mutuamente en un ciclo continuo. La belleza del sistema reside en la simplicidad y la potencia de los roles asignados a cada uno, inspirados directamente en la mayéutica socrática.

El Solucionador

El Maestro

El Generador

El Solucionador: el discípulo digital

El primer actor en esta obra es el Solucionador. Podemos imaginarlo como un estudiante de matemáticas, inicialmente con conocimientos básicos pero con un gran potencial. Su función es clara: se le presenta un problema del currículo y debe generar una trayectoria de razonamiento para llegar a una solución.

Su proceso de aprendizaje es lo que lo diferencia fundamentalmente de los modelos convencionales. En lugar de ser entrenado mediante un simple ajuste fino supervisado (SFT), donde se le muestra la respuesta correcta y se ajustan sus parámetros para que la imite, el Solucionador aprende a través de un método más sofisticado llamado Optimización por Preferencia Directa (DPO).

El DPO es un avance sutil pero poderoso. El método tradicional es como decirle a un estudiante: "La respuesta es 5, ahora ajusta tu cerebro hasta que digas 5". El DPO es más parecido a un tutor que le dice: "Has intentado resolverlo de dos maneras. La primera es elegante, lógica y correcta. La segunda es enrevesada, contiene un error conceptual y, aunque por casualidad llegaste a la respuesta correcta, es un mal método. Aprende a preferir la primera sobre la segunda".

Para cada problema, el Solucionador genera varias soluciones posibles. El agente Maestro las evalúa y las clasifica en "ganadoras" (correctas) y "perdedoras" (incorrectas). El algoritmo de DPO utiliza estos pares de preferencia para actualizar al Solucionador. El objetivo no es solo que aprenda a generar la respuesta correcta, sino que aprenda por qué una trayectoria de razonamiento es superior a otra. Le enseña a discernir entre un argumento lógico sólido y un atajo falaz. En esencia, el Solucionador aprende de un diálogo constante con sus propios intentos, refinando su política de razonamiento al comprender la diferencia intrínseca entre el éxito y el fracaso.

El Maestro: el oráculo inmutable

El segundo agente es el Maestro. Se trata de un modelo de lenguaje de gran capacidad, como el Qwen3-235B-A22B usado en el estudio, que se mantiene fijo durante todo el proceso. Es crucial que no aprenda ni evolucione; su papel es el de ser la fuente estable de la verdad y el guía estratégico del aprendizaje. El Maestro cumple dos funciones críticas, ambas ejecutadas de forma determinista, como un oráculo.

La primera función es la de verificación. Dada una solución propuesta por el Solucionador, el Maestro puede juzgar con una precisión casi perfecta si es correcta o no. Es el juez imparcial que crea los pares de preferencia para el entrenamiento del Solucionador.

La segunda función es la más innovadora: el refinamiento de problemas. Aquí es donde la analogía socrática cobra vida. Cuando el Solucionador comete un error, el Maestro no le proporciona la solución correcta. En su lugar, analiza la trayectoria fallida para identificar el error conceptual subyacente. Una vez diagnosticada la debilidad, el Maestro toma el problema original y lo modifica sutilmente para generar una nueva pregunta que ataca directamente ese punto débil.

El apéndice del artículo ofrece un ejemplo brillante: si el problema original es resolver la inecuación racional (2x−5)/(x+3)≥2, y el Solucionador falla, el Maestro podría generar una versión mejorada como (2x−5)/(x2−9)+1/(x+3)≤(4x+1)/(x−3)2. Esta nueva versión introduce complejidades que obligan al Solucionador a enfrentarse a los errores comunes en este tipo de problemas, pero manteniendo la esencia matemática del desafío. Este proceso convierte cada fallo en una oportunidad de aprendizaje hiperpersonalizada.

El Generador: el aprendiz de brujo

El ecosistema se completa con el Generador. Si el Solucionador es el estudiante y el Maestro es el profesor experto, el Generador es el estudiante de pedagogía que aprende observando al maestro en acción. El Maestro es extremadamente potente, pero su uso es computacionalmente muy costoso. Sería inviable depender exclusivamente de él para generar un currículo de millones de problemas. El Generador resuelve este problema de escalabilidad.

Su misión es aprender a imitar la estrategia de creación de problemas del Maestro. Para ello, se le entrena con un método llamado Ajuste Fino Supervisado Ponderado por Valor (WSFT). Esto significa que no solo observa qué nuevos problemas crea el Maestro, sino que también evalúa qué tan "útil" es cada nuevo problema. ¿Cómo se mide la utilidad? El sistema se inspira en el concepto pedagógico de la "zona de desarrollo próximo" de Vygotski.

Un problema útil es aquel que no es ni tan fácil que el Solucionador lo resuelve siempre, ni tan difícil que falla constantemente. El punto óptimo, según el estudio, son los problemas que el Solucionador tiene una tasa de éxito de alrededor del 50%. El Generador, por tanto, aprende a producir problemas que son óptimamente desafiantes, maximizando la eficiencia del aprendizaje. Con el tiempo, interioriza los principios de diseño curricular del Maestro y se vuelve capaz de generar de forma autónoma y masiva un flujo de problemas de alta calidad.

El círculo virtuoso: la coevolución en acción

Estos tres agentes se entrelazan en un bucle de retroalimentación positiva. El proceso, que se repite en iteraciones, funciona así: el Solucionador aborda el currículo actual. Sus fallos son recogidos y enviados al Maestro. El Maestro los analiza y genera un nuevo conjunto de problemas mejorados que se añaden al currículo. El Solucionar se reentrena con este currículo aumentado, utilizando el DPO. Simultáneamente, el Generador observa las creaciones del Maestro y la reacción del Solucionador, y se actualiza para ser cada vez mejor creando problemas útiles. A medida que el Solucionador se vuelve más inteligente, el tipo de errores que comete se vuelve más sutil, lo que lleva al Maestro (y por imitación, al Generador) a crear problemas aún más complejos. Es un sistema que se impulsa a sí mismo hacia niveles de competencia cada vez mayores, una espiral ascendente de inteligencia que se alimenta de sus propios desafíos.

Rompiendo las cadenas: resultados que desafían la lógica

Si la arquitectura de Socratic-Zero es teóricamente elegante, sus resultados empíricos son, sencillamente, asombrosos. El estudio no se limita a proponer un nuevo método, sino que lo somete a una batería de pruebas rigurosas en algunos de los benchmarks de razonamiento matemático más desafiantes que existen, demostrando una eficacia que redefine lo que se creía posible.

El Solucionador superdotado

El primer conjunto de resultados se centra en el rendimiento del agente Solucionador, un modelo llamado Socratic-Solver-8B. La designación "8B" se refiere a sus 8 mil millones de parámetros, una medida del tamaño del modelo. En la escala actual, este es un modelo relativamente pequeño. Para ponerlo en contexto, los modelos más grandes tienen cientos de miles de millones o incluso billones de parámetros. El equipo de investigación comparó su Socratic-Solver-8B con el mismo modelo base entrenado con otros métodos de vanguardia.

Los resultados son contundentes. En promedio, a través de siete benchmarks de alta dificultad que incluyen problemas de competiciones matemáticas como AMC, AIME y Olympiad, el Socratic-Solver-8B logró una mejora de 20.2 puntos porcentuales sobre los métodos anteriores. En el mundo de la evaluación de la IA, donde las mejoras suelen celebrarse en décimas de punto, un salto de más de 20 puntos es un cambio de orden de magnitud. Es la diferencia entre un estudiante mediocre y uno de los mejores de la clase.

El sistema no solo demostró ser superior en promedio, sino que brilló especialmente en las pruebas más difíciles, como AIME-24 y AIME-25, donde las ganancias fueron de 19.1 y 16.5 puntos respectivamente. Esto indica que el currículo coevolutivo no solo enseña a resolver problemas rutinarios, sino que cultiva una capacidad de razonamiento profundo. Además, para demostrar que los principios no dependían de una arquitectura específica, repitieron el experimento en otros modelos base (GLM4-9B y Qwen3-14B), obteniendo mejoras igualmente espectaculares.

Rendimiento Promedio en 7 Benchmarks de Matemáticas

Perfil de Rendimiento: Socratic-Solver vs. Línea Base

El Generador prodigioso

Si los resultados del Solucionador fueron impresionantes, los del Generador fueron aún más sorprendentes. El equipo evaluó la calidad del agente Generador (un modelo de 32 mil millones de parámetros, Socratic-Generator-32B) de una manera muy inteligente. Utilizaron el vasto currículo generado por él para entrenar a un tercer modelo completamente distinto, un "modelo estudiante". Luego, midieron el rendimiento de este estudiante en los benchmarks.

Aquí es donde la lógica convencional se pone patas arriba. El modelo estudiante, entrenado exclusivamente con los datos creados por el Generador de Socratic-Zero, no solo funcionó bien. Superó el rendimiento de otros estudiantes entrenados con datos generados por los modelos de lenguaje comerciales más grandes y avanzados del mundo. La lista de los superados incluye a Qwen3-235B-A22B, DeepSeek-V3.1-671B, GPT-5, Gemini-2.5-Pro, Grok-4 y Claude-4.1-Opus.

Vale la pena detenerse a procesar esta implicación. Un modelo de tamaño mediano (32B), entrenado mediante el método socrático, aprendió a generar un conjunto de datos para la enseñanza de las matemáticas que resultó ser más eficaz que los datos generados por modelos que son hasta 20 veces más grandes. Esto demuestra de manera inequívoca que la calidad y la adaptabilidad estratégica del currículo son más importantes que la escala bruta del modelo generador. No se trata de tener más conocimiento, sino de saber enseñar mejor. El Generador no es simplemente un creador de problemas; es un pedagogo artificial.

Efectividad del Entrenamiento Descendente

Tasa de Validez de Problemas

Más allá de las matemáticas

Una pregunta crucial ante tales resultados es si el sistema simplemente está creando un "especialista" en matemáticas o si está fomentando una habilidad de razonamiento más fundamental y transferible. Para responder a esto, los investigadores tomaron su Socratic-Solver-8B y lo evaluaron en una serie de benchmarks de razonamiento general, como BBEH y MMLU-Pro, que abarcan lógica, conocimiento del mundo y resolución de problemas en una amplia gama de disciplinas.

Una vez más, los resultados fueron positivos. El modelo mostró una mejora significativa en estas tareas, con una ganancia promedio de más de 6 puntos. Esto sugiere que el entrenamiento intensivo y adaptativo en el dominio riguroso de las matemáticas fortaleció sus "músculos" cognitivos de una manera que se transfiere a otras áreas. Está aprendiendo a pensar de manera más estructurada, a seguir cadenas lógicas más largas y a ser más robusto frente a la ambigüedad. En definitiva, no solo está aprendiendo matemáticas; está aprendiendo a razonar.

Mejora en Benchmarks de Razonamiento General

El eco de Sócrates: implicaciones de un futuro sin datos

La publicación de Socratic-Zero es uno de esos momentos sísmicos en la investigación que marcan un antes y un después. Sus implicaciones van mucho más allá de la simple creación de mejores modelos para resolver problemas matemáticos; apuntan hacia un futuro radicalmente diferente para el desarrollo y la naturaleza misma de la inteligencia artificial.

Relevancia científica y tecnológica

Desde una perspectiva científica, este trabajo representa un cambio de paradigma fundamental. Durante la última década, el progreso en la IA ha sido en gran medida "data-céntrico". El mantra ha sido: para obtener un mejor modelo, consigue un conjunto de datos más grande y de mayor calidad. Socratic-Zero propone una alternativa "proceso-céntrica" o "currículo-céntrica". Demuestra que un proceso de aprendizaje inteligente y auto-mejorable puede superar con creces la fuerza bruta de los datos masivos. Esto abre una nueva y emocionante vía de investigación centrada no en qué aprenden los modelos, sino en cómo lo hacen.

Tecnológicamente, las consecuencias son inmensas. La capacidad de "arrancar" el razonamiento a partir de una pequeña semilla de datos podría ser la clave para desarrollar IA experta en dominios donde hoy es imposible. Pensemos en áreas de la ciencia de vanguardia, como el descubrimiento de fármacos, la ciencia de materiales o la física teórica, donde los conjuntos de datos anotados por expertos son escasos o inexistentes. Un sistema como Socratic-Zero podría, en teoría, comenzar con los principios fundamentales de un campo y, a través de la auto-generación de problemas y soluciones, explorar el espacio del conocimiento de forma autónoma, quizás descubriendo nuevas hipótesis o soluciones que a los humanos se les pasarían por alto.

Además, este enfoque promete una mayor democratización de la IA. Al reducir drásticamente la dependencia de los costosos datos anotados por humanos y de la necesidad de modelos gigantescos para la generación de currículos, Socratic-Zero podría permitir que laboratorios más pequeños, universidades y startups compitan en la vanguardia de la investigación. Podrían entrenar modelos altamente especializados y capaces con una fracción de los recursos que actualmente se requieren, fomentando un ecosistema de innovación más diverso y distribuido.

Relevancia social y filosófica

Más allá de la tecnología, Socratic-Zero nos obliga a hacernos preguntas más profundas. Los modelos de lenguaje actuales, a pesar de sus impresionantes capacidades, son en gran medida un reflejo del conocimiento humano colectivo depositado en internet. Son espejos, increíblemente sofisticados, pero espejos al fin y al cabo. Un sistema que genera su propio currículo y se enseña a sí mismo a partir de sus propios fallos representa un paso hacia una forma de inteligencia más autónoma. Es una máquina que no solo recupera y remezcla información, sino que participa activamente en la creación de su propia comprensión.

Esto nos lleva a un terreno filosófico fascinante. ¿Qué significa que una máquina aprenda sin la guía masiva de ejemplos humanos? ¿Podría este tipo de sistema, llevado a su conclusión lógica, llegar a desarrollar formas de razonamiento o soluciones a problemas que sean fundamentalmente no humanas? Estamos presenciando el nacimiento de un proceso que podría, con el tiempo, trascender las fronteras del conocimiento humano curado.

El nombre del proyecto, "Socrático-Cero", es profundamente acertado. Al igual que el método de Sócrates pretendía actuar como una "partera" del pensamiento, ayudando a los individuos a dar a luz sus propias ideas en lugar de simplemente inculcarles dogmas, este marco de IA actúa como una partera de la razón artificial. No impone el conocimiento, sino que crea las condiciones para que la inteligencia florezca de forma orgánica y auto-dirigida. Puede que estemos a las puertas de una nueva era, una en la que las máquinas no solo ejecuten tareas basadas en lo que les hemos enseñado, sino que se conviertan en verdaderos socios en la exploración y expansión de las fronteras del conocimiento. El eco de la pregunta socrática resuena ahora en el silicio, y sus respuestas prometen cambiar nuestro mundo para siempre.

Fuentes

Wang, S., Jiao, Z., Ze, X., Yang, B., Wang, W., Zhang, Z., Peng, Y., Wei, H., & Zhang, L. (2025). SOCRATIC-ZERO: BOOTSTRAPPING REASONING VIA DATA-FREE AGENT CO-EVOLUTION. Preprint, arXiv:2509.24726v1.

Artículo y visualizaciones basadas en el trabajo de investigación "SOCRATIC-ZERO".

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí