Por Benjamín Vidal, Periodista Especializado en Inteligencia Artificial y Ciencia y Datos, para Mundo IA
Razonamiento de ingeniería inversa para la generación abierta
En el ecosistema de la inteligencia artificial hay una promesa que entusiasma y, al mismo tiempo, una carencia que inquieta. Los modelos de lenguaje escriben con soltura, traducen con naturalidad, resumen con eficiencia y dialogan con una fluidez sorprendente. Sin embargo, cuando se les exige algo más que enhebrar oraciones plausibles, cuando la tarea es abierta, ambigua o creativa, afloran debilidades conocidas: razonamientos que se deshilachan, pasos intermedios que no se sostienen, justificaciones que suenan convincentes pero carecen de fundamento. En otras palabras, brilla la superficie, titubea el proceso.
El trabajo Reverse-Engineered Reasoning for Open-Ended Generation interviene precisamente en ese flanco. Propone una forma distinta de enseñar a los modelos a pensar con orden cuando la consigna no tiene una única respuesta correcta. La idea puede describirse sin tecnicismos: si ya contamos con ejemplos de textos finales que consideramos de alta calidad, podemos intentar descubrir un itinerario de pensamiento que explique por qué ese resultado es razonable. No se trata de adivinar la mente humana, sino de reconstruir una cadena de decisiones plausible que, de haber existido, habría conducido a la misma salida. Ese itinerario se vuelve un andamio para el propio modelo. Si el sistema aprende miles de veces a vincular una consigna con una ruta de razonamiento y una respuesta final, internaliza hábitos de planificación, control y revisión.
La propuesta recibe el nombre de Reverse-Engineered Reasoning, o REER. Su estrategia combina búsqueda guiada con una señal medible que no depende de jueces humanos: la perplejidad, un indicador de cuán esperable resulta un texto para el modelo dado cierto contexto. El procedimiento crea trayectorias de pensamiento que reducen la sorpresa del texto final. Si una ruta hace que la salida sea menos sorprendente para el modelo, entonces esa ruta explica mejor el resultado y, por lo tanto, es una buena candidata para ser aprendida.
Para llevar la idea a la práctica, los autores curan un conjunto de datos específico, DeepWriting-20K, con veinte mil tríos compuestos por consigna, trayectoria de pensamiento y salida final. Y afinan un modelo de 8 mil millones de parámetros, DeepWriter-8B, para comprobar si el enfoque aporta coherencia estructural, control estilístico y estabilidad narrativa frente a métodos tradicionales. El argumento que recorre todo el trabajo es simple de enunciar y exigente en su implementación: no alcanza con escribir bonito, hay que aprender a organizar el pensamiento.
Cómo funciona el razonamiento inverso
Un ejemplo cotidiano ayuda a fijar ideas. Hagamos el paralelismo con una estudiante que entrega un ensayo excelente. La docente no solo califica el resultado, también pide que reconstruya el proceso: planificación, alternativas pesadas, decisiones, pruebas y correcciones. No busca un relato ornamental, requiere una explicación funcional del camino. Ese ejercicio obliga a explicitar objetivos, descartar desvíos, resolver contradicciones y, llegado el caso, rehacer un tramo.
REER lleva ese espíritu al terreno de los modelos de lenguaje. Dadas una consigna y una salida final de calidad, se busca una trayectoria intermedia que, al proporcionarse como guía, vuelva natural el texto final para el modelo. La clave está en formular la reconstrucción como un problema de búsqueda. Se parte de un plan tentativo y se lo mejora de manera iterativa y localizada. En cada iteración se edita un segmento de la trayectoria, se generan variantes y se evalúa cuál de ellas reduce más la perplejidad del texto final. Si la mejora es significativa, se adopta el cambio. El proceso continúa hasta que las mejoras se vuelven marginales o se alcanza el límite previsto.
El resultado de esa búsqueda no es un razonamiento único, sino una ruta plausible. Y esa plausibilidad es operativa, no psicológica. Nadie afirma que una persona humana hubiera pensado exactamente de ese modo. Lo que importa es que la ruta enseña a planificar y a controlar, y que esa guía mejora la calidad de la generación en tareas abiertas. El modelo deja de confiar solo en su intuición estadística y empieza a apoyarse en un guion de decisiones.
Un rasgo apreciable del método es que evita dos dependencias problemáticas. Por un lado, no requiere un docente que exponga cadenas de pensamiento modelo a seguir. Por otro, no depende de evaluadores humanos que puntúen respuestas creativas de manera sistemática, algo costoso y subjetivo. La señal utilizada es barata, abundante y coherente con el propio entrenamiento de lenguaje: la perplejidad. Cuando la trayectoria está bien armada, el texto final se vuelve más probable bajo el modelo y la medida cae.
La reconstrucción tiende a producir piezas intermedias con funciones reconocibles: establecer propósito y audiencia, bosquejar estructura, anticipar transiciones, evaluar riesgos de incoherencia, decidir el tono, señalar posibles redundancias, proponer alternativas y justificar la elección. En suma, enseña hábitos de escritura que un autor experimentado aplica sin nombrarlos. Convertir esos hábitos en pasos explícitos facilita la auditoría y ofrece puntos de control donde un editor humano puede intervenir antes de llegar al texto final.
DeepWriting-20K y DeepWriter-8B
El esqueleto de REER se vuelve útil cuando puede reproducirse a escala. Para eso se arma DeepWriting-20K, un corpus que reúne consignas variadas, salidas finales consideradas valiosas y trayectorias reconstruidas mediante el procedimiento descrito. La diversidad no es un adorno, es una condición. El razonamiento que funciona en un cuento no es igual al que conviene en una reseña técnica, y el que ordena un ensayo no se parece al que sostiene un diálogo verosímil. Por eso el conjunto abarca géneros y estilos: piezas narrativas, textos expositivos, síntesis, análisis, instrucciones extensas y ejercicios creativos. Parte del material proviene de comunidades públicas de escritura con indicadores sociales de calidad, otra parte de literatura de dominio público y otra de repositorios de ajuste instruccional.
Para evaluar el impacto del enfoque se toma un modelo abierto de referencia de 8 mil millones de parámetros y se lo afina exclusivamente con DeepWriting-20K. El resultado, DeepWriter-8B, no pretende competir por tamaño, persigue mostrar que el método agrega valor. Lo que interesa es si el sistema ajustado con trayectorias reconstruidas escribe con mejor planificación, evita digresiones, sostiene un hilo temático y corrige errores de rumbo con mayor eficacia.
Los bancos de prueba elegidos cubren generación de largo aliento y tareas abiertas con distintos requisitos de organización y claridad. Además de métricas cuantitativas, se comparan ejemplos. Allí se ven diferencias visibles: donde un baseline se entusiasma con una imagen y la estira hasta desgastarla, DeepWriter-8B avanza; donde un baseline pierde el foco, DeepWriter-8B vuelve al plan; donde un baseline rellena con frases de compromiso, DeepWriter-8B decide y justifica. La sensación general es la de un sistema que, al escribir, piensa con un mapa en la mano.
Para cristalizar los contrastes conviene resumir el punto de quiebre con las familias más usadas hasta hoy:
- Los enfoques de refuerzo con preferencias humanas mejoran alineación, pero cargan con el costo de la evaluación y con la ambigüedad de los criterios en escritura abierta.
- La destilación hereda el techo del docente y a menudo sacrifica matices de control y planificación al transferir habilidades.
REER esquiva ambos cuellos de botella. No necesita un profesor ejemplar ni una multitud de evaluadores. Descubre rutas a partir de salidas finales que el propio proceso de curaduría considera buenas y utiliza una señal económica para decidir si un cambio mejora o empeora la explicación del resultado.
Resultados, límites e implicaciones
La señal más importante para un lector no especializado no es un porcentaje aislado, sino la dirección. Al entrenar con trayectorias reconstruidas, el modelo aprende a explicitar su intención, a diseñar estructura, a sostener coherencia y a ejercer autocontrol estilístico. Ese aprendizaje se traduce en textos más estables, con menos desvíos gratuitos y con una progresión más clara. Donde antes había ocurrencias atractivas pero dispersas, aparece una línea de desarrollo.
El enfoque, con todo, no es una varita mágica. Hay límites que conviene reconocer. La reconstrucción depende de contar con salidas finales de calidad. Si lo que se explica es mediocre o sesgado, la ruta también lo será. La perplejidad es un indicador útil, pero no captura por sí sola originalidad, belleza o impacto emocional. Un texto correcto puede ser previsible. Y la generalización no es infinita: un modelo afinado para escribir mejor no reemplaza de la noche a la mañana las herramientas específicas necesarias para tareas de verificación factual o para dominios de alta especialización.
Hay además un matiz conceptual. Las trayectorias reconstruidas son plausibles, no equivalen a un pensamiento humano real. Funcionan como guías operativas y como registros de auditoría, no como ventanas a una conciencia. Esa distinción importa cuando se discute explicabilidad en áreas sensibles. Aun así, el valor práctico es claro: ofrecer un andamio donde antes había intuición.
Las implicaciones sociales y profesionales son tangibles. En periodismo, educación y comunicación pública, un sistema que planifica y se corrige reduce el tiempo de edición, facilita el control de calidad y permite intervenir de manera temprana. En la industria creativa, la posibilidad de dialogar con rutas de pensamiento convierte al modelo en un colaborador que expone sus decisiones y acepta ajustes. En entornos regulados, la trazabilidad de las trayectorias habilita mecanismos de responsabilidad técnica que hoy son difíciles de exigir a cajas negras.
Mirando hacia adelante, se abren varias líneas de trabajo. Integrar verificadores externos a los pasos de la trayectoria para chequear hechos y cálculos. Diseñar criterios complementarios a la perplejidad que valoren originalidad y economía expresiva. Desarrollar memorias de largo plazo que permitan sostener decisiones a lo largo de capítulos o piezas seriadas. Adaptar el método a dominios específicos con curadurías acordes a cada práctica profesional. Y explorar cómo personalizar trayectorias de pensamiento para estilos autorales distintos sin perder calidad estructural.
El efecto más interesante, quizá, es el cambio de foco. Durante años la consigna fue multiplicar parámetros y agrandar ventanas de contexto. Ese camino dio frutos extraordinarios, pero enfrenta costos crecientes y retornos decrecientes. REER sugiere otra prioridad: enseñar método, no solo escalar músculo. Si un sistema aprende a organizar su escritura, a sopesar alternativas y a revisar con criterio, la ganancia en confiabilidad puede superar la que se obtiene por aumento bruto de tamaño.
Mirada final
La cuestión de fondo no es si una máquina puede escribir, sino si puede sostener un pensamiento cuando la tarea lo exige. Reverse-Engineered Reasoning for Open-Ended Generation ofrece una ruta concreta para avanzar en esa dirección. Reconstruir el camino que explica una buena salida no es una maniobra cosmética, es una forma de enseñar hábitos de composición que hacen visible lo que antes estaba implícito. Al final, la calidad rara vez es un accidente. Es propósito, es organización, es prueba y corrección. Si los modelos incorporan ese espíritu, si aprenden a planificar, a justificar y a rectificar, estaremos más cerca de sistemas que no solo producen texto, sino que también se hacen responsables de cómo lo construyen.
Wang, H., Que, H., Xu, Q., Liu, M., Zhou, W., Feng, J., Zhong, W., Ye, W., Yang, T., Huang, W., Zhang, G., y Lin, F. (2025). Reverse-Engineered Reasoning for Open-Ended Generation. arXiv:2509.06160.
Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., et al. (2022). Training language models to follow instructions with human feedback. arXiv:2203.02155.
Wei, J., Wang, X., Schuurmans, D., et al. (2022). Chain-of-thought prompting elicits reasoning in large language models. arXiv:2201.11903.
Zelikman, E., Wu, Y., y Goodman, N. D. (2022). STaR: Bootstrapping reasoning with reasoning. arXiv:2203.14465.
Touvron, H., et al. (2023). LLaMA: Open and efficient foundation language models. arXiv:2302.13971.
Kojima, T., et al. (2022). Large language models are zero-shot reasoners. arXiv:2205.11916.