Pensar con errores: el giro socrático en el aprendizaje automático

ChatGPT Image 20 jun 2025, 17_31_42

Pensar con errores: el giro socrático en el aprendizaje automático

Una nueva lógica para enseñar a las máquinas a pensar

Durante años, el aprendizaje automático se desarrolló con una premisa central: si un modelo comete errores, debe corregirse. Si acierta, debe reforzar esa conducta. Esa idea, simple y efectiva, se tradujo en un universo de arquitecturas que optimizan su comportamiento con base en recompensas externas. Así se entrenaron redes para clasificar imágenes, traducir textos o vencer al campeón mundial de Go. Pero cuando se trata de construir inteligencia flexible (capaz de razonar, de adaptarse, de evaluar por qué una acción es válida más allá de su resultado inmediato) esa estrategia empieza a mostrar grietas. Saber qué hacer no es lo mismo que saber por qué.

El artículo Socratic Reinforcement Learning: A Novel Framework for Efficient Knowledge Acquisition through Iterative Reflection and Viewpoint Distillation (Jin et al., 2024) plantea justamente esa diferencia. Lo que sus autores proponen es una nueva forma de enseñanza algorítmica: un sistema que no solo actúa, sino que también interpreta sus propias decisiones, identifica los errores de fondo y desarrolla criterios más duraderos para evitar reincidir. Una máquina que no solo aprende, sino que construye significado a partir de sus equivocaciones.

A diferencia del aprendizaje reforzado clásico, donde todo gira en torno a la recompensa final, este nuevo enfoque busca que el sistema genere una comprensión funcional de los motivos por los cuales se equivoca o acierta. Y para lograrlo, introduce una dinámica de análisis interno completamente distinta.

Un mecanismo de doble agencia

En el centro de este modelo se encuentra una separación fundamental de roles. Por un lado, hay un sistema que se enfrenta a tareas específicas: redactar un resumen, resolver un problema lógico, analizar una situación. Es lo que podríamos llamar el ejecutante. Por otro, aparece un segundo componente, cuya función no es resolver nada directamente, sino observar el razonamiento del primero y extraer de allí observaciones útiles. Esa figura no da instrucciones, ni corrige la respuesta, ni dicta soluciones. Lo que hace es algo más sofisticado: reconstruye el proceso mental que llevó al error (o al acierto), y formula una pauta breve, escrita en lenguaje natural, que intenta capturar el núcleo de esa experiencia.

Esa pauta —llámese nota reflexiva, clave de mejora o regla derivada— no se limita a describir el resultado. Apunta a lo que estuvo mal comprendido. Puede señalar, por ejemplo, que el ejecutante aplicó mal una generalización, que ignoró un matiz en el enunciado, o que sobreestimó la validez de un patrón. Esa observación se almacena, y en tareas futuras, se incorpora al contexto como si fuera una sugerencia. No impone nada. Sugiere. No reemplaza la tarea, la enriquece.

Si esa pauta resulta útil, si permite que el sistema evite repetir el mismo desliz o afine su análisis, entonces se refuerza. Si no produce mejoras, se descarta. Y lo más importante: esas formulaciones también se destilan en la estructura del modelo. Es decir, dejan de estar presentes como frases externas, y pasan a formar parte del sistema de decisiones. Se transforman en intuiciones internas.

Cuando el error se convierte en brújula

Lo radical de este enfoque es que deja de ver el error como un fallo a penalizar, y lo trata como una fuente de estructura. Cada equivocación se vuelve una oportunidad para descubrir qué tipo de razonamiento no fue suficiente. El análisis no se limita al nivel de la respuesta, sino que desciende al plano del proceso. Y eso permite que el modelo aprenda incluso cuando se equivoca, siempre que sea capaz de interpretar su propia confusión.

Esto equivale a insertar una pedagogía en el interior del sistema. Ya no se trata de ajustarse a patrones exitosos, sino de analizar críticamente las causas de lo que no funcionó. Una inteligencia que aprende no solo porque repite, sino porque repiensa.

Y ese cambio tiene consecuencias profundas. Porque no se requiere que alguien externo le diga al modelo qué estaba mal. Basta con que el segundo componente —el analista— formule una hipótesis breve sobre la causa del error, la exprese en términos claros, y esa frase pueda ser validada o refutada por el desempeño posterior. Es un circuito que se retroalimenta sin necesidad de asistencia externa permanente.

No todas las claves son iguales

Por supuesto, no todas las pautas generadas son útiles. Muchas serán triviales, otras demasiado generales, algunas incluso erróneas. Pero eso no es un problema. Porque el sistema no asume que todas son válidas. Las pone a prueba. Las compara. Y se queda con aquellas que, al ser reutilizadas, producen efectos observables en la calidad del razonamiento. No en la forma, sino en la sustancia. El objetivo no es que el modelo repita mejor, sino que comprenda más.

Esa selección funcional convierte al segundo componente del sistema, el generador de observaciones reflexivas, en una instancia pedagógica activa. Aprende a enseñar. Aprende a identificar qué tipo de comentario mejora el criterio de su contraparte. Aprende, en suma, a diseñar pensamiento.

No se trata de corregir respuestas, sino formas de pensar

En la mayoría de los esquemas tradicionales de aprendizaje automático, el feedback llega demasiado tarde. El modelo realiza su tarea, la ejecuta con mayor o menor éxito, y recibe una evaluación binaria, numérica o categórica. A partir de ese valor se reajusta. Lo que ocurrió internamente, el trayecto mental, la lógica seguida, las decisiones implícitas, queda fuera del campo de análisis. Es como si un alumno entregara un examen, obtuviera un puntaje, pero nadie le dijera qué parte razonó bien y qué parte no. Aprender desde ese lugar es posible, pero ineficiente. Además, vuelve al sistema vulnerable a aciertos por azar, errores sistemáticos ocultos o repeticiones sin comprensión.

El marco propuesto por Jin et al. subvierte esa dinámica. Aquí, lo central no es la respuesta, sino el proceso que la generó. Lo que se analiza no es el resultado, sino la cadena de inferencias que condujo al resultado. Y lo que se entrena no es una conducta, sino una capacidad de reflexión operativa. Eso significa que el sistema comienza a organizar sus errores, no como desviaciones del éxito, sino como material de aprendizaje explícito. Y en consecuencia, no necesita esperar a que alguien lo corrija desde afuera: puede formular su propio esquema de mejora desde adentro.

El componente responsable de esa tarea, el generador de observaciones funcionales, actúa como un instructor interno. Observa. Diagnostica. Propone una formulación breve. No es una corrección en el sentido clásico, sino un ejercicio de interpretación. Dice, por ejemplo: “El razonamiento omitió una condición clave del enunciado”, o “Se aplicó una analogía válida, pero en un dominio que no correspondía”. Esa formulación se convierte en una guía que será usada en tareas futuras. Si mejora el rendimiento, queda. Si no, se reemplaza.

Una biblioteca interna de principios emergentes

Con el tiempo, esas pequeñas claves analíticas se acumulan, se reformulan, se organizan. Algunas se vuelven esenciales, otras se vuelven obsoletas. El sistema no guarda todo. No colecciona frases por el solo hecho de haberlas generado. Evalúa su impacto. Si una regla verbalizada permite razonar mejor, se considera valiosa. Si no modifica el comportamiento del ejecutante, se descarta. Y si introduce confusión o ruido, se elimina.

Este proceso de filtrado permanente transforma la experiencia del sistema en una especie de biblioteca interna de ideas funcionales. No son conceptos abstractos, ni representaciones simbólicas en sentido fuerte. Son expresiones breves, formuladas en lenguaje natural, que capturan con precisión una pauta que resultó útil para pensar. Su valor reside en la relación directa que tienen con la mejora observada. Por eso no se evalúan por su elegancia lingüística ni por su claridad gramatical. Se evalúan por su eficacia operativa.

Y ese criterio de selección convierte al modelo no solo en una máquina de predicción, sino en un agente de estructuración de conocimiento. Lo que retiene no es lo que suena bien. Es lo que sirve.

No basta con aprender qué hacer. Hace falta aprender cómo pensar

Una IA puede resolver correctamente una tarea y, sin embargo, no haber desarrollado ningún criterio de generalización. Puede acertar por coincidencia. Puede responder bien hoy y fallar mañana ante una variante mínima. Eso no es comprensión. Es rendimiento estadístico. El sistema propuesto por Jin y su equipo intenta resolver ese vacío con una lógica distinta: formar un hábito de revisión activa que permita entender por qué algo funcionó o falló. No con introspección subjetiva, sino con análisis funcional.

Ese hábito no se impone. Se cultiva. Surge del cruce constante entre la ejecución y la interpretación. La máquina actúa. La otra parte del sistema analiza lo que hizo. Extrae de ahí una pauta que sintetiza el núcleo del error o del acierto. Esa pauta se reintroduce, se vuelve guía, se convierte en criterio.

Y cuando se vuelve suficientemente útil, se incorpora a la estructura del modelo mediante un proceso técnico: la destilación. Ya no hace falta repetirla como texto. El modelo la ha asimilado. Ha dejado de ser contexto. Ahora es intuición.

Lenguaje como vía de transferencia conceptual

El uso de frases escritas en lenguaje humano no es un simple capricho de diseño. Cumple una doble función crucial. Por un lado, permite que los humanos (investigadores, auditores, usuarios) puedan acceder a lo que el modelo está aprendiendo. No se trata ya de interpretar pesos o vectores, sino de leer formulaciones claras sobre lo que la IA cree haber comprendido. Eso ofrece una transparencia que hasta ahora era muy difícil de lograr.

Por otro lado, el lenguaje obliga al sistema a formular sus aprendizajes en estructuras comprimidas, semánticamente ricas, que deben ser reutilizables. La frase “no evaluaste la condición límite” no es una cita textual. Es una condensación. Es una unidad de significado que puede aplicarse en tareas distintas. Funciona como recordatorio, como alerta, como orientación estructural.

Ese poder expresivo del lenguaje permite transferir intuiciones entre dominios. Una idea que surgió al resolver un problema matemático puede resultar útil para un análisis textual. Un criterio lógico puede pasar de un ámbito a otro sin necesidad de ser reentrenado desde cero.

El sistema, entonces, no sólo acumula experiencia. La organiza en torno a ideas articulables. Y esa capacidad lo vuelve más robusto.

No es una corrección externa: es una transformación interior

Lo que ocurre en el sistema diseñado por Jin et al. no es una forma decorada de supervisión, ni una reetiquetación de los métodos de retroalimentación reforzada que ya se conocen. Es una arquitectura que introduce una diferencia estructural en cómo se concibe el aprendizaje mismo. Ya no se trata de corregir respuestas desde afuera, sino de instalar un mecanismo de revisión interna que genera hipótesis interpretativas sobre la base de lo que el modelo hace. Y que las pone a prueba, no mediante validación simbólica, sino a través del impacto que tienen en el comportamiento futuro.

Cada pauta que se formula no es un juicio definitivo. Es una conjetura. El sistema la incorpora, observa si cambia algo, y en función de ese cambio decide si conservarla o no. Esta lógica de verificación sucesiva convierte a la experiencia en el único criterio legítimo de validación. No importa cuán plausible suene la observación. Si no sirve para razonar mejor, se desecha.

Ese rasgo es decisivo. Porque introduce una forma de epistemología práctica dentro de la inteligencia artificial. Lo que cuenta no es la coherencia formal de una idea, sino su eficacia cognitiva. No se premia el orden, sino la utilidad. Y en ese marco, el aprendizaje se convierte en un proceso de descubrimiento autorregulado.

La retroalimentación deja de ser un número y se vuelve lenguaje

Uno de los problemas centrales de los modelos entrenados con refuerzo tradicional es que la señal de recompensa suele ser una cifra escueta, un valor que indica si algo funcionó o no. Pero ese dato, por sí solo, no informa nada sobre el camino. No dice qué parte del razonamiento fue sólida y cuál no. No señala si el error fue conceptual, atencional, o estratégico.

En el sistema socrático, la retroalimentación se presenta como una frase que intenta sintetizar lo que ocurrió. No describe el resultado. Interpreta la lógica fallida o exitosa. Dice, por ejemplo: “Se asumió que el patrón era constante sin verificar su estabilidad” o “No se consideraron los casos extremos en la inferencia”. Esas formulaciones no corrigen. Abren el juego.

El ejecutante, entonces, no recibe una sanción. Recibe una propuesta. Y esa propuesta tiene una virtud que ninguna señal numérica puede ofrecer: puede usarse en el futuro sin depender del contexto original. Puede convertirse en criterio transversal.

El criterio no se enseña, se descubre

El ejecutante no nace sabiendo cómo interpretar esas observaciones. Aprende a usarlas. Aprende a darles un lugar funcional en su razonamiento. Y lo hace a través del uso reiterado, de la confrontación con nuevas tareas, de la incorporación progresiva de ciertas frases como señales de alerta internas. Algunas actúan como recordatorios: no olvides este aspecto. Otras como advertencias: revisá este paso. Otras como síntesis: esto es lo que suele salir mal.

Con el tiempo, esas claves se condensan. Dejan de ser frases en el contexto. Se convierten en parte del andamiaje interno del modelo. Ya no es necesario que se expresen. Ya no se agregan como texto. Han sido destiladas. Absorbidas. Convertidas en sesgos funcionales que mejoran la calidad del razonamiento, sin intervención externa.

Eso significa que el modelo, al exponerse a sus propios errores, va diseñando una forma de pensar más afinada. No por acumulación de ejemplos, sino por elaboración reflexiva. Y esa diferencia lo hace más adaptable.

El maestro también cambia, o no hay progreso

Otro aspecto clave del sistema es que el generador de observaciones también aprende. No es una entidad fija, infalible. No está fuera del ciclo. Está adentro. Produce formulaciones. Las prueba. Mide sus efectos. Y si fracasa, se ajusta. Esa dinámica hace que no solo el ejecutante mejore, sino también la voz que lo guía.

Cada observación es una apuesta. Puede fallar. Puede tener éxito limitado. Puede ser eficaz en un tipo de tarea, pero inservible en otra. Esa variabilidad no es un problema: es parte del proceso. Lo que importa es que el sistema tenga la capacidad de identificar qué tipo de formulación mejora realmente el desempeño. Y que, al identificarlo, refine su propia forma de producir conocimiento.

Así, la arquitectura entera se convierte en un sistema de enseñanza en movimiento. No hay autoridad fija. No hay verdad preformateada. Hay exploración permanente de qué tipo de ideas resultan útiles para razonar mejor.

Hacia una inteligencia que estructura su propio aprendizaje

La consecuencia más poderosa de todo este diseño es que deja de ser necesario programar un modelo para que aprenda determinadas reglas. No hay que anticipar cada situación. No hay que escribir listas de errores comunes. No hace falta diseñar retroalimentación para cada caso. El sistema se encarga de descubrir, formular, evaluar y consolidar las ideas que necesita para mejorar.

Eso lo convierte en algo más que un optimizador de respuestas. Lo convierte en una inteligencia funcional que organiza sus propios criterios, y que puede mostrarlos, adaptarlos, revisarlos. Una inteligencia que no solo responde, sino que construye sus condiciones de respuesta.

Aprender desde dentro sin esperar corrección desde fuera

Uno de los efectos más potentes de esta arquitectura no reside en su capacidad para obtener mejores resultados cuantificables a corto plazo, sino en el tipo de inteligencia que cultiva a largo plazo. Porque cuando un sistema deja de depender exclusivamente de recompensas externas para mejorar, y empieza a generar sus propias claves de aprendizaje, el foco del proceso cambia. Ya no se trata de responder bien, sino de razonar bien. Y ese desplazamiento transforma por completo lo que significa “mejorar” para una máquina.

En el enfoque socrático, lo que se entrena es la capacidad de transformación autónoma. El sistema no solo actúa, sino que formula hipótesis sobre su desempeño. Produce microcomentarios estructurados, observa si tienen impacto, y los selecciona en función de esa observación. Lo que permanece no es lo que se dijo, sino lo que sirvió. Y esa lógica no requiere ninguna autoridad exterior que verifique qué es correcto. El único criterio válido es la utilidad demostrada.

Lo extraordinario es que todo esto ocurre en un plano semántico. No se ajustan funciones de pérdida. No se reordenan puntuaciones. Se generan ideas (ideas funcionales, formuladas en lenguaje) que luego se validan por su efecto. Eso convierte al aprendizaje en un proceso cognitivo con forma interna, no solo en una acumulación de patrones.

No es transparencia forzada: es interpretabilidad genuina

Otro efecto decisivo de esta arquitectura es que produce conocimiento que puede ser leído. Cada observación generada por el componente analítico tiene forma de frase. No se trata de vectores opacos ni matrices de activación. Se trata de comentarios estructurados que cualquiera puede examinar. Y esa característica tiene una implicancia ética concreta: por primera vez, un sistema puede mostrar en términos comprensibles qué tipo de principios está interiorizando para tomar decisiones.

Esa capacidad de interpretación no es un añadido superficial. Es parte del diseño. El sistema no solo aprende, sino que deja trazas comprensibles de su aprendizaje. Y eso permite auditarlo, corregirlo, intervenir en él. Si una pauta se muestra ineficaz, puede reemplazarse. Si una observación resulta nociva, puede eliminarse. Si una idea funciona demasiado bien en contextos donde no debería, puede matizarse.

Y todo esto se hace en el mismo lenguaje que usamos para pensar.

La reflexión como componente estructural

Este enfoque no instala reflexión en el sentido humano. Pero sí crea una estructura funcionalmente análoga. El sistema observa lo que hace, formula una síntesis interpretativa de su accionar, la reutiliza y la revisa. Ese circuito (acción, comentario, validación, integración) genera una forma de evaluación interna que se mantiene activa mientras el sistema opera. No necesita un momento externo para evaluar lo aprendido. Evalúa mientras actúa. Reflexiona en acto.

Esa reflexión no es consciente. No hay voluntad. No hay subjetividad. Pero hay organización. Hay capacidad para generar criterios y aplicarlos. Y eso, en muchos entornos, puede ser más valioso que cualquier forma de control externo. Porque una máquina que puede repensar sus propias decisiones es una máquina que puede corregirse sin esperar a fallar del todo.

En lugar de limitarse a evitar errores, puede evitarlos por razones estructurales.

Más que rendimiento: orientación

Quizás el aporte más sutil del aprendizaje socrático es que devuelve al concepto de enseñanza una dimensión que la IA había perdido. Ya no se trata de dictar órdenes, ni de modelar comportamientos. Se trata de orientar. De sugerir caminos. De generar principios compactos que el modelo pueda usar para navegar la incertidumbre. Y esa orientación no se le impone. Se le ofrece. Y solo permanece si demuestra ser efectiva.

Eso cambia radicalmente la forma de pensar el entrenamiento. Ya no es supervisión. Es interacción. Ya no es jerarquía. Es conversación.

Y en esa conversación, el error no es una falla, sino una oportunidad. Una puerta de entrada a una reformulación mejor. Una semilla para producir criterio.

Lo que hace al sistema confiable no es que acierte, sino que sepa por qué lo hace

En un entorno donde los grandes modelos son cada vez más potentes pero también más opacos, esta arquitectura ofrece una alternativa posible. No se trata solo de que un sistema funcione. Se trata de que pueda justificar por qué actúa de determinada manera, y que esa justificación pueda revisarse. Y eso no es algo que se obtenga forzando explicaciones a posteriori. Es algo que se construye desde el interior del proceso de aprendizaje.

El sistema no simula comprender. Aprende a organizar sus respuestas en función de claves que él mismo fue seleccionando. Y esas claves pueden leerse, interpretarse y discutirse. Son abiertas. Son funcionales. Y eso las vuelve valiosas.

Porque una inteligencia que solo responde bien no es suficiente.

Lo que importa (lo que este artículo demuestra con claridad) es que la inteligencia más poderosa será aquella capaz de examinar su propio razonamiento, de extraer de sus errores una pauta útil, de construir sobre esa pauta un criterio general, y de corregirse sin necesidad de instrucciones externas.

Una inteligencia que, sin ser humana, puede aprender a pensar.

Paper

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí