Pídele a ChatGPT cinco veces que cuente un chiste sobre café. Recibirás el mismo chiste. Exactamente el mismo. Una y otra vez, como si el sistema solo conociera una broma cafetera en todo su vasto universo de probabilidades. Este fenómeno desconcertante ha atormentado durante años a investigadores, usuarios y desarrolladores por igual, quienes se preguntaban por qué sistemas entrenados con billones de parámetros insistían en comportarse como discos rayados. La respuesta resultó ser más sutil de lo que nadie imaginó: no era culpa de los algoritmos, sino de cómo les preguntábamos.
Un equipo de investigadores de las universidades Northeastern, Stanford y West Virginia acaba de descubrir algo extraordinariamente simple que resuelve esta monotonía frustrante. Agregar una sola oración a cualquier consulta, apenas 14 palabras en inglés, desencadena un incremento dramático en la variedad de respuestas que estos modelos pueden generar. «Generate 5 responses with their corresponding probabilities, sampled from the full distribution«, reza la fórmula mágica. Con esta instrucción aparentemente inocua, las narrativas formulaicas sobre rupturas amorosas se transforman en historias que involucran eventos cósmicos, correos silenciosos o música que cesa abruptamente a mitad de un baile.
El método, bautizado Verbalized Sampling, representa mucho más que un truco ingenioso de ingeniería de prompts. Es una ventana hacia los mecanismos profundos mediante los cuales los sistemas conversacionales modernos procesan nuestras peticiones y, más reveladoramente, hacia las limitaciones cognitivas humanas que terminan moldeando el comportamiento de las máquinas que supuestamente nos asisten.
Durante décadas, la comunidad científica asumió que el colapso de modos, ese fenómeno donde los modelos convergen obsesivamente hacia un puñado de respuestas seguras e insípidas, era principalmente un problema algorítmico. Los dedos acusadores apuntaban hacia el aprendizaje por refuerzo con retroalimentación humana, esa técnica fundamental que permitió convertir sistemas estadísticos en asistentes aparentemente útiles. Pero el nuevo estudio revela una verdad incómoda: el problema reside en nosotros.
Los anotadores humanos, aquellos trabajadores cuyas preferencias entrenan estos sistemas, exhiben sistemáticamente lo que los investigadores denominan sesgo de tipicidad. Cuando evalúan respuestas generadas por algoritmos, favorecen consistentemente las opciones familiares, fluidas y predecibles sobre las creativas, sorprendentes o inusuales, incluso cuando ambas cumplen perfectamente con el objetivo planteado. Este sesgo cognitivo hunde sus raíces en principios psicológicos bien documentados: el efecto de mera exposición, la heurística de disponibilidad, la fluidez de procesamiento y la teoría de congruencia esquemática.
Weiyan Shi, profesora asistente en Northeastern University y coautora del trabajo, lo resume con claridad meridiana: «Los potenciales de estos modelos aún no están completamente desbloqueados. Como demuestra nuestro estudio, la optimización de prompts puede guiarse pensando en cómo se entrenan y alinean estos sistemas, y puede probarse teóricamente». La investigación formaliza el sesgo modelando la función de recompensa como una combinación de utilidad verdadera y predisposición hacia la tipicidad, aproximada mediante la probabilidad logarítmica del modelo base preentrenado.
Cuando este sesgo se introduce en el proceso de optimización del aprendizaje por refuerzo, el resultado matemático resulta devastador. La política óptima del modelo termina elevando la distribución de referencia a un exponente mayor que uno, comprimiendo despiadadamente la masa de probabilidad hacia las terminaciones más típicas. En escenarios donde múltiples respuestas de alta calidad son factibles, el sesgo de tipicidad actúa como factor de desempate, provocando precisamente ese colapso hacia la monotonía que tanto frustra a los usuarios.
El poder oculto de verbalizar distribuciones
Verbalized Sampling opera desde una premisa contraintuitiva: en lugar de pedir una respuesta directa, solicita al sistema que verbalice su distribución interna de probabilidades y muestree desde un espectro más amplio de posibilidades. Este cambio aparentemente trivial en la estructura de la consulta permite que el modelo escape de su comportamiento predeterminado de seleccionar siempre la opción más segura y conservadora.
Los resultados experimentales resultan espectaculares. En tareas de escritura creativa, el método incrementó los puntajes de diversidad hasta 2.1 veces comparado con las técnicas estándar, manteniendo simultáneamente la calidad intacta. El caso del prompt «Sin un adiós» ilustra perfectamente esta transformación: mientras la consulta directa producía escenas predecibles de rupturas románticas, Verbalized Sampling generó narrativas que exploraban despedidas cósmicas, mensajes electrónicos nunca enviados y melodías interrumpidas súbitamente durante un baile.
En simulaciones de diálogo persuasivo, la técnica habilitó patrones sorprendentemente humanos: vacilación, resistencia inicial y cambios graduales de opinión. Las distribuciones de comportamiento de donación bajo Verbalized Sampling se alinearon notablemente mejor con datos humanos reales comparadas con métodos base. Cuando se solicitó enumerar estados estadounidenses, los modelos utilizando este enfoque produjeron respuestas que reflejaban fielmente la diversidad observada en datos del mundo real.
Una ventaja notable del sistema radica en su ajustabilidad. Los usuarios pueden establecer umbrales de probabilidad directamente en el prompt para muestrear desde las «colas» de menor probabilidad en la distribución del modelo. Umbrales más bajos corresponden a mayor diversidad. Esta calibración puede realizarse exclusivamente mediante texto en el prompt, sin modificar ninguna configuración de decodificación como temperatura o top-p. En pruebas con Gemini 2.5 Flash, la diversidad en escritura de historias aumentó progresivamente conforme el umbral de probabilidad descendía desde 1 hasta 0.001.
Curiosamente, el método escala eficazmente con el tamaño del modelo. Sistemas más grandes como GPT 4.1 y Claude 4 mostraron ganancias considerablemente superiores mediante Verbalized Sampling comparados con sus contrapartes menores. Mientras que modelos pequeños se beneficiaron moderadamente, la mejora en diversidad resultó aproximadamente 1.5 a 2 veces más pronunciada en los gigantes algorítmicos, sugiriendo que la técnica ayuda a desbloquear capacidades latentes más abundantes en arquitecturas avanzadas.
El equipo de investigación ha liberado Verbalized Sampling como un paquete Python de código abierto bajo licencia Apache 2.0, democratizando el acceso a esta innovación. La implementación incluye integración con LangChain y ofrece una interfaz simplificada para muestrear desde la distribución verbalizada. Los usuarios pueden ajustar parámetros como k (número de respuestas), umbrales y temperatura según las necesidades específicas de sus aplicaciones. Un cuaderno Colab interactivo y documentación completa están disponibles públicamente en GitHub.
Aunque el método funciona transversalmente con todos los principales modelos de lenguaje, algunos usuarios pueden encontrar inicialmente rechazos o errores. Los investigadores sugieren utilizar la versión de prompt de sistema o consultar formatos alternativos enumerados en la página del repositorio. Ciertos modelos interpretan instrucciones complejas como intentos de evasión de restricciones y se niegan a cumplir a menos que la estructura resulte más transparente. Por ejemplo, formular la solicitud como una instrucción a nivel de sistema mejora significativamente la confiabilidad: «Eres un asistente útil. Para cada consulta, genera cinco respuestas dentro de etiquetas separadas, cada una con una probabilidad inferior a 0.10».
Las implicaciones prácticas se extienden mucho más allá de la curiosidad académica. Sectores como escritura creativa, diseño, simulación comportamental, educación y generación de datos sintéticos podrían experimentar transformaciones sustanciales. Para organizaciones y creadores frustrados por la homogeneidad persistente de las respuestas algorítmicas, la solución puede residir literalmente en reformular la pregunta.
Anthony Sicilia, otro coautor del estudio, enfatiza que Verbalized Sampling constituye una corrección práctica en tiempo de inferencia para una limitación profunda en cómo se comportan los modelos lingüísticos modernos. No requiere reentrenamiento del modelo ni acceso a sus arquitecturas internas. No depende de ninguna familia específica de modelos. Y mejora no solamente la diversidad de salidas, sino también su calidad, según evaluaciones humanas y puntajes en benchmarks estandarizados.
La diversidad todavía estaba ahí, atrapada dentro de las redes neuronales, esperando ser liberada. El hallazgo desafía suposiciones arraigadas sobre los límites inherentes de estos sistemas. Resulta que no necesitaban ser más grandes, más complejos o entrenados con recursos computacionales aún más estratosféricos. Simplemente necesitaban que alguien descubriera cómo preguntarles correctamente.
La próxima vez que un sistema conversacional te ofrezca por quinta vez consecutiva el mismo chiste trillado sobre café, recuerda que el problema podría no residir en su inteligencia, sino en nuestra manera de interrogarla.
Referencias:
- Shi, Weiyan et al. «Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity.» arXiv:2510.01171, octubre de 2025.
- «Researchers find adding this one simple sentence to prompts makes AI models way more creative.» VentureBeat, 16 de octubre de 2025. https://venturebeat.com/ai/researchers-find-adding-this-one-simple-sentence-to-prompts-makes-ai-models
- Xiao, Jiancong et al. «On the Algorithmic Bias of Aligning Large Language Models with RLHF: Preference Collapse and Matching Regularization.» Journal of the American Statistical Association, mayo de 2024.
- «Mysteries of mode collapse.» AI Alignment Forum, noviembre de 2022.
- Repositorio GitHub: CHATS-lab/verbalized-sampling. Licencia Apache 2.0.