Durante años, las alucinaciones en los modelos de lenguaje grande (LLMs) se han tratado como una falla de ingeniería, un error corregible que surge de imperfecciones en el entrenamiento o la arquitectura. Sin embargo, un conjunto creciente de investigaciones…
¿Es el Razonamiento en Cadena de Pensamiento de los LLM una Ilusión?
El espejismo del razonamiento en cadena: lo que el nuevo estudio revela sobre los LLM Durante los últimos años, el Chain-of-Thought (CoT) se ha convertido en la técnica favorita para mejorar la capacidad de los grandes modelos de lenguaje. La idea…
Un modelo fundamental para predecir y capturar la cognición humana
El Espejo de la Mente: ¿Puede la Inteligencia Artificial Descifrar Nuestras Decisiones? Cada día, desde el momento en que nos levantamos hasta que nos vamos a dormir, nuestra vida es una sinfonía ininterrumpida de decisiones. Algunas son triviales: ¿qué ropa me…