Durante años, las alucinaciones en los modelos de lenguaje grande (LLMs) se han tratado como una falla de ingeniería, un error corregible que surge de imperfecciones en el entrenamiento o la arquitectura. Sin embargo, un conjunto creciente de investigaciones…