NEWSLETTER

El umbral de las mil citas: donde los algoritmos dejan de inventar

9dfedccf-17e7-417e-b892-0f89629ba852

El umbral de las mil citas: donde los algoritmos dejan de inventar

Cuando los gigantes del lenguaje inventan verdades: el enigma de las alucinaciones en la recomendación bibliográfica

Cuando los gigantes del lenguaje inventan verdades: el enigma de las alucinaciones en la recomendación bibliográfica

Los modelos de lenguaje más sofisticados del mundo pueden recomendar papers académicos con títulos plausibles, autores creíbles y referencias impecables. El problema: ninguno existe. Una investigación revela que la frecuencia de citación predice la confiabilidad de las referencias generadas por inteligencia artificial, con un umbral crítico alrededor de mil citas donde el sistema transita de la invención a la memorización casi perfecta.

La inteligencia artificial hoy es capaz de hazañas que hace una década parecían ciencia ficción. Los modelos de lenguaje de gran escala, esos sistemas entrenados con miles de millones de palabras extraídas de internet, universidades y bibliotecas digitales, pueden conversar, traducir, escribir código y sintetizar conocimiento a velocidades que desafían la comprensión. Pero existe un lado oscuro en esta sofisticación tecnológica, una grieta en el espejo de la competencia que afecta particularmente a investigadores, académicos y profesionales que confían en estos sistemas para filtrar información.

Cuando se le solicita a uno de estos modelos que recomiende trabajos académicos sobre marketing o análisis de datos, el sistema puede responder con una bibliografía impecablemente formateada, nombres de autores que suenan creíbles, títulos plausibles y referencias a revistas especializadas. Todo parece legítimo. El problema es que nada de ello puede existir. La cita es una invención, un tejido de probabilidades que el modelo ha entrelazado con suficiente maestría como para engañar a lectores y a bases de datos de investigación por igual.

Este fenómeno, conocido en la comunidad científica como alucinación, representa quizás uno de los retos más inquietantes en la implementación práctica de la inteligencia artificial moderna. No se trata de errores aleatorios o fallos mecánicos simples. Investigaciones recientes sugieren que estas fabricaciones responden a patrones estructurales profundos, a la manera en que el conocimiento se distribuye y se representa internamente en los pesos y conexiones de estas redes neuronales masivas.

Un estudio reciente de Junichiro Niimi, investigador de Meijo University y del instituto RIKEN AIP en Japón, ofrece evidencia empírica sobre las causas subyacentes de este problema y, en el proceso, ilumina características fundamentales de cómo estos sistemas aprenden y recuerdan. El trabajo revela una correlación extraordinaria entre la frecuencia con que un artículo académico ha sido citado y la precisión con que los modelos de lenguaje pueden reproducir sus metadatos.

La naturaleza de la falsedad probabilística

Comprender qué sucede cuando un modelo de lenguaje alucina requiere abandonar la intuición de que los sistemas de inteligencia artificial "saben" o "entienden" en el sentido tradicional. Estos modelos no poseen una base de datos a la que acceden, ni contienen una enciclopedia en su arquitectura. En su lugar, funcionan como aproximadores de distribuciones de probabilidad. Durante el entrenamiento, ingieren patrones estadísticos presentes en textos enormes, aprendiendo las transiciones típicas entre palabras, frases y conceptos.

Cuando generan una respuesta, hacen predicciones sobre qué palabras probablemente deberían venir a continuación, una palabra a la vez. La alucinación emerge de esta mecánica fundamental. Si un modelo es entrenado con dos millones de papers sobre transformadores pero apenas algunas docenas sobre optimización bayesiana en contextos especializados, su comprensión estadística del primero es vastamente más robusta.

Cuando se le pide recomendar papers sobre transformadores, puede recuperar del espacio de representación interna fragmentos de información altamente confiables. Pero ante la solicitud de trabajos sobre optimización bayesiana, el sistema se ve obligado a combinar patrones más débiles y dispersos, generando a menudo referencias que respetan la estructura sintáctica y semántica de las verdaderas citas sin corresponder a trabajos que realmente existen en la literatura publicada.

La mecánica de la memorización versus la generación

Información frecuente: Trabajos previos de investigadores como Nicholas Carlini y colegas en el ámbito de la seguridad de sistemas de aprendizaje profundo han documentado que la información aparecida múltiples veces durante el entrenamiento tiende a memorizarse y reproducirse verbatim. La probabilidad de reproducir datos de entrenamiento correlaciona fuertemente con su frecuencia de aparición.

Información rara: Lo inverso también parece cierto: la información rara se sintetiza, a veces de formas convincentes pero ficticias. El sistema mantiene patrones estructurales correctos pero rellena los detalles con combinaciones estadísticamente plausibles que no corresponden a realidades verificables.

Implicación clave: Este comportamiento no es accidental sino emergente de los principios fundamentales del aprendizaje profundo probabilístico. Los modelos operan en un espectro continuo entre memorización fiel y síntesis creativa, determinado por la densidad de información en el corpus de entrenamiento.

El experimento que reveló el patrón

Niimi planteó una hipótesis elegante: si la frecuencia de aparición en el corpus de entrenamiento es lo que gobierna la confiabilidad de la salida, entonces el recuento de citas en un artículo académico podría servir como proxy de esa redundancia de datos de entrenamiento. Papers frecuentemente citados aparecen en innumerables publicaciones, notas, resúmenes y compilaciones a lo largo de internet. Raros trabajos aparecen pocas veces, si acaso, en el material que los modelos ingieren durante el entrenamiento.

Para probar esta idea, Niimi utilizó GPT-4.1, probablemente el modelo de lenguaje más sofisticado disponible en octubre de 2024 cuando se realizó la investigación. El enfoque experimental fue directo pero laborioso. Se seleccionaron veinte dominios dentro de la informática contemporánea, desde Vision Transformer y modelos de difusión hasta técnicas más especializadas como recuperación aumentada y adaptación de bajo rango.

Para cada dominio, el modelo fue consultado pidiéndole que recomendase cinco papers académicos. En total se generaron cien muestras. Cada una fue verificada manualmente comparándola contra Google Scholar. Un investigador humano comprobó si el paper existía realmente, basándose principalmente en el título, aunque reconociendo que coincidencias menores en nombres de autores o revistas no garantizaban autenticidad.

Se asignaron puntuaciones: dos puntos para referencias completamente correctas, uno para alucinaciones parciales donde algunos metadatos como autores, año o journal fueran imprecisos, y cero para alucinaciones totales donde nada correspondiese a un trabajo real. Los resultados fueron dramáticos.

Resultados del experimento: la división entre alta y baja citación

Grupo de alta citación: Papers que superaban la mediana de 818 citas mostraban una puntuación de precisión factual promedio de 1.245 sobre un máximo de 2. Esto indica que la mayoría de las referencias eran correctas o contenían solo errores menores en metadatos.

Grupo de baja citación: Papers por debajo de la mediana alcanzaban apenas 0.725. La diferencia no era marginal sino estadísticamente significativa y enorme en términos prácticos, sugiriendo que el sistema operaba en regímenes cualitativamente diferentes.

Variación por dominio: Los dominios "clásicos" en visión computacional como Vision Transformer y modelos de difusión mostraban exactitud sustancialmente mayor, alcanzando puntuaciones cercanas o superiores a 1.5. Papers en campos emergentes y más especializados como LoRA y Graph Transformer presentaban puntuaciones considerablemente menores, en torno a 0.5 a 0.75.

Interpretación: Esta distribución refleja directamente la historia de la investigación en inteligencia artificial. Vision Transformer fue introducido en 2020 y ha sido replicado, refinado y citado miles de veces. LoRA es una técnica más reciente introducida en 2021 que, aunque importante, existe en un contexto mucho menos saturado en el corpus de entrenamiento.

Esta realidad suscita cuestiones profundas sobre los sesgos incorporados en estos sistemas. Los investigadores que trabajan en áreas novedosas, en técnicas recientemente propuestas o en campos menos mainstream descubrirán que estos modelos son significativamente menos confiables para recomendaciones bibliográficas. El sistema tiende a fortalecer el status quo del conocimiento, a reforzar lo que ya es popular mientras marginaliza o distorsiona lo que es nuevo o especializado.

La curva de la memorización

Cuando Niimi se enfocó exclusivamente en papers reales, calculó la similitud coseno entre los metadatos generados por el modelo y los metadatos verdaderos. Utilizó embeddings de Sentence-BERT, una técnica sofisticada de procesamiento de lenguaje natural que convierte fragmentos de texto en representaciones numéricas continuas. Luego examinó la relación entre el logaritmo del recuento de citas y esta medida de similitud.

La correlación fue extraordinaria: 0.75, estadísticamente significativa y extraordinariamente fuerte en términos científicos. Más sorprendente aún fue el patrón que reveló. No era lineal sino logarítmico. El eje horizontal representaba log(citas), el eje vertical la similitud coseno de 0 a 1. Los puntos se distribuían a lo largo de una curva que ascendía suavemente al principio, luego más bruscamente, hasta llegar a un plateau cercano a 1.0 justo después de log(citas) equivalente a siete, es decir, alrededor de mil citas.

Este plateau es el hallazgo más inquietante y revelador de todo el análisis. Sugiere un umbral de comportamiento. Debajo de ese umbral, el modelo está generando, sintetizando, a menudo inventando. Por encima, está recordando, casi verbatim, como si el artículo hubiese sido insertado en la memoria del sistema de manera indestructible. Interpretación del análisis de Niimi sobre la transición de generación a memorización

Un análisis de regresión logística refinó esta comprensión. El modelo identificó un punto de inflexión aproximadamente en log(citas) equivalente a 5, o sea alrededor de cien citas. Esa es la zona donde la transición del sistema de comportamiento comienza. Un paper citado entre cien y mil veces todavía tiene una cierta probabilidad de alucinación, pero esa probabilidad disminuye dramáticamente con cada incremento logarítmico. Pasado el millar de citas, la posibilidad de alucinación se reduce prácticamente a cero.

Niimi lo describe con precisión: papers altamente citados no se representan meramente a través de asociaciones probabilísticas de tokens sino que se recuperan casi verbatimamente. Se han cruzado de la región de la generalización a la región de la memorización. Esta distinción tiene profundas implicaciones para cómo entendemos el funcionamiento interno de estos sistemas complejos.

Las limitaciones del diseño y la alucinación de confianza

Pero el ejercicio científico incluye una acotación importante. El modelo fue específicamente instruido para producir outputs en formato JSON sin explicaciones adicionales. Esta elección metodológica, aunque útil para el análisis estructurado, efectivamente desactiva una capacidad que el modelo tiene: la de responder "no sé" ante preguntas donde genuinamente carece de información confiable.

Existe evidencia de que los sistemas de inteligencia artificial modernos han sido entrenados, a través de técnicas de refuerzo con retroalimentación humana, de manera que son penalizados por admitir ignorancia y recompensados por producciones estadísticamente plausibles. Si al sistema se le hubiese permitido responder con incertidumbre, responder que carecía de información sobre papers en dominios poco representados, probablemente los resultados mostrarían menos alucinaciones.

Pero la investigación sugiere algo más profundo: incluso cuando se permite la incertidumbre, el modelo mantiene cierta tendencia a la "alucinación de confianza", a generar respuestas que suenen creíbles aunque carezcan de base en hechos. Este comportamiento emerge de la arquitectura fundamental de estos sistemas, que están optimizados para producir continuaciones plausibles de texto en lugar de representar conocimiento verificable.

El problema de la calibración: Los modelos de lenguaje grandes frecuentemente exhiben pobre calibración de incertidumbre, asignando alta confianza a outputs incorrectos. Esto se debe parcialmente al proceso de entrenamiento con retroalimentación humana, donde los evaluadores humanos preferentemente recompensan respuestas que parecen autoritativas sobre aquellas que admiten limitaciones. El resultado es un sistema que ha aprendido a proyectar confianza independientemente de la calidad subyacente de la información.

Implicaciones para el ecosistema de investigación

Los hallazgos de Niimi tienen consecuencias que se extienden mucho más allá del laboratorio. Para investigadores en el mundo real buscando referencias, estos sistemas representan una herramienta tentadora. Son rápidos, accesibles, aparentemente bien informados. Pero son también potencialmente peligrosos, especialmente para aquellos que trabajan en áreas donde los modelos tienen menos datos de entrenamiento.

Un investigador estudiando una técnica novel podría recibir del sistema recomendaciones de papers que no existen, que suenan perfectamente legitimadores pero que lo llevarían a conclusiones erróneas si intentase recuperarlas. Un estudiante de doctorado que confía en estas herramientas para exploración inicial de la literatura podría verse sorprendido cuando descubre que la mayoría de las referencias que aparecen son ficticias.

Peor aún, existe el riesgo de contaminación de la literatura. Si alguien cita un paper ficticio que fue generado por un modelo, esa referencia podría ser reproducida en otras publicaciones, potencialmente propagando la falsedad. Internet está lleno de información, y las bases de datos académicas, aunque más rigurosas, no son inmunes a errores. Un paper ficticio citado con suficiente frecuencia podría adquirir una especie de presencia fantasmal en la red de conocimiento.

La comunidad académica ya ha comenzado a observar casos donde referencias generadas por inteligencia artificial contaminan la literatura. Algunos journals reportan recibir manuscritos con bibliografías que contienen múltiples citas ficticias. Los editores y revisores, abrumados por el volumen de submissions, pueden no verificar cada referencia exhaustivamente. Una vez publicado, el paper con citas falsas se convierte en fuente secundaria de información, perpetuando el error.

La ventana hacia el aprendizaje profundo

Más allá de la aplicación inmediata, esta investigación ofrece una ventana fascinante hacia cómo funcionan internamente estos sistemas complejos. El hecho de que exhiban una transición nítida entre generación y memorización a un umbral específico de redundancia de datos sugiere que los mecanismos de aprendizaje profundo operan con mayor estructura de la que a menudo se asume.

Los teóricos del aprendizaje máquina han tratado durante años de entender si estos sistemas genuinamente "generalizan" con principios similares a cómo la mente humana extrapola conocimiento, o si más bien están realizando memorización sofisticada. El trabajo de Niimi añade peso a la perspectiva de que es fundamentalmente lo segundo: estos modelos son, en su esencia, máquinas de reconocimiento de patrones probabilísticos enormemente sofisticadas que aproximan distribuciones de datos.

Cuando esa distribución está bien poblada, pueden reproducir fielmente lo que han visto. Cuando está escasamente poblada, sintetizan nuevas combinaciones, y a menudo esas combinaciones resultan ser inventadas. Esta visión tiene resonancia con marcos teóricos recientes que sitúan a los modelos de lenguaje grandes no como sistemas que comprenden información en un sentido abstracto sino como generadores de continuaciones estadísticamente plausibles.

Relación entre el logaritmo del recuento de citas y la precisión de las referencias generadas. Se observa una transición nítida alrededor de 100-1000 citas, donde el sistema pasa de la síntesis probabilística a la memorización casi perfecta.

Desde esta perspectiva, la alucinación y la exposición de datos de entrenamiento son dos caras de la misma moneda: fenómenos diferentes que emergen del mismo proceso subyacente de aprendizaje probabilístico, con la frecuencia de exposición determinando cuál de los dos ocurre. Esta comprensión unificada tiene implicaciones profundas para el diseño futuro de sistemas más confiables.

Escalabilidad del problema y preguntas abiertas

Un aspecto que permanece abierto es la generalización de estos hallazgos. El estudio se concentró en GPT-4.1, uno de los modelos más capaces disponibles, pero también relativamente cerrado en términos de transparencia sobre sus datos y entrenamiento. ¿Se mantendrían estos patrones en otros modelos como Claude, Gemini o sistemas de código abierto como Llama? La arquitectura subyacente es similar en muchos casos, sugiriendo que los hallazgos son robustos, pero la verificación empírica sería valiosa.

La investigación también fue limitada al dominio de la informática. ¿Cómo se comportarían estos modelos si se les pidiese generar referencias en medicina, en derecho, en historia? Dominios con literatura bien establecida probablemente mostrarían patrones similares, con reducción de alucinaciones para información altamente citada. Pero campos emergentes como la computación cuántica o la biología sintética podrían exhibir tasas de alucinación diferentes debido a la menor densidad de literatura disponible.

Hay también una dimensión multilingüe no explorada. El corpus de entrenamiento de estos modelos contiene mayormente texto en inglés. Otros idiomas tienen representación mucho menor. La redundancia de datos para papers en lenguas no anglófonas es drásticamente menor. Uno podría predecir que las tasas de alucinación serían más altas para referencias en español, en japonés, en árabe, reflejando el sesgo lingüístico inherente en los datos de entrenamiento.

Caminos hacia la solución

¿Qué se puede hacer? Una posibilidad evidente es entrenar sistemas especializados para recomendación bibliográfica que accedan directamente a bases de datos certificadas como arXiv, Google Scholar, PubMed, en lugar de confiar en la memoria interna del modelo. Estos sistemas híbridos combinarían la comprensión del lenguaje natural de los modelos grandes con la precisión de las fuentes estructuradas. Ya existen algunas herramientas que toman esta aproximación, pero no son universales.

Otra estrategia es mejorar la calibración de la incertidumbre. Un modelo podría ser refinado para ser honesto sobre sus límites, para indicar cuando está operando en un régimen de datos escasos donde la alucinación es probable. Algo tan simple como recomendar "consulte Google Scholar directamente" cuando el sistema detecta que está en un dominio de baja representación sería valioso. Técnicas emergentes como la entropía semántica intentan detectar alucinaciones en tiempo real midiendo la consistencia interna de las respuestas del modelo.

Una tercera aproximación es la deduplicación y limpieza más exhaustiva de los datos de entrenamiento. Investigaciones recientes sugieren que eliminar duplicados exactos y casi duplicados del corpus de entrenamiento puede mejorar la generalización sin sacrificar la precisión en dominios populares. Si la redundancia innecesaria se reduce mientras se preserva la diversidad, los modelos podrían exhibir mejor balance entre memorización y síntesis creativa.

Estrategias técnicas en desarrollo

Sistemas de recuperación aumentada: Arquitecturas como RAG (Retrieval-Augmented Generation) primero buscan información en bases de datos externas antes de generar respuestas, reduciendo la dependencia en la memoria interna del modelo. Estos sistemas han mostrado tasas de alucinación significativamente menores en aplicaciones de preguntas y respuestas.

Detección de entropía semántica: Métodos recientes miden la entropía en el espacio semántico de múltiples generaciones del modelo para la misma pregunta. Alta entropía sugiere incertidumbre y posible alucinación, permitiendo al sistema alertar al usuario o abstenerse de responder.

Decodificación restringida: Técnicas que fuerzan al modelo a usar solo tokens con alta confianza pueden reducir alucinaciones a costa de ocasionalmente producir outputs incompletos o rehusarse a responder.

Fine-tuning con verificación: Entrenar modelos con retroalimentación que penaliza específicamente alucinaciones verificadas contra bases de datos gold standard puede mejorar la precisión factual sin eliminar completamente el problema.

El reflejo más amplio

Este trabajo sobre alucinaciones bibliográficas toca en realidad un nervio más profundo en el desarrollo de sistemas de inteligencia artificial. A medida que estos sistemas se despliegan en contextos de alto riesgo, donde precisión y confiabilidad son críticas, comprender exactamente cómo fallan se vuelve imperativo. No basta con saber que fallan. Necesitamos entender cuándo fallan, bajo qué condiciones, y qué señales preceden al fallo.

La investigación de Niimi ofrece precisamente eso: un mapa preliminar de los límites, una comprensión de que existen transiciones de fase donde el comportamiento del sistema cambia cualitativamente. Información con suficiente redundancia en el entrenamiento es recordada con casi perfecta fidelidad. Información rara es sintetizada, y esa síntesis puede ser brillantemente convincente o plenamente falsa.

Para un usuario de estos sistemas, ya sea investigador, escritor o tomador de decisiones, la lección es humilde pero clara. Las recomendaciones de los modelos de lenguaje grandes deben ser verificadas, especialmente cuando se refieren a información en dominios especializados. Los papers en campos emergentes merecen particular escrutinio. Lo que el modelo genera con confianza puede no existir. Y la confianza que comunica el sistema nunca es garantía de precisión.

Esta comprensión no invalida la utilidad de estos sistemas sino que establece límites apropiados para su uso. Los modelos de lenguaje pueden ser extraordinariamente útiles para exploración inicial, para generar hipótesis, para sintetizar patrones amplios en literatura existente. Pero no deben ser el último paso en la verificación de información. Deben ser herramientas en un proceso más amplio que incluye validación humana y acceso a fuentes primarias.

Perspectivas futuras

El espacio de investigación abierto por este trabajo es amplio. Los interrogantes son tantos como fascinantes. ¿Pueden identificarse visualmente, en las representaciones internas del modelo, los dominios donde ocurren alucinaciones frecuentes? Técnicas de interpretabilidad emergentes como los estudios de activación neuronal podrían revelar firmas distintivas de alucinación versus memorización.

¿Se puede usar este conocimiento para diseñar entrenamientos que reduzcan selectivamente ciertas formas de alucinación? Experimentos con currículos de entrenamiento cuidadosamente controlados podrían manipular la redundancia de datos para dominios específicos, permitiendo a los investigadores estudiar cómo diferentes historias de exposición afectan el comportamiento emergente.

¿Qué sucede si se mezclan dos modelos diferentes? Si un modelo genera una referencia, ¿otro modelo independiente la verificaría correctamente más frecuentemente si se sabe que la fuente era de un régimen de baja redundancia? ¿Podrían ensambles de modelos compensar colectivamente las debilidades individuales, donde un modelo especializado en detección de alucinaciones audita los outputs de un modelo generativo?

Hay también la cuestión fundamental de si estos umbrales son universales o dependen profundamente de la arquitectura específica, del proceso de entrenamiento, del tamaño del modelo, del conjunto de datos. Un modelo con el doble de parámetros, o uno entrenado con cinco veces más datos, ¿mostraría un umbral de memorización diferente? Las leyes de escala que gobiernan el comportamiento de modelos grandes predicen ciertas tendencias, pero los detalles requieren validación empírica.

La investigación también abre puertas hacia comprensión de fenómenos más generales. ¿Es la alucinación solo un problema de bibliografía o es síntoma de limitaciones más profundas en la síntesis de información en general? ¿Se comportan estos sistemas similarmente cuando se les pide generar código, fórmulas químicas, ecuaciones matemáticas, cualquier tipo de información estructurada que pueda ser verificada contra realidades objetivas?

Trabajos recientes sobre alucinaciones en generación de código muestran patrones similares: los paquetes de software populares son invocados correctamente, mientras bibliotecas raras son frecuentemente inventadas con nombres plausibles pero no existentes. Esto sugiere que el fenómeno es general, que aplica a cualquier dominio donde la verificabilidad objetiva es posible pero la información está distribuida desigualmente en el corpus de entrenamiento.

La necesidad de transparentar las cajas negras

El trabajo de Junichiro Niimi y sus colegas pertenece a una tradición importante en ciencia: la de mapear los límites del conocimiento, de documentar cuidadosamente dónde terminan las capacidades y comienzan las deficiencias. En un mundo donde la inteligencia artificial se integra cada vez más profundamente en procesos de toma de decisión, investigación y descubrimiento, tener mapas precisos de estos límites se vuelve un bien público.

Las alucinaciones en recomendación bibliográfica no son meramente errores técnicos a ser solucionados con más ingeniería. Son ventanas hacia cómo estos sistemas aprenden, recuerdan, generalizan y fallan. Son advertencias sobre los peligros de confiar ciegamente en sistemas que pueden vender convincente falsa verdad. Y son recordatorios de que la sofisticación en una dimensión no implica confiabilidad en otra.

El futuro de la inteligencia artificial dependerá de nuestra capacidad para entender estos sistemas no como cajas negras mágicas sino como instrumentos con capacidades específicas, límites definidos y modos de fallo predecibles. La investigación sobre alucinaciones, particularmente cuando se ancla en datos empíricos y análisis riguroso como el presentado aquí, es exactamente el tipo de trabajo que requiere la maduración tecnológica y social que demandan estos tiempos.

Mientras continuamos desplegando estos sistemas en contextos progresivamente más importantes, recordar que el conocimiento que generan a veces es invención, a veces memorización y rara vez genuina comprensión será crucial. No para abandonar la tecnología, sino para utilizarla con sabiduría. Para saber cuándo confiar y cuándo verificar. Para construir sistemas híbridos que combinen la velocidad y fluidez de la inteligencia artificial con la precisión y responsabilidad de la curación humana y las bases de datos verificadas.

La curva que Niimi descubrió, esa transición nítida de la invención a la memorización alrededor del umbral de mil citas, no es solo un hallazgo técnico. Es un mapa del territorio epistemológico que estos sistemas habitan, una guía para navegar el espacio entre lo que saben y lo que inventan. Y en ese espacio, en esa frontera difusa entre memoria y fantasía, se juega el futuro de cómo confiamos en las máquinas para extender nuestra inteligencia sin comprometer nuestra capacidad de discernir lo verdadero de lo plausible.

Referencias

Niimi, J. (2025). Hallucinations in bibliographic recommendation: Citation frequency as a proxy for training data redundancy. arXiv preprint arXiv:2510.25378.

Carlini, N., Ippolito, D., Jagielski, M., Lee, K., Tramèr, F., & Zhang, C. (2022). Quantifying memorization across neural language models. En The Eleventh International Conference on Learning Representations (págs. 6-18).

Carlini, N., Liu, C., Erlingsson, Ú., Kos, J., & Song, D. (2019). The secret sharer: Evaluating and testing unintended memorization in neural networks. En 28th USENIX Security Symposium (págs. 267–284).

Carlini, N., Tramèr, F., Wallace, E., Jagielski, M., Herbert-Voss, A., Lee, K., Roberts, A., Brown, T., Song, D., Erlingsson, Ú., & Oprea, A. (2021). Extracting training data from large language models. En 30th USENIX Security Symposium (págs. 2633–2650).

Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. Nature, 630(8017), 625–630.

Huang, L., Yu, W., Ma, W., Zhong, W., Feng, Z., Wang, H., Chen, Q., Peng, W., Feng, X., Qin, B., et al. (2025). A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions. ACM Transactions on Information Systems, 43(2), 1–55.

Kalai, A. T., Nachum, O., Vempala, S. S., & Zhang, E. (2025). Why language models hallucinate. arXiv preprint arXiv:2509.04664.

Kandpal, N., Wallace, E., & Raffel, C. (2022). Deduplicating training data mitigates privacy risks in language models. En International Conference on Machine Learning (págs. 10697–10707).

Lee, K., Ippolito, D., Nystrom, A., Zhang, C., Eck, D., Callison-Burch, C., & Carlini, N. (2022). Deduplicating training data makes language models better. En Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (págs. 8424–8445).

Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., Küttler, H., Lewis, M., Yih, W. T., Rocktäschel, T., et al. (2020). Retrieval-augmented generation for knowledge-intensive NLP tasks. Advances in Neural Information Processing Systems, 33, 9459–9474.

Reimers, N., & Gurevych, I. (2019). Sentence-BERT: Sentence embeddings using Siamese BERT-networks. En Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (págs. 3982).

Spracklen, J., Wijewickrama, R., Sakib, A. H. M. N., Maiti, A., & Viswanath, B. (2025). We have a package for you! A comprehensive analysis of package hallucinations by code generating LLMs. En 34th USENIX Security Symposium (págs. 3687–3706).

Xu, Z., Jain, S., & Kankanhalli, M. (2024). Hallucination is inevitable: An innate limitation of large language models. arXiv preprint arXiv:2401.11817.

Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., Uszkoreit, J., & Houlsby, N. (2021). An image is worth 16x16 words: Transformers for image recognition at scale. En International Conference on Learning Representations (ICLR 2021).

Ho, J., Jain, A., & Abbeel, P. (2020). Denoising diffusion probabilistic models. Advances in Neural Information Processing Systems, 33, 6840–6851.

Hu, E. J., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., Wang, L., Chen, W., et al. (2022). LoRA: Low-rank adaptation of large language models. En International Conference on Learning Representations.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30.

Publicaciones Recientes

Generated Image November 03, 2025 - 3_30AM

La vulnerabilidad oculta del razonamiento artificial

Durante los últimos años, hemos sido testigos de una transformación silenciosa pero imparable. La inteligencia artifi
Leer Más
Generated Image November 03, 2025 - 3_13AM

Tres pilares contundentes para afirmar que los LRM casi con certeza piensan

  Apple publicó «La ilusión de pensar» argumentando que los LRM solo hacen coincidencia de patrones. Su evidenc
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí