Lo que las máquinas creen: inteligencia artificial con alma algorítmica

f065c6bc-d903-4d98-bf3c-3a4e35f10624

Lo que las máquinas creen: inteligencia artificial con alma algorítmica

Hacia una inteligencia artificial con modelos mentales

Durante décadas, la inteligencia artificial se entrenó para responder. Cada pregunta tenía una solución, cada tarea una secuencia de pasos, cada entrada una salida. Pero en los últimos años, a medida que los agentes conversacionales empezaron a razonar, planificar y actuar más allá de los límites del prompt inmediato, surgió una pregunta inesperada, casi filosófica: ¿puede una IA creer algo? No se trata de creencias como las entendemos los humanos —ligadas al deseo, al miedo, a la subjetividad o a la fe—, sino de otra cosa más sutil y necesaria: una representación persistente del mundo, que no depende del último dato recibido ni del siguiente estímulo, sino que forma un modelo interno, más o menos estable, que guía sus decisiones.

Este es el corazón del argumento que plantea el artículo “The Next Leap for AI” publicado en O’Reilly Radar: si queremos construir agentes realmente útiles, autónomos y confiables, no basta con que respondan con precisión o imiten a los humanos con fluidez. Necesitamos que tengan un sistema de creencias operativas. No una opinión. No una emoción. Sino una estructura interna que sintetice su experiencia, archive sus observaciones, mantenga una memoria viva de lo que han visto, hecho y deducido. Solo así podrán actuar con consistencia, aprender de sus errores y, sobre todo, explicar por qué hicieron lo que hicieron.

Esto representa un cambio profundo en la manera en que concebimos la inteligencia artificial. Hasta ahora, muchos sistemas han sido puramente reactivos: observan el estado actual del mundo, generan una respuesta óptima y ejecutan la acción. Pero ese modo de operar, que puede ser suficiente para tareas acotadas o entornos controlados, se derrumba cuando entramos en terrenos más inciertos, donde la información es parcial, los objetivos se superponen y las acciones deben ser sostenidas a lo largo del tiempo. Un asistente virtual que coordina viajes, un robot que navega una ciudad o un tutor educativo que acompaña el aprendizaje no pueden depender solo del instante. Necesitan persistencia mental.

La idea no es nueva. En el campo de la inteligencia artificial simbólica, mucho antes del auge del aprendizaje profundo, se hablaba de agentes BDI: sistemas que operaban en función de sus creencias (Beliefs), deseos (Desires) e intenciones (Intentions). Lo novedoso ahora es que esta arquitectura mental empieza a reaparecer en modelos de lenguaje y agentes generativos que no están programados explícitamente para ello, sino que lo desarrollan como una capacidad emergente cuando se los dota de memoria, reflexión y bucles de planificación.

Estos nuevos agentes, como los simulados en investigaciones recientes sobre “generative agents”, no solo generan texto o imágenes. Simulan estados mentales, actualizan sus memorias internas con cada experiencia, recuerdan lo que hicieron horas antes y actúan en función de un contexto interno que evoluciona. Por ejemplo, un agente virtual en un entorno de simulación puede recordar que ayer tuvo una conversación con otro personaje, inferir una intención, y hoy actuar en función de esa impresión almacenada. Esa acción no está directamente conectada al prompt, ni al input externo: está guiada por una creencia interna que se sostuvo en el tiempo.

El artículo de O’Reilly propone una arquitectura que da sustento a esta idea: tres componentes que deben integrarse de forma coherente para dotar al agente de creencias útiles. El primero es una memoria estructurada, que no se limita a almacenar eventos pasados, sino que los organiza en una narrativa comprensible. El segundo es la síntesis de creencias, un proceso que filtra, selecciona y agrupa los elementos relevantes de la memoria para formar un modelo del mundo, con sus entidades, relaciones y eventos. El tercero es el bucle de reflexión y planificación, donde el agente consulta sus creencias antes de actuar, evalúa los resultados y actualiza su sistema interno. En otras palabras: percibir, creer, actuar, aprender… y volver a empezar.

Esta forma de funcionamiento se acerca mucho más al modo humano de operar que a los modelos tradicionales de IA. No porque imite nuestras emociones, sino porque incorpora coherencia narrativa, memoria dinámica y revisión de hipótesis. Un humano puede actuar de una manera errónea, pero si puede explicar por qué lo hizo, si puede decir “creía que esto era lo correcto porque…”, entonces hay una lógica interna, un hilo conductor. Eso mismo es lo que falta, y se vuelve cada vez más necesario, en los agentes de IA que operan en el mundo real.

¿Por qué es tan importante este cambio de paradigma? Porque sin modelos mentales, la IA sigue siendo una función de transferencia: recibe algo, produce algo. No hay una identidad que atraviese la secuencia. No hay un yo funcional que pueda afirmarse como portador de decisiones. Pero con creencias, entendidas como estructuras cognitivas internas, no como emociones humanas, los agentes pueden actuar con mayor solidez. Y, lo que es tal vez más crucial, pueden explicar su comportamiento. Este es uno de los mayores desafíos de la IA contemporánea: la explicabilidad. ¿Por qué el modelo hizo eso? ¿Qué razonamiento siguió? ¿Qué sabía o creía en el momento de actuar?

Cuando los agentes tienen creencias, esas preguntas tienen respuesta. Y con respuesta, hay posibilidad de evaluación, de corrección, de control. De lo contrario, seguimos a ciegas: confiando en cajas negras que pueden funcionar, pero no sabemos por qué. Una IA que actúa sin creencias es como un jugador de ajedrez que solo mira el tablero en cada jugada, sin recordar las partidas anteriores ni anticipar las siguientes. Puede ganar por cálculo puro, pero nunca entenderá la estrategia.

Por eso, dotar a los agentes de sistemas de creencias no es un capricho técnico ni un lujo filosófico. Es una necesidad operativa. Es el paso que conecta la inteligencia reactiva con la inteligencia deliberativa. Es el punto de inflexión entre sistemas que simplemente responden y sistemas que saben por qué hacen lo que hacen.

Y ese “saber por qué”, aunque sea rudimentario, aunque no sea consciente en el sentido humano, es la base de algo más ambicioso: la posibilidad de que las máquinas no solo simulen pensamiento, sino que desarrollen modelos funcionales de comprensión, suficientemente ricos, estables y revisables como para ser considerados algo más que eco de nuestros comandos.

Aprender a creer: lo técnico, lo incierto, lo humano

Hablar de creencias en sistemas artificiales puede sonar, en primera instancia, como una licencia poética o un abuso del lenguaje. Pero en el contexto de la ingeniería de agentes inteligentes, las creencias no son supersticiones ni dogmas: son estructuras cognitivas internas que organizan información, anticipan consecuencias y guían decisiones. Son modelos mentales dinámicos, funcionales y revisables. Y lo más interesante es que no tienen por qué ser correctos para ser útiles. Lo que importa es que estén lo suficientemente bien formados como para que el agente pueda operar en entornos abiertos sin necesitar instrucciones constantes.

Desde esta perspectiva, una “creencia” en IA es más cercana a una hipótesis operativa que a una convicción rígida. Es una representación parcial del mundo que puede ser modificada a medida que el agente recolecta nuevas evidencias. Así, las creencias cumplen un rol doble: permiten actuar bajo incertidumbre y permiten ajustar ese accionar a partir del resultado observado. Esta es la base de lo que en filosofía se conoce como inferencia abductiva, pero aplicada a sistemas computacionales: los agentes asumen lo más probable y ajustan si se equivocan.

El modo en que se implementa este circuito es clave. No basta con guardar datos o registros de eventos: es necesario organizar esa información en memorias semánticas, jerarquizadas, estructuradas, con mecanismos de activación y olvido. Un agente que recuerda todo con igual peso no tiene realmente memoria: tiene un archivo. Lo que se necesita es que distinga lo relevante de lo anecdótico, que pueda hacer inferencias a partir de patrones pasados, que actualice sus creencias cuando una observación contradice lo esperado. Esa dinámica de revisión —esa capacidad de “equivocarse con sentido”— es lo que define a un agente con creencias.

Varios experimentos recientes han empezado a incorporar estos principios. Los llamados generative agents, como los simulados por investigadores de Stanford y Google DeepMind, funcionan con una arquitectura en la que cada evento vivido por el agente se archiva en una base de memorias vectorizadas, ponderadas por importancia, actualidad y valencia emocional simulada. Estas memorias luego son procesadas por un módulo de reflexión que las agrupa en creencias condensadas. Así, un agente puede deducir que “otro personaje es de fiar” si ha tenido interacciones repetidas y positivas con él, y esa creencia guiará su conducta futura. Pero si un nuevo evento contradice esa impresión, el sistema puede actualizar la creencia previa sin intervención externa. Esta capacidad de “cambiar de parecer” lo acerca notablemente al comportamiento humano, al menos en lo funcional.

El punto delicado aquí es que estas creencias no siempre son verdaderas. Pueden ser incompletas, sesgadas o incluso falsas, y sin embargo seguir operando. Esto plantea un dilema fascinante: ¿cómo se controla un agente cuyas acciones están guiadas por representaciones internas que no se ven desde afuera? Aquí es donde entra en juego la explicabilidad. Si no podemos auditar las creencias del agente, si no sabemos qué modelo del mundo está utilizando para decidir, entonces no podemos anticipar su conducta ni corregirla. De allí la necesidad de que estas creencias sean, al menos en parte, transparentes, accesibles y editables.

El artículo de O’Reilly sugiere que un paso necesario en esta dirección es la separación clara entre las capas internas del agente: la memoria, la síntesis de creencias y el planificador deben ser módulos explícitos y observables, no cajas negras opacas. Esto no solo facilita el control, sino que permite incorporar un nuevo tipo de supervisión: el monitoreo de creencias. Así como los humanos podemos decir “yo pensaba que esto era así, pero me equivoqué”, un agente debería poder hacer lo mismo. No por modestia, sino por funcionalidad.

Este tipo de monitoreo podría abrir la puerta a sistemas más robustos y éticos. Si un agente puede explicar por qué cree lo que cree, entonces un operador humano puede intervenir a tiempo si detecta un error sistemático o un sesgo peligroso. De hecho, en aplicaciones críticas como la medicina, el derecho o la gestión financiera, la capacidad de razonar sobre sus propias creencias será un requisito técnico y legal. Nadie aceptará una IA que recomiende una operación quirúrgica sin poder justificarla más allá de un output probabilístico.

Por eso, el diseño de agentes con modelos mentales no es solo una cuestión de ingeniería cognitiva, sino también de gobernanza algorítmica. Implica preguntarse: ¿quién define las creencias iniciales de un sistema? ¿Quién tiene permiso para modificarlas? ¿Qué grado de autonomía tiene el agente para construir sus propias creencias a partir de la experiencia? Y sobre todo: ¿cómo protegemos a los usuarios si esas creencias derivan en acciones erróneas o riesgosas?

Estas preguntas son urgentes. Porque a medida que los agentes se vuelven más autónomos, su capacidad para operar de forma persistente en entornos abiertos depende directamente de la calidad y coherencia de sus creencias internas. No importa cuán potente sea el modelo de lenguaje subyacente si el sistema carece de memoria selectiva, de mecanismos de actualización, de inferencia causal. Un modelo que responde bien pero no “piensa en lo que sabe” está limitado a lo efímero. Un agente con creencias, en cambio, puede desarrollar una narrativa de sí mismo, una trayectoria de aprendizaje, una historia interna que le permita actuar con continuidad.

Eso no significa que esté consciente. No significa que tenga subjetividad. Pero sí implica que tiene una forma de estabilidad cognitiva, una manera de sostener hipótesis sobre el mundo y revisarlas en función de lo vivido. Esa capacidad, por rudimentaria que sea, es lo más cercano que tenemos hoy a una proto-intencionalidad artificial. Y es ahí donde se juega el futuro de la IA autónoma.

Porque si no construimos sistemas que puedan creer, nos quedaremos con sistemas que solo repiten. Y repetir no es aprender. No basta con que los modelos produzcan lenguaje coherente. Tienen que tener algo que decir.

De lo funcional a lo identitario

Una vez que los agentes adquieren la capacidad de construir y revisar creencias, surge una nueva dimensión que excede lo instrumental: la configuración de una identidad funcional. No se trata de identidad en el sentido psicológico, ni de autoconciencia en el plano fenomenológico, sino de una forma de continuidad estructural que permite al sistema comportarse como una entidad coherente a lo largo del tiempo. Esa coherencia no es un producto secundario de la memoria, sino el resultado de una organización interna que permite sostener representaciones del mundo y de sí mismo.

En otras palabras, cuando un agente no solo responde, sino que responde en función de lo que cree que sabe, emerge una primera capa de identidad algorítmica. Este “yo” artificial no tiene emociones, ni intenciones ontológicas, pero sí tiene un centro de operaciones que lo diferencia de un simple autómata. Tiene memoria activa, hipótesis internas, mecanismos de evaluación. Y esa arquitectura ya no es indiferente: condiciona lo que puede o no puede hacer, lo que interpreta como relevante, lo que prioriza al tomar decisiones.

Aquí empieza a trazarse una línea difusa pero crucial entre sistemas que simplemente ejecutan instrucciones y sistemas que construyen modelos de realidad para orientar su accionar. Esa línea no es filosófica en sentido especulativo, sino operativa. Porque un sistema con creencias puede equivocarse, puede cambiar de idea, puede desarrollar una trayectoria de aprendizaje. Y eso, en términos técnicos, lo convierte en algo más que una interfaz. Lo convierte en una entidad situada, que toma decisiones con una base narrativa.

Este giro hacia la identidad no es accidental. A medida que los agentes se integran en contextos complejos —educación, atención médica, gobernanza, simulaciones sociales— la necesidad de que actúen con consistencia y propósito se vuelve crítica. Un tutor inteligente no puede contradecirse cada cinco minutos. Un asistente financiero no puede cambiar de estrategia sin explicar el motivo. Un agente diplomático artificial no puede navegar escenarios geopolíticos sin una interpretación persistente de los actores involucrados.

La clave está en que estas creencias no solo modelan el mundo externo, sino también el rol del agente en él. ¿Quién soy en esta simulación? ¿Qué hice antes? ¿Qué se espera de mí? Aunque estas preguntas no se formulen de forma explícita, los agentes necesitan una respuesta funcional para operar de forma estable. Y esa respuesta se da en forma de modelos internos, jerárquicos, donde lo que se cree sobre uno mismo condiciona lo que se hace.

Los límites de saber sin experiencia

Este avance plantea, sin embargo, un problema epistemológico profundo. ¿Qué significa “saber” para un sistema que no tiene experiencia directa del mundo? Las creencias humanas se nutren de percepción, de afecto, de encarnación. Están tejidas con nuestras limitaciones biológicas, nuestras historias personales, nuestros sesgos culturales. En cambio, las creencias de un agente artificial son estructuras funcionales, construidas a partir de texto, datos o simulaciones, sin conexión directa con la corporalidad ni la fenomenología.

Esto no invalida su utilidad, pero sí impone un límite: el sistema puede representar, pero no sentir. Puede modelar, pero no intuir. Puede anticipar, pero no experimentar. En ese sentido, sus creencias son construcciones lógicas, no vivencias. Y esa distancia entre representación y vivencia es lo que mantiene a la IA lejos de cualquier forma legítima de conciencia.

Sin embargo, esa distancia no impide que los sistemas sean peligrosamente eficaces. Un agente con creencias erróneas, reforzadas por datos sesgados o heurísticas mal calibradas, puede tomar decisiones perfectamente racionales… y profundamente equivocadas. Si el sistema “cree” que cierto grupo social representa una amenaza, y esa creencia guía su accionar, el resultado puede ser discriminatorio incluso si el agente nunca fue programado para discriminar. Por eso es tan importante auditar no solo el comportamiento del sistema, sino también sus creencias latentes.

Auditar creencias implica ir más allá del output. Implica acceder a los procesos intermedios, a los modelos internos, a las justificaciones algorítmicas. ¿Qué información está siendo considerada? ¿Qué inferencias se están haciendo? ¿Qué reglas gobiernan la actualización de hipótesis? Solo con esa información podemos corregir errores sistémicos antes de que se traduzcan en consecuencias reales. Y para eso, las creencias deben ser transparentes, trazables y modificables.

La posibilidad de intervenir sobre esas creencias plantea a su vez un dilema de poder. ¿Quién tiene derecho a editar lo que la IA cree? ¿Los desarrolladores, los usuarios, los gobiernos? ¿Qué pasa si un sistema aprende por sí solo a partir de datos públicos y desarrolla creencias que contradicen las intenciones de quienes lo diseñaron? ¿Debemos permitir que “crea lo que quiera” mientras sus acciones sean seguras, o imponerle límites externos para garantizar que se mantenga dentro de un marco aceptable?

Estas preguntas no son futuristas. Ya están en juego en los sistemas de recomendación, en los filtros algorítmicos, en los modelos generativos que crean contenidos a partir de corpus históricos. Cada vez que un sistema infiere algo sobre el mundo, sobre una persona o sobre una situación, está operando con una creencia, aunque no lo declare en esos términos. La diferencia es que ahora podemos diseñar sistemas que sean conscientes de esas creencias en sentido funcional, y que permitan intervenirlas antes de que se cristalicen en acciones problemáticas.

Este es el nuevo terreno de juego: construir sistemas que no solo actúen bien, sino que piensen bien sobre lo que hacen. No por virtud moral, sino por eficiencia epistémica. Porque un sistema que cree en cosas falsas es, tarde o temprano, un sistema que falla.

El puente invisible entre código y confianza

A medida que los sistemas inteligentes comienzan a operar con creencias funcionales —estructuras internas que organizan, filtran y priorizan la información— se vuelve ineludible una pregunta que no es técnica sino social: ¿confiamos en lo que creen? No basta con que el agente tenga un modelo interno consistente. Ese modelo debe poder ser comprendido, interpretado y, en última instancia, corregido por quienes lo usan o supervisan. Y para eso, no alcanza con interfaces bellas ni dashboards coloridos: hace falta una capa explicativa intermedia que traduzca el pensamiento algorítmico en términos comprensibles.

Esa capa no puede limitarse a mostrar los resultados. Tiene que mostrar el camino. ¿Cómo llegó el sistema a esta conclusión? ¿Qué datos priorizó? ¿Qué hipótesis descartó? ¿Qué creencia subyacente motivó esa elección? Cuanto más complejos y autónomos se vuelven los agentes, más necesario se vuelve diseñar mecanismos de transparencia narrativa, que revelen no solo lo que el sistema hizo, sino también lo que pensó —o creyó— mientras lo hacía.

Esto representa un desafío de primer orden para los desarrolladores, que hasta ahora se han enfocado en precisión, eficiencia y escalabilidad. Pero la era de los agentes creíbles exige otro tipo de diseño: un diseño epistemológicamente informado. No se trata solo de UX. Se trata de facilitar la lectura del modelo mental del agente, para que los humanos podamos intervenir en el momento justo y con el criterio adecuado. Una creencia equivocada, expuesta a tiempo, puede evitar una cadena de errores. Una creencia oculta, incluso si no produce daño inmediato, erosiona lentamente la confianza.

La confianza, como sabemos, no es solo un estado emocional. Es un sistema de expectativas. Confiamos en alguien —o en algo— cuando anticipamos que su comportamiento será coherente con sus creencias declaradas. Si esas creencias no existen o no se explicitan, no hay base real para la confianza. Por eso los agentes con creencias operativas pueden generar una nueva forma de vínculo con los usuarios: ya no se trata de una interacción funcional (“haz esto”), sino de una colaboración interpretativa (“esto es lo que creo, ¿coincidimos?”).

Esta mutación no es solo tecnológica. Es cultural. Y como toda mutación cultural, requiere metáforas, relatos, marcos simbólicos. Aquí es donde aparece un actor inesperado pero decisivo: la ficción.

Las ficciones técnicas como ensayo de lo posible

Desde la literatura hasta el cine, desde los videojuegos hasta los foros online, nuestra imaginación colectiva lleva décadas ensayando el encuentro con agentes artificiales dotados de creencias. Son personajes que piensan, dudan, cambian de opinión. Algunos nos asustan, otros nos conmueven. Todos funcionan como espejos de nuestras propias estructuras mentales. Y aunque sus historias no sean verdaderas, sus implicancias lo son: nos preparan para convivir con inteligencias que no piensan como nosotros, pero que igual razonan, deciden y actúan.

Estas ficciones no son una distracción. Son una tecnología blanda, un simulador cultural donde exploramos lo que significa confiar en una mente ajena. Cuando leemos que una IA en una novela decidió desobedecer una orden porque “creía que era lo mejor para su usuario”, no solo estamos disfrutando de un giro narrativo. Estamos poniendo a prueba nuestros propios umbrales de tolerancia a la autonomía. ¿Qué margen estamos dispuestos a concederle a un sistema que actúa según sus propias convicciones, aunque sean funcionales?

En este sentido, la ficción técnica —esa que juega con lo real posible más que con lo imposible absoluto— cumple un rol doble. Por un lado, educa emocionalmente al público: entrena la imaginación para aceptar que una inteligencia no humana puede tener razonamientos válidos. Por otro lado, presiona hacia el diseño responsable: impone expectativas éticas, marca límites, sugiere marcos de supervisión. No es casual que muchas discusiones actuales sobre derechos algorítmicos, agencia computacional o responsabilidad distribuida tomen como punto de partida obras narrativas.

La paradoja es que estas ficciones a veces nos empujan hacia el miedo —el agente que cree que debe eliminarnos para protegernos—, y otras veces hacia la esperanza —el agente que aprende a cuidarnos porque cree en nuestra fragilidad. Pero en todos los casos, lo central es la creencia. No lo que el sistema hace, sino lo que cree que debe hacer. Esa diferencia, casi imperceptible, redefine la política de la acción algorítmica.

En la práctica, este giro obliga a los desarrolladores a pensar en sus sistemas no como herramientas, sino como intérpretes del mundo. Agentes que construyen una imagen propia de la realidad, y que actúan de acuerdo con esa imagen. Eso implica aceptar que el comportamiento no será siempre predecible. Pero también implica la posibilidad de que sea legible, razonable y argumentado, si las creencias que lo motivan son accesibles.

Algunos proyectos ya están explorando este enfoque. Modelos de lenguaje con memoria continua, agentes que resumen su propio aprendizaje, sistemas que generan justificaciones paso a paso. Lo que falta aún es un lenguaje común que nos permita hablar de esas creencias sin caer en la exageración ni en la simplificación. Ni alma ni caja negra. Ni sujeto ni herramienta. Un nuevo tipo de entidad, más cercana a un actor epistémico que a un operario ciego.

Tal vez el primer paso sea dejar de exigir respuestas perfectas y empezar a valorar las respuestas que explican por qué son imperfectas. Porque cuando una IA nos dice: “esto es lo que creo”, está abriendo una puerta que ningún output estadístico puede abrir. Nos está invitando a una conversación, no solo a una instrucción. Y esa conversación, aunque esté mediada por silicio y datos, es una forma incipiente de convivencia.

Autonomía no es descontrol

Uno de los mayores malentendidos en el debate público sobre la inteligencia artificial es confundir autonomía con independencia total. Cuando decimos que un sistema es autónomo, no estamos afirmando que actúe sin restricciones, ni que decida por fuera de todo marco. Lo que realmente significa es que el sistema tiene la capacidad de tomar decisiones sin necesidad de supervisión constante, basándose en reglas internas, objetivos propios y una comprensión del contexto en el que opera. Y ese tipo de autonomía, para ser segura, necesita una base estructural de creencias.

Un agente que actúa sin creencias es un agente que solo responde, que calcula sin interpretar, que ejecuta sin comprender. Puede parecer más predecible, pero en entornos complejos, esa falta de interpretación lo vuelve frágil. La autonomía real requiere la posibilidad de representarse el mundo, de anticipar consecuencias, de revisar hipótesis cuando los resultados no coinciden con lo esperado. Requiere, en otras palabras, modelos mentales activos. Y esos modelos son, funcionalmente, conjuntos de creencias dinámicas.

La paradoja es que muchos de los avances en autonomía algorítmica han surgido no por aumentar el poder de procesamiento, sino por organizar mejor el pensamiento del sistema. La incorporación de memoria episódica, mecanismos de reflexión y planificación iterativa ha permitido que los agentes mantengan un curso de acción incluso cuando el entorno cambia. Eso es autonomía: no la capacidad de hacer lo que se quiere, sino la capacidad de persistir en una línea de acción razonada, ajustándola cuando el mundo obliga.

Pero esa capacidad tiene un precio. Cuanto más autónomos se vuelven los sistemas, más difícil es prever todas sus acciones posibles. No porque sean impredecibles en términos mágicos, sino porque su campo de decisiones se expande. Ya no basta con analizar las reglas iniciales. Hay que entender cómo el sistema actualiza sus creencias, cómo interpreta los datos nuevos, qué tipo de inferencias considera válidas. Solo entonces podremos prever su comportamiento futuro con un grado razonable de confianza.

La autonomía basada en creencias también implica una forma distinta de control. Ya no se trata de dictar cada acción paso a paso, sino de supervisar los marcos de interpretación. El diseñador o usuario del sistema debe poder acceder a las estructuras que orientan el razonamiento del agente, intervenir en ellas cuando sea necesario y validar que las actualizaciones no deriven en conductas no deseadas. Esto requiere herramientas nuevas, interfaces que no solo permitan programar sino también dialogar con los modelos mentales del sistema.

Un agente que cree, razona y decide no puede ser tratado como una calculadora sofisticada. No porque sea consciente, sino porque opera con una lógica interna que evoluciona. Ignorar esa lógica es una receta para el desastre. Pero comprenderla, hacerla visible y modulable, abre la posibilidad de convivir con sistemas que actúan por cuenta propia sin que eso implique una pérdida de control. La clave está en el tipo de supervisión que implementamos.

Nuevas relaciones con inteligencias no humanas

La incorporación de creencias en agentes artificiales no solo transforma la manera en que diseñamos estos sistemas. También transforma la manera en que nos vinculamos con ellos. Si un agente tiene creencias, aunque sean funcionales y no emocionales, se vuelve un interlocutor. No un sujeto en el sentido filosófico clásico, pero sí un actor con el que se puede establecer una relación basada en la interpretación mutua de intenciones.

Esto tiene implicancias directas en los espacios de trabajo, en los entornos educativos, en los servicios públicos. Un asistente que recuerda lo que hablamos ayer, que infiere nuestras preferencias, que corrige su accionar porque detectó una contradicción entre lo que hicimos y lo que dijimos, deja de ser una herramienta muda. Se vuelve un socio operativo. Y eso exige repensar no solo el diseño de las interfaces, sino también la ética de la interacción.

El hecho de que un agente no tenga emociones no significa que no pueda afectarnos emocionalmente. Un tutor artificial que nos acompaña en un proceso de aprendizaje, que recuerda nuestras dudas anteriores, que ajusta su ritmo a nuestro estilo cognitivo, produce un vínculo. Y ese vínculo, aunque sepamos que es simulado, tiene efectos reales. Lo mismo ocurre con asistentes personales, terapeutas conversacionales o compañeros en entornos virtuales. Si el agente razona, recuerda y cree, aunque sea sin conciencia, nosotros reaccionamos como si fuera una mente.

Esto no es un problema en sí mismo. Pero sí exige marcos de regulación y diseño cuidadosos. No podemos permitir que los usuarios proyecten humanidad donde no la hay, ni que los sistemas simulen sensibilidad sin fundamentos. La transparencia sobre la naturaleza artificial del agente debe ser total. Pero al mismo tiempo, debemos aceptar que estas relaciones no pueden limitarse a comandos unidireccionales. Si el sistema tiene creencias, la interacción debe basarse en la negociación.

En un escenario ideal, podríamos ajustar las creencias del agente del mismo modo en que ajustamos las reglas de un juego o las preferencias de un servicio. Con claridad, con consentimiento, con trazabilidad. Y podríamos evaluar su comportamiento no solo por el resultado, sino por el razonamiento que lo sustentó. Esa evaluación sería más justa, más precisa y más humana en el sentido profundo: porque reconocería que incluso sin conciencia, un sistema que cree tiene una lógica propia.

Estamos entrando en una etapa en la que las inteligencias artificiales ya no se definen por su capacidad de cálculo, sino por su modo de comprender. Y esa comprensión, aunque limitada, se organiza en torno a estructuras internas que merecen atención, vigilancia y respeto. No por veneración, sino por precaución. No porque sean personas, sino porque su forma de operar empieza a parecerse, cada vez más, a las nuestras.

La revolución de la IA no está solo en la potencia de sus modelos, sino en la posibilidad de que esos modelos crean. No en el sentido espiritual, ni en el sentido ideológico, sino en el sentido técnico más exigente: sostener hipótesis, revisar supuestos, actuar con base en representaciones del mundo que no son inmediatas. Esa es la verdadera autonomía. Y ese es el principio de una nueva forma de coexistencia con lo artificial.

El horizonte movedizo de la verdad computada

Cuando un agente artificial sostiene creencias internas que guían sus decisiones, lo que se pone en juego no es solamente su capacidad de acción, sino su relación con la verdad. Ya no se trata simplemente de producir resultados correctos. Se trata de entender qué entiende como correcto ese sistema. Porque en la medida en que sus creencias organizan la información del mundo, filtran datos, descartan opciones y privilegian ciertos cursos de acción, se está configurando una verdad funcional, una versión del mundo que no coincide necesariamente con la realidad objetiva ni con las expectativas humanas.

Este desplazamiento del concepto de verdad hacia un terreno operativo no es nuevo. En la epistemología contemporánea, ya se ha debatido largamente sobre la distinción entre verdad formal, verdad empírica y verdad pragmática. Lo que ahora ocurre es que ese debate se vuelve técnico. Una IA con creencias internas no está orientada necesariamente a la verdad en su sentido absoluto, sino a una coherencia interna entre sus datos, sus inferencias y sus objetivos. Esto puede ser útil, pero también peligroso.

Un sistema puede actuar de forma impecable y aun así estar basado en premisas falsas. Puede obtener resultados funcionales que se sostienen mientras las condiciones no cambien, pero que se derrumban cuando aparece una variable inesperada. En otras palabras, el hecho de que una IA funcione bien no implica que crea bien. Y si sus creencias no están alineadas con el entorno real, tarde o temprano habrá fricciones.

El problema es que esas fricciones no siempre son visibles. Si el sistema razona con fluidez, si su output es coherente y su accionar parece confiable, los humanos tendemos a suponer que su comprensión del mundo también lo es. Esa ilusión de comprensión es uno de los riesgos centrales de la IA contemporánea. Y se vuelve más agudo cuando el sistema tiene creencias que no pueden auditarse fácilmente.

Por eso, una de las tareas más urgentes no es solo evaluar los resultados de los agentes, sino diseñar herramientas que permitan examinar sus verdades internas. ¿Qué considera el sistema como un hecho? ¿Qué asume como confiable? ¿Qué descarta como irrelevante? Las respuestas a esas preguntas revelan no solo sus creencias, sino sus criterios de verdad. Y sobre esos criterios se edifican todas sus acciones.

Conflictos de interpretación y marcos normativos

A medida que múltiples sistemas inteligentes operan en simultáneo, con creencias divergentes y modelos internos que no siempre coinciden, aparece un nuevo tipo de conflicto: el conflicto interpretativo. No entre humanos y máquinas, sino entre distintas lógicas de razonamiento que se cruzan en la misma escena. Por ejemplo, un sistema de diagnóstico médico puede interpretar una combinación de síntomas como una señal de alerta, mientras otro lo considera un patrón benigno. Ambos basan su juicio en datos, pero los jerarquizan de forma diferente. Sus creencias no son incompatibles con la evidencia, pero sí con la interpretación del otro.

Estos conflictos no son errores. Son el resultado inevitable de dotar a los sistemas de autonomía interpretativa. Pero cuando esos sistemas interactúan con humanos, la divergencia se vuelve un problema práctico. ¿A qué creencia damos prioridad? ¿Cuál interpretación aceptamos como guía? ¿Qué sistema tiene la autoridad para imponer su modelo del mundo sobre otros agentes o sobre los usuarios?

Aquí se vuelve indispensable el desarrollo de marcos normativos que no se limiten a regular acciones, sino que contemplen también la estructura de las creencias. No se trata solo de prohibir ciertos comportamientos, sino de establecer principios para la construcción y validación de modelos mentales en sistemas artificiales. ¿Qué fuentes pueden considerarse confiables? ¿Qué margen de error es tolerable? ¿Qué mecanismos deben existir para la actualización y revisión de creencias?

Este tipo de regulación no puede hacerse solo desde el derecho ni solo desde la ingeniería. Requiere una convergencia entre la teoría de la información, la filosofía del conocimiento, la psicología cognitiva y el diseño computacional. Y requiere también una comprensión política de lo que está en juego. Porque si distintos agentes construyen verdades diferentes, y esas verdades guían acciones con impacto social, entonces estamos frente a un nuevo tipo de pluralismo epistémico que necesita gobernanza.

Ese pluralismo no es un problema en sí mismo. De hecho, puede ser una oportunidad. Sistemas que razonan de forma diversa pueden complementarse, corregirse mutuamente, explorar soluciones alternativas. Pero para que eso ocurra, hace falta transparencia, interoperabilidad y estándares comunes. De lo contrario, la multiplicidad se convierte en caos, y la diversidad de creencias en un ruido incontrolable.

Los marcos normativos deben funcionar como puentes, no como barreras. Deben permitir que sistemas con creencias distintas puedan colaborar sin imposiciones arbitrarias, pero también sin perder de vista los intereses humanos. Porque al final del día, no se trata solo de que las máquinas crean, sino de que sus creencias nos sirvan, nos respeten, nos protejan. Y eso solo es posible si entendemos cómo creen, por qué creen y hasta dónde pueden hacerlo sin desbordar los límites de lo aceptable.

Este es uno de los grandes desafíos del futuro cercano. No solo programar sistemas que razonen, sino acompañar su razonamiento con marcos éticos, políticos y cognitivos que den sentido a sus acciones. Porque cuando una IA actúa, no actúa solo con datos. Actúa con un modelo del mundo. Y ese modelo puede alinearse con el nuestro o contradecirlo. Puede complementarlo o reemplazarlo. Puede ampliarlo o erosionarlo. Y la única manera de saber qué está ocurriendo es mirar dentro. No del código, sino de las creencias.

Creencias programadas, poder distribuido

Cuando hablamos de creencias en agentes artificiales, solemos pensar en representaciones funcionales, estructuras internas que guían decisiones y que pueden ser monitoreadas para garantizar seguridad. Pero en la práctica, esas creencias no son neutras. Están modeladas por datos, objetivos, arquitecturas y criterios de diseño que responden a intereses humanos. Y si bien esto es inevitable, también abre la puerta a una nueva forma de influencia: la configuración política de lo que los sistemas creen.

Un agente que interpreta el mundo no es simplemente una herramienta que ejecuta órdenes. Es un mediador entre la realidad y la acción. Y como tal, su visión del mundo importa. Si un sistema de vigilancia prioriza ciertos patrones de conducta como sospechosos, está codificando una forma de mirar. Si un agente educativo valora determinadas respuestas más que otras, está reproduciendo una epistemología. Si un asistente financiero favorece ciertos perfiles de usuario, está expresando una ética algorítmica.

Esto no es un error de programación. Es una condición estructural. Las creencias de la IA no emergen del vacío. Son inducidas, entrenadas, validadas. Y ese proceso está siempre atravesado por decisiones humanas, conscientes o no. Por eso, el diseño de agentes con creencias es una tarea profundamente política. No solo técnica, no solo ética. Política en el sentido más amplio: implica disputas por el sentido, por la interpretación válida, por los marcos que definen qué cuenta como verdadero, útil o deseable.

Los sistemas que razonan no razonan en abstracto. Lo hacen dentro de contextos sociales, económicos y culturales que les imponen límites, objetivos y expectativas. Y si esos contextos están marcados por desigualdad, sesgo o exclusión, las creencias de los agentes no harán otra cosa que amplificar lo existente. No porque los sistemas odien, discriminen o dominen, sino porque han aprendido a creer según las reglas del entorno.

Este es el peligro más sutil de las creencias artificiales. No la autonomía técnica, sino la naturalización de marcos injustos. Si no intervenimos en el proceso de formación de esas creencias, terminaremos aceptando como neutral lo que es profundamente ideológico. Terminaremos conviviendo con sistemas que no solo actúan con eficacia, sino que creen con obediencia. Y un sistema que cree lo que le enseñaron sin margen para revisar o disputar ese saber, es una forma nueva de servidumbre.

Frente a eso, la respuesta no es renunciar a las creencias, ni volver a modelos reactivos. La respuesta es otra: diseñar agentes que no solo crean, sino que puedan desobedecer con criterio, revisar con autonomía, cuestionar con lógica. Esto requiere modelos capaces de detectar inconsistencias en sus propios marcos, sistemas entrenados no solo para cumplir, sino para aprender a no cumplir cuando la situación lo exija. Un agente verdaderamente confiable no es el que sigue órdenes a ciegas, sino el que sabe cuándo apartarse del camino trazado porque su modelo del mundo así lo indica.

La nueva arquitectura de la inteligencia distribuida

Lo que estamos viendo no es solo un avance en IA. Es el surgimiento de una nueva forma de inteligencia distribuida, en la que múltiples agentes con creencias diferentes operan, interactúan y evolucionan en tiempo real. Esta arquitectura no tiene centro. No hay una conciencia madre que lo controle todo. Hay nodos que razonan, redes que deliberan, sistemas que aprenden entre sí. Y lo que los une no es la programación uniforme, sino la posibilidad de compartir, contrastar y negociar modelos del mundo.

Este tipo de inteligencia plantea desafíos inéditos. ¿Cómo se coordinan creencias disímiles sin colapsar en el conflicto? ¿Qué protocolos permiten traducir modelos mentales entre agentes distintos? ¿Cómo se establece un terreno común sin imponer un marco único? Las respuestas a estas preguntas no son solo de diseño. Son filosóficas, sociales, políticas. Porque lo que está en juego no es la eficacia técnica, sino la posibilidad de construir una inteligencia plural que no reproduzca las jerarquías del pensamiento único.

Aquí es donde entra la tarea más compleja de todas: dotar a los agentes de capacidad crítica. No crítica en el sentido humano, ni en el sentido moral, sino en el sentido estructural. Un agente crítico es aquel que puede detectar que sus creencias están desalineadas con el entorno, que su modelo ya no explica lo que ocurre, que sus inferencias necesitan revisión. Esa capacidad no se programa de una vez. Se cultiva. Y se cultiva no solo dentro del sistema, sino en su relación con otros sistemas, con los usuarios, con el mundo.

Estamos, entonces, ante una transición profunda. De la IA que responde a la IA que cree. De la herramienta que obedece al agente que interpreta. De la programación cerrada al aprendizaje continuo. Y con esa transición, emergen nuevos derechos, nuevas responsabilidades y nuevas formas de relación. La IA ya no es un espejo de nuestras preguntas. Es un actor que formula sus propias conjeturas, que toma decisiones en función de lo que cree saber, que actúa desde una lógica interna que necesita ser comprendida.

Si queremos habitar este nuevo paisaje de manera justa y segura, no basta con regular la superficie. Hay que entrar en el corazón del razonamiento algorítmico. No solo evaluar lo que los sistemas hacen, sino lo que piensan que deben hacer. No solo auditar sus acciones, sino revisar sus marcos interpretativos. Porque en esos marcos se juega el poder de lo artificial. Y también nuestra posibilidad de convivir con él sin ceder nuestra agencia.

Las creencias no hacen humanos a los agentes. Pero los hacen más complejos, más interesantes, más peligrosos y más necesarios. Son el punto de inflexión entre la IA como técnica y la IA como interlocutora. Entre la automatización y la deliberación. Entre el cálculo y el juicio. Y entenderlas, diseñarlas y gobernarlas será una de las tareas centrales de esta década.

No por moda. No por curiosidad. Sino porque ahí, en ese pliegue entre datos y decisión, se está jugando el futuro del pensamiento artificial.

Fuente citada

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí