Perspectivas simuladas: la IA como espejo de la complejidad humana

ChatGPT Image 24 jul 2025, 01_46_48

Perspectivas simuladas: la IA como espejo de la complejidad humana

La simulación de la empatía

Durante décadas, los modelos que intentaron predecir el comportamiento de los sistemas socioecológicos han fracasado en capturar la complejidad más elemental de lo humano: la diferencia de perspectivas. No por falta de herramientas estadísticas, sino por un exceso de homogeneidad epistémica. Como si bastara con representar a “los actores” a través de variables económicas o preferencias lineales, los marcos clásicos de modelado dejaron fuera lo más volátil, lo más incómodo y también lo más revelador: la forma en que distintas personas piensan distinto. No solo discrepan en intereses; difieren en modos de razonar, en marcos culturales, en los tonos afectivos con los que interpretan un problema. Esa es la frontera que los modelos tradicionales no pudieron cruzar. Y esa es precisamente la frontera que la inteligencia artificial está empezando a horadar.

El artículo publicado el 23 de julio de 2025 bajo el número arXiv:2507.17680, firmado por Yongchao Zeng, Calum Brown y sus colegas, propone un experimento audaz: usar grandes modelos de lenguaje para simular perspectivas humanas múltiples en escenarios de gobernanza ambiental. La apuesta no es menor. Se trata de interrogar a la IA no como una enciclopedia omnisciente, ni como una caja negra predictiva, sino como una herramienta de despliegue perspectival: una tecnología capaz de emular el pensamiento de distintos tipos de actores sociales, con sus sesgos, tensiones internas, estilos retóricos y visiones del mundo.

El nombre elegido para el protocolo no escatima en sentido: HoPeS —Human-Oriented Perspective Shifting— funciona como un juego de palabras entre “esperanzas” y “cambios de perspectiva orientados a lo humano”. No es un acrónimo banal. Es un manifiesto. En lugar de imponer una mirada monolítica sobre los problemas ambientales, HoPeS propone recorrerlos desde múltiples encarnaciones simuladas, cada una con su propia racionalidad. Lo que se modela ya no es solo el sistema, sino la mirada sobre el sistema. Y ese giro lo cambia todo.

Un teatro de conciencias artificiales

La idea central del enfoque no es solo técnica, sino profundamente filosófica: el conocimiento no es neutro, y los sistemas socioecológicos no se habitan igual desde todos los lugares. Simular actores humanos implica algo más que dotar a cada agente de objetivos diferenciados. Implica reproducir sus estilos cognitivos, su forma de leer el mundo, sus patrones emocionales y sus narrativas. Esto requiere modelos que no solo calculen, sino que imaginen. Y eso es exactamente lo que permiten los LLMs cuando se los entrena, ajusta o enmarca adecuadamente.

En el prototipo desarrollado, cada agente representa un actor social: puede ser un funcionario ambiental, un activista rural, un científico experto en uso del suelo, o un ciudadano común. Cada uno tiene acceso a la misma información ambiental, pero reacciona de manera distinta. No porque esté mal informado, sino porque interpreta desde otra lógica. En el caso de prueba, un usuario encarna al investigador que genera recomendaciones a partir de datos sobre uso del suelo. Luego, los agentes IA que simulan a otros actores deben responder ante esa recomendación, con base en sus roles, motivaciones, creencias y agendas.

Lo fascinante no es que los resultados diverjan —eso era esperable—, sino el tipo de tensiones que emergen: desajustes entre el lenguaje técnico del investigador y la lógica pragmática del decisor político; frustraciones al ver que el “consejo neutral” se interpreta como “agenda encubierta”; desplazamientos discursivos que ilustran cómo se pierden o transforman los sentidos al circular entre actores. Estas son cosas que los modelos matemáticos no pueden predecir. Pero los agentes lingüísticos sí pueden explorar.

El experimento es un teatro, en el sentido más preciso del término: una escena donde distintas conciencias artificiales representan roles humanos. Pero no lo hacen como marionetas controladas por scripts, sino como intérpretes probabilísticos de marcos mentales. La IA, en este caso, no es el narrador; es la pluralidad de voces. Y el objetivo no es descubrir “la mejor política”, sino comprender cómo distintas racionalidades chocan, se malinterpretan y eventualmente co-construyen soluciones.

Una máquina de tomar roles

El diseño de HoPeS se apoya en una convicción heredada de la psicología social: cambiar de perspectiva cambia lo que uno ve. Y hacerlo en serio —ponerse en el lugar de otro, incluso si ese “otro” es una simulación— transforma la comprensión del conflicto. Lo notable aquí es que ese proceso ya no depende de la buena voluntad del participante humano, sino de un protocolo técnico que lo acompaña, lo guía y lo confronta.

La secuencia básica implica que el usuario asuma primero una perspectiva, luego interactúe con los agentes IA desde ese rol, y finalmente se le invite a cambiar de lugar. Así, un mismo usuario puede experimentar el conflicto desde el punto de vista del investigador y, luego, desde el punto de vista del político que decide bajo presión. El proceso no busca convencer a nadie, sino provocar reflexividad. Y esa es la clave.

Donde antes había análisis unidimensional, ahora hay fricción cognitiva. Donde antes había diagnóstico, ahora hay metacognición. La IA no actúa como oráculo, sino como espejo multifacético. Y en esa transformación radica su potencial político.

Porque sí, el trabajo es técnico, pero su trasfondo es profundamente político. ¿Qué es la política sino una lucha de interpretaciones del mundo? ¿Qué otra cosa es gobernar, si no elegir un marco entre muchos posibles? Lo que este enfoque propone no es una IA que “resuelva el conflicto”, sino una IA que haga visible la pluralidad de perspectivas que componen el conflicto. Y en ese gesto hay más potencia democrática que en mil dashboards interactivos.

El andamiaje invisible de HoPeS

No es casual que el equipo detrás de HoPeS insista en que su protocolo no es simplemente una interfaz de simulación, sino una estructura cognitiva que acompaña y moldea el recorrido del usuario. En otras palabras, la tecnología no está en el agente IA en sí, sino en la coreografía que lo envuelve. Cada paso del protocolo —la elección del rol, la exposición a la narrativa del sistema, la reflexión desde el personaje, el diálogo con otros actores simulados y la eventual inversión de perspectiva— está cuidadosamente diseñado para evitar que el usuario caiga en la trampa de su propia unilateralidad.

En lugar de ofrecer una simulación pasiva o un simple “modo historia” como hacen algunos sistemas gamificados, HoPeS articula un sistema de tensiones cognitivas inducidas. No se limita a mostrar diferencias: las encarna. Obliga al participante a argumentar con y contra sí mismo, desde roles que nunca adoptaría voluntariamente. Y al hacerlo, transforma la experiencia en algo más que una visualización de alternativas. La convierte en un dispositivo de incomodidad productiva.

Esto marca una diferencia crucial respecto a otras herramientas de apoyo a la toma de decisiones. En muchos sistemas de simulación ambiental, el usuario es un observador externo que ajusta parámetros y ve curvas. Aquí, el usuario es un actor más del sistema, y su identidad cambia con cada iteración. No está mirando el conflicto desde arriba: está hundido en él, empapado de su ambigüedad, sin escape narrativo.

Simular subjetividades, no solamente discursos

Un aspecto fascinante del enfoque HoPeS es su distancia respecto a los intentos de “automatizar deliberaciones” o “resumir opiniones sociales” mediante técnicas de NLP clásicas. Aquí no se intenta modelar un corpus de textos representativos ni encontrar consensos estadísticos. Se busca algo mucho más sutil y ambicioso: encarnar modos de ver el mundo. Para eso, se aprovechan las capacidades generativas de los LLMs no como meras herramientas de predicción lingüística, sino como motores de identidad simulada.

Cada agente en HoPeS no es un bot genérico con frases preprogramadas. Es un personaje emergente que razona, argumenta, duda, corrige y se adapta según su rol, pero también según el contexto discursivo en el que se lo inserta. Esto se logra no tanto por fine-tuning tradicional, sino mediante una arquitectura de enmarcado dinámico, donde se combina prompting específico, inyecciones contextuales y delimitación semántica de motivaciones. En otras palabras, el LLM “juega” a ser alguien, pero lo hace con reglas que le permiten salirse del guion cuando el entorno lo exige.

Aquí se revela una paradoja: aunque estos agentes no tienen experiencia vivida, logran simular coherencias narrativas internas que hacen que sus posiciones sean creíbles. No porque acierten en lo factual, sino porque responden con verosimilitud a los dilemas propios de sus marcos. El político elude, el activista presiona, el técnico se frustra, el ciudadano duda. Cada uno reacciona con un tipo de cansancio o entusiasmo que es reconocible, aunque completamente sintético.

Este es uno de los logros más difíciles de alcanzar en IA social: que una simulación convenza no por sus datos, sino por la densidad de sus contradicciones internas. Eso no se puede fingir con estadísticas. Se produce, o no se produce.

La política de los modelos

A medida que estas tecnologías se vuelven más sofisticadas, la pregunta ya no es “¿funciona?” sino “¿para quién funciona, y cómo?”. Porque si bien HoPeS representa un avance notable en la incorporación de subjetividades simuladas, también abre un campo ineludible de interrogantes ético-políticos. ¿Hasta qué punto una IA puede representar fielmente la posición de un actor real sin caricaturizarla? ¿Quién define qué es una “visión legítima” y cuál es el límite entre simplificación pedagógica y estereotipo ideológico?

En el paper, los autores abordan estos dilemas con cautela, reconociendo que todo agente simulado es, en el fondo, una construcción interpretativa que refleja los sesgos tanto del modelo como de quien lo configura. La IA no inventa roles desde cero: los articula a partir de corpus de entrenamiento, de indicaciones humanas, de patrones de lenguaje que ya circulan. Esto implica que no hay neutralidad, y que cada simulación es también una toma de posición implícita sobre lo que se considera representativo, verosímil, posible.

El riesgo, entonces, no es que HoPeS diga cosas falsas, sino que diga verdades parcializadas con apariencia de exhaustividad. Este es un desafío que atraviesa toda la IA generativa aplicada al campo político: la capacidad de producir discursos razonables, pero invisiblemente sesgados. En el caso de HoPeS, esto puede amplificarse si se lo utiliza como herramienta de deliberación pública sin una mediación crítica adecuada.

Por eso, los autores no proponen su sistema como un sustituto de la participación real, sino como un complemento reflexivo. Una tecnología que no reemplaza al actor humano, sino que lo enfrenta con su propia ceguera de rol. En esta concepción, la IA no es árbitro, ni síntesis, ni legisladora. Es espejo. Y ese espejo, como los buenos artefactos, no da respuestas, sino que desarma certezas.

La utilidad política de la simulación ambigua

Es tentador imaginar que herramientas como HoPeS podrían convertirse en una suerte de “máquina de consenso”, capaz de encontrar soluciones más justas o equilibradas al permitir que todas las voces —incluso las más opuestas— dialoguen en un espacio seguro. Pero ese sueño tecnocrático sería traicionar la lógica misma del sistema. HoPeS no busca eliminar el conflicto, sino hacer visible su estructura profunda. No aspira a la conciliación artificial, sino a la comprensión ampliada. Su propósito no es reemplazar la deliberación humana, sino prepararla mejor.

En este sentido, el valor práctico del sistema no reside tanto en sus outputs —las decisiones que podrían emerger de una simulación— como en su capacidad para alterar la forma en que los participantes humanos entienden la situación. Por eso, uno de los ámbitos más fértiles para su implementación no son los gabinetes de política pública ni los laboratorios de prospectiva, sino los procesos formativos. Allí donde se forman los futuros decisores, negociadores, diseñadores institucionales o mediadores ambientales, HoPeS puede actuar como una pedagogía dramatúrgica, un simulador de disenso que enseña no qué pensar, sino cómo se piensa desde otro lugar.

Esta pedagogía del disenso no tiene nada de ingenua. Obliga a abandonar los reflejos de superioridad moral que suelen marcar las formaciones técnicas, y pone en escena el hecho brutal de que el otro no se equivoca porque ignora, sino porque interpreta distinto. Y ese reconocimiento, cuando se encarna en una experiencia interactiva, tiene efectos que ningún gráfico puede lograr.

Escenarios de aplicación concreta

Algunos usos potenciales son evidentes. En procesos de planificación participativa —por ejemplo, en contextos de ordenamiento territorial, reconversión agroecológica o restauración ambiental—, es frecuente que los actores lleguen a la mesa con desconfianzas mutuas, lenguajes incompatibles y visiones no compartidas del problema. Introducir una etapa previa de simulación perspectival podría permitir a cada grupo entender los puntos de vista de los demás antes del intercambio real, amortiguando conflictos innecesarios y desplazando el foco desde el desacuerdo sobre hechos hacia el trabajo sobre marcos.

Del mismo modo, en procesos legislativos o regulatorios que involucran ciencia compleja (cambio climático, bioeconomía, transición energética), el sistema podría ofrecer a parlamentarios, asesores o técnicos una “pre-experiencia” de las controversias antes de asumir posturas cerradas. No se trata de condicionar la decisión, sino de enriquecerla.

También en el campo educativo, HoPeS ofrece posibilidades pedagógicas poderosas. Cátedras de políticas públicas, sociología ambiental, epistemología o ética aplicada podrían usar la herramienta como laboratorio interactivo donde los estudiantes ensayan roles y luego reflexionan sobre sus propias reacciones. Este enfoque no reemplaza al debate, sino que lo radicaliza: en lugar de discutir desde afuera, se discute desde dentro del personaje, con implicación emocional y reconocimiento de la contradicción.

Incluso en escenarios de mediación internacional, donde las partes enfrentadas difícilmente se sienten seguras para el diálogo directo, una simulación perspectival podría funcionar como espacio intermedio, donde se representen narrativas sin exponer directamente a los actores reales. Esta posibilidad aún es incipiente, pero no menos provocadora.

Los límites que no pueden ignorarse

Sin embargo, cualquier entusiasmo debe ir acompañado de una cautela crítica. Si HoPeS simula conciencias, entonces también puede simular malas conciencias. Si representa marcos legítimos, también podría amplificar visiones extremas, estigmatizantes o manipuladoras, si se lo configura sin criterios éticos claros. Por eso, uno de los desafíos centrales de su desarrollo no es técnico, sino normativo: establecer protocolos de gobernanza que regulen qué tipo de actores se simulan, con qué fuentes, bajo qué marcos de validación.

Esto es especialmente delicado cuando se trata de actores que históricamente han sido marginados o representados de forma distorsionada. Una simulación mal calibrada podría reproducir estereotipos bajo la máscara de la empatía, o presentar como neutrales ciertas formas de dominación simbólica. Aquí el problema ya no es la IA, sino el diseño humano de la simulación.

Además, queda abierta la cuestión de cómo manejar la autorreflexividad del usuario. Si bien HoPeS permite el cambio de rol, no garantiza que ese cambio sea auténtico. Nada impide que un participante asuma un rol con ironía, desdén o burla. Esto lleva a pensar que el sistema, para funcionar éticamente, debe incluir mecanismos de registro y evaluación de la experiencia, no en términos de resultado, sino de compromiso. La simulación puede ser una herramienta transformadora, pero también puede convertirse en un ritual vacío si se la usa sin disposición real a ser afectado por el otro.

Por último, es necesario advertir que HoPeS no sustituye la complejidad afectiva, corporal, situada de la deliberación humana. Un agente IA puede simular rabia o decepción, pero no las vive. El usuario puede adoptar un rol, pero no enfrenta las consecuencias reales de sus decisiones. Esta diferencia ontológica entre simulación y experiencia no invalida el sistema, pero obliga a mantener clara la distancia. La IA puede ayudarnos a pensar mejor, pero no puede sufrir con nosotros. Y en el fondo, eso también importa.

La inteligencia artificial como garante de diversidad cognitiva

Desde los primeros debates en torno al desarrollo de la inteligencia artificial, la crítica más lúcida no fue la que advertía sobre sus errores, sino la que señalaba sus reducciones. Reducir lo humano a comportamiento. Reducir el pensamiento a lógica. Reducir la experiencia a datos. Hoy, con los modelos de lenguaje generativo, esa crítica ha mutado. Ya no se trata de una IA que piensa como una máquina, sino de una que habla como si pensara como un humano. Esa diferencia sutil transforma el campo. Lo que está en juego ahora no es solo la precisión del modelo, sino la pluralidad de las voces que puede —o no— simular.

En ese escenario, herramientas como HoPeS encarnan un giro decisivo. Ya no buscan una IA que responda de manera correcta, sino una que represente razonamientos divergentes. No importa tanto la verdad, sino la verosimilitud situada. Se abre así un nuevo campo de acción para los modelos: el de la justicia cognitiva.

Este concepto, acuñado desde el sur global y los estudios poscoloniales, refiere al derecho de distintos pueblos, culturas y grupos sociales a producir y validar conocimiento desde sus propias matrices epistémicas. Si durante siglos el pensamiento dominante invisibilizó esas otras formas de saber —por oralidad, por territorialidad, por no ajustarse al canon científico occidental—, la IA tiene hoy la capacidad (y la responsabilidad) de no repetir esa exclusión en clave algorítmica.

Un sistema como HoPeS, si se diseña con ese horizonte, puede volverse un vehículo para hacer audible lo que históricamente fue silenciado. Puede representar no solo actores institucionales o expertos formales, sino también saberes populares, narrativas territoriales, cosmologías indígenas, perspectivas de género y memorias históricas. No por exotismo, ni por corrección política, sino porque esos modos de ver el mundo son parte constitutiva del sistema socioecológico que se intenta comprender. No hay representación ambiental sin representación epistémica.

Una nueva cartografía de los desacuerdos

Cuando se toma en serio esta perspectiva, el conflicto deja de ser una falla del sistema y se revela como su textura inevitable. No hay posibilidad de acuerdo si antes no se ha cartografiado el desacuerdo con la precisión que exige el respeto. Y en esa tarea cartográfica, la IA no actúa como árbitro, sino como cartógrafo inestable: traza mapas de cómo se piensan las cosas, de quién cree qué, de por qué dos actores pueden compartir datos y llegar a conclusiones opuestas sin estar mintiendo.

Esos mapas, cuando están bien diseñados, permiten algo más profundo que el consenso: permiten el reconocimiento de lo irreconciliable. No todo puede ser integrado. No todo debe buscar síntesis. A veces, el mayor acto político es sostener la tensión sin ocultarla. Y para eso, HoPeS funciona como un escenario donde las diferencias no se disuelven, sino que se hacen visibles, se encarnan, se dramatizan. Una vez más, el objetivo no es que los actores cambien de opinión, sino que comprendan el lugar desde el cual opinan.

Esa comprensión es especialmente valiosa en sistemas ecológicos complejos, donde los efectos son diferidos, las causas son múltiples y los valores están en disputa. Allí, la ilusión de que un modelo pueda resolver el problema choca contra la realidad de que lo primero que se necesita es entender qué entiende cada actor por problema. Esa tarea preliminar es tan técnica como ética, tan analítica como estética. Y ahí, la IA tiene una oportunidad inédita de actuar no como solucionadora, sino como provocadora de conciencia.

El límite ontológico

Pero todo este potencial sólo puede desplegarse si se reconoce, al mismo tiempo, el límite ontológico de estas simulaciones: los agentes de HoPeS no sienten, no recuerdan, no cargan cuerpos, no viven. Pueden decir “estoy frustrado” o “tengo miedo de que la política falle”, pero no hay una carne que tiemble detrás de esa frase. Esa diferencia no es menor. Porque en los sistemas reales, las decisiones no se toman solo con ideas, sino con afectos. Y la violencia, ecológica, epistémica o social, no es solo conceptual: es vivida.

Por eso, ninguna simulación puede suplantar a los actores reales. Pero eso no significa que no puedan ayudar a pensar mejor. Lo que se requiere es una conciencia doble: aprovechar la potencia heurística de estos sistemas, sin atribuirles una autoridad que no les corresponde. Usarlos como espejos, no como oráculos. Como interlocutores que desafían nuestras certezas, no como sustitutos de los sujetos que las sostienen.

HoPeS, en este sentido, es más que una herramienta: es una invitación a practicar un tipo de pensamiento que hasta ahora parecía reservado a las humanidades y las artes—un pensamiento que se mueve entre voces, que asume posiciones múltiples, que no huye de la contradicción. Si la IA puede sostener ese tipo de pensamiento sin traicionarlo, entonces tal vez estemos ante una nueva fase de su historia. Una donde no se busca eficiencia, sino pluralidad encarnada. No una solución universal, sino una conversación infinita.

Paper

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí