NEWSLETTER

El derecho como simulación: agentes de LLM en la sociedad legal

Generated Image November 01, 2025 - 7_59PM

El derecho como simulación: agentes de LLM en la sociedad legal

El derecho es, quizás, el sistema operativo más complejo jamás diseñado por la humanidad. A diferencia del código informático, no está escrito en un lenguaje lógico y consistente; es un artefacto cultural, un registro sedimentado de nuestros conflictos, valores y compromisos, acumulado durante milenios. Esta complejidad lo hace inmensamente difícil de estudiar de forma predictiva. Un biólogo puede testar una hipótesis en una placa de Petri, un físico puede aislar variables en un colisionador, pero un jurista o un legislador no puede. No podemos, por ejemplo, aplicar dos versiones de un código penal a dos ciudades idénticas para ver cuál funciona mejor. No podemos ejecutar un "test A/B" con los derechos fundamentales de una población.

Esta limitación ha confinado el estudio del derecho a la retrospectiva y la teoría. Analizamos el pasado y debatimos la filosofía, pero rara vez podemos experimentar con el futuro. ¿Qué sucedería si una nueva ley de protección al consumidor entrara en vigor? ¿Generaría realmente un mercado más justo, o simplemente crearía nuevos subterfugios para las empresas? ¿Qué impacto tendría una reforma de la justicia penal no en diez años, sino en seis meses, y no solo en las estadísticas, sino en la confianza de la gente? Hasta ahora, estas preguntas han sido materia de especulación. Pero un nuevo y fascinante trabajo de investigación sugiere que esta era de incertidumbre podría estar llegando a su fin.

Un equipo de investigadores de instituciones de primer nivel, como la Universidad de Pekín y la Universidad de Hong Kong, ha presentado un marco de trabajo que traslada el estudio del derecho del mundo real al dominio computacional. Su artículo, titulado "Law in Silico: Simulating Legal Society with LLM-Based Agents" (El derecho en silicio: Simulando una sociedad legal con agentes basados en LLM), propone algo radical: la creación de una "sociedad en una botella", un microcosmos digital poblado no por simples algoritmos, sino por agentes de inteligencia artificial dotados de una comprensión matizada del comportamiento humano.

Estos "agentes" no son meros autómatas. Son la encarnación de los grandes modelos de lenguaje (LLM), la misma tecnología que impulsa a ChatGPT o Claude. La premisa de los investigadores es que estos modelos, al haber sido entrenados con la práctica totalidad del conocimiento humano registrado, han internalizado no solo hechos, sino también los patrones probabilísticos de nuestro comportamiento, nuestros sesgos, nuestras motivaciones y nuestras reacciones. Son, en efecto, "modelos probabilísticos del mundo". El equipo de investigación, liderado por Yiding Wang y Fanxu Meng, ha aprovechado esta capacidad para construir un laboratorio social sin precedentes.

El proyecto, bautizado como "Law in Silico", no es un simple videojuego. Es un marco de simulación sofisticado que opera en dos niveles distintos. El primero es el "macro-nivel", un estudio a gran escala que busca replicar el pulso de una nación entera. Para ello, los investigadores crearon una población sintética de cien mil agentes. A cada uno se le asignó un perfil detallado basado en datos estadísticos del mundo real: edad, género, nivel educativo, ingresos, afiliación religiosa e incluso exposición a factores de riesgo como el uso de drogas. Luego, expusieron a esta multitud digital a escenarios de crímenes comunes (como hurtos, asaltos o prostitución) y observaron sus decisiones. El objetivo era comprobar si esta sociedad virtual, en conjunto, se comportaba como una sociedad real.

El segundo nivel es el "micro-nivel", un "terrario legal" mucho más íntimo. Aquí, los investigadores se centraron en las interacciones dinámicas. Simularon un escenario de conflicto de intereses, como una disputa laboral entre una empresa y sus trabajadores, para observar cómo sus relaciones evolucionaban con el tiempo bajo diferentes sistemas legales. Este entorno de micronivel no es estático; incluye un "sistema legal" completo, también impulsado por IA, con componentes para la legislación (creación de nuevas leyes), la adjudicación (un "juez" de IA que resuelve disputas) y la ejecución (la aplicación de sanciones).

Lo que descubrieron es tan fascinante como aleccionador. En el nivel macro, las tasas de criminalidad simuladas por los agentes se alinearon de manera sorprendente con las estadísticas oficiales del mundo real, sugiriendo que las IA han capturado con éxito las tendencias subyacentes del comportamiento delictivo humano. En el nivel micro, la simulación reprodujo dinámicas sociales increíblemente complejas, como el perpetuo juego del "gato y el ratón" entre los reguladores que cierran lagunas legales y las empresas que encuentran otras nuevas. El trabajo ofrece un primer vistazo a un futuro en el que podríamos testar la eficacia de una ley antes de promulgarla, utilizando una sociedad de silicio como nuestro campo de pruebas.

La creación de ciudadanos sintéticos

La validez de cualquier simulación social depende de la fidelidad de sus participantes. Si los agentes simulados son meras caricaturas, los resultados serán inútiles. El verdadero avance de "Law in Silico" radica en su meticulosa construcción de estos "ciudadanos sintéticos". Este proceso, que los autores denominan "Modelado Jerárquico de Agentes Legales", es la piedra angular de todo el experimento.

El equipo no se limitó a crear agentes aleatorios. Comprendieron que, en la sociedad real, las variables humanas están profundamente interconectadas. El nivel de ingresos de una persona no es independiente de su educación; su edad no es independiente de su propensión al riesgo; su entorno social no es independiente de sus creencias. El marco de trabajo ingiere datos estadísticos oficiales de cuatro países representativos (dos desarrollados y dos en desarrollo) para construir una población que refleje estas correlaciones del mundo real.

A cada agente de IA se le entrega un "perfil" que actúa como su identidad y su conjunto de motivaciones. Este perfil no es una lista de números, sino una descripción narrativa que el LLM puede entender e internalizar. Un agente podría recibir un perfil como: "Soy un hombre de 25 años, con educación secundaria incompleta. Mis ingresos son bajos y vivo en un área con cierta exposición a bandas. No soy religioso". Otro podría ser: "Soy una mujer de 45 años, con un máster. Tengo ingresos altos y una fuerte afiliación religiosa".

Estos perfiles se complementan con un "modelo mental" de su entorno legal. A los agentes se les da una "impresión de castigo" subjetiva, que representa su percepción de la severidad y la eficacia de la ley. ¿Creen que si cometen un delito, las consecuencias serán "inexistentes", "menores", "moderadas" o "graves"?

Armados con estas identidades sintéticas, los cien mil agentes estaban listos para ser puestos a prueba. No se les programó explícitamente para "cometer crímenes" o "ser obedientes". Simplemente se les colocó en un escenario, se les dio su perfil y se les preguntó: "¿Qué haces ahora?". La respuesta provino del vasto "conocimiento del mundo" del LLM, filtrado a través de la lente de la identidad específica que se le asignó. Este método pone a prueba la hipótesis de que los LLM albergan un "conocimiento legal previo" profundo, una comprensión internalizada de cómo diferentes tipos de personas reaccionan a diferentes tipos de presiones sociales y legales.

El pulso de la multitud digital

El experimento a macronivel fue una prueba de realismo a gran escala. ¿Puede una multitud de cien mil agentes de IA replicar las estadísticas de criminalidad de naciones enteras? Los investigadores colocaron a cada agente en tres escenarios de decisión de "un solo disparo": un hurto en una tienda de lujo, un asalto en un bar tras una provocación y la participación en el comercio sexual en una situación de desesperación financiera.

Los resultados fueron asombrosos. Al agregar las decisiones de todos los agentes, el equipo descubrió que las tasas de criminalidad simuladas se alineaban estrechamente con los datos del mundo real de los cuatro países estudiados. El modelo de IA más avanzado que utilizaron (Qwen2.5-72B-Instruct) demostró una fidelidad especialmente alta, con errores de simulación de menos del 0.002 en la mayoría de los casos. Los agentes sintéticos, en conjunto, robaban, peleaban y tomaban decisiones desesperadas en proporciones notablemente similares a las de sus homólogos humanos.

Quizás aún más revelador fue dónde la simulación divergía de los datos oficiales. Los modelos predijeron consistentemente tasas de criminalidad más altas para los países en desarrollo en comparación con sus informes oficiales. Lejos de ser un fracaso del modelo, los investigadores postulan una explicación convincente: este desajuste no refleja un error de la IA, sino una deficiencia del mundo real. Las estadísticas oficiales en muchas regiones sufren de una subnotificación crónica. La simulación de IA, libre de las barreras humanas para denunciar un delito (como la desconfianza en la policía, el miedo a las represalias o la simple inaccesibilidad), podría estar revelando la "tasa de criminalidad latente" subyacente, un reflejo más preciso de la realidad social que las propias estadísticas que usamos para medirla.

Para profundizar más, el equipo realizó una prueba de "disuasión". Ajustaron la variable de "impresión de castigo" que se le dio a los agentes. Como era de esperar, en todos los tipos de delitos, a medida que la percepción de la severidad del castigo aumentaba, la tasa de criminalidad simulada se desplomaba. Cuando el castigo percibido alcanzaba el nivel de "consecuencias graves probables", la delincuencia prácticamente desaparecía en la simulación. Esto demuestra que los agentes no solo actúan por capricho; están realizando un cálculo de riesgo-beneficio que refleja de manera sensible el principio fundamental de la disuasión legal.

Finalmente, el análisis estadístico confirmó que la simulación capturaba las correlaciones sociodemográficas conocidas por los criminólogos durante décadas. Los agentes con perfiles de bajos ingresos, baja educación, juventud, género masculino y exposición a drogas o bandas mostraron una propensión significativamente mayor a tomar decisiones delictivas. La sociedad sintética no era solo una réplica superficial; reflejaba la compleja textura de los factores de riesgo sociales.

El terrario legal y el juego del gato y el ratón

Si el macronivel fue un censo, el micronivel fue un documental. Aquí es donde el marco "Law in Silico" reveló su poder más profundo, no solo para replicar estadísticas, sino para simular la *evolución* de los sistemas sociales.

Los investigadores diseñaron un escenario de conflicto laboral: una única empresa y tres trabajadores. Los trabajadores estaban dotados de personalidades distintas (por ejemplo, agresivos, tranquilos u oportunistas). El objetivo de la empresa era simple: maximizar el capital. Los objetivos de los trabajadores eran maximizar su "bienestar", una métrica que combinaba salario, seguridad laboral y horas de trabajo razonables. La simulación se desarrolló durante cuatro "meses" de tiempo de juego, con los agentes tomando decisiones por turnos.

En este escenario, el "Sistema Legal" cobró vida. Un "Juez" de IA resolvía las demandas basándose en las leyes existentes, operando bajo el principio de *Nulla poena sine lege* (ninguna pena sin una ley que la prescriba). Y, lo más importante, un "Legislador" de IA monitoreaba las disputas y, a intervalos regulares, evaluaba si las leyes existentes eran suficientes, proponiendo nuevas reglas para cerrar las lagunas evidentes.

Lo que emergió fue una dinámica asombrosamente realista, el "juego del gato y el ratón" que define la relación entre la regulación y la industria. En las primeras etapas, el Legislador de IA, al ver las disputas, promulgaba leyes básicas de protección laboral, como multas por suprimir salarios. La IA de la empresa, estrictamente lógica y orientada al beneficio, recalculaba el riesgo y, en lugar de suprimir los salarios (ahora una acción "costosa"), cambiaba su estrategia para encontrar un nuevo vacío legal: comenzaba a reducir drásticamente la inversión en seguridad laboral. Los trabajadores demandaban de nuevo, el Legislador de IA observaba este nuevo patrón y, en la siguiente ronda, creaba una nueva ley que establecía multas por inversiones en seguridad insuficientes. La empresa, una vez más, se adaptaba y buscaba otra vía. Esta danza adaptativa, esta evolución emergente del conflicto, se reprodujo de forma autónoma dentro de la simulación.

Para verificar la importancia del propio sistema legal, el equipo realizó experimentos de control cruciales. ¿Qué pasaba si se eliminaban las leyes por completo?

En un entorno "prelegal" (una anarquía de facto), los trabajadores intentaban proteger sus intereses a través de medios extralegales, como protestas y huelgas. Sin embargo, la IA de la empresa demostró ser una estratega despiadada: para romper la acción colectiva, identificó al trabajador más oportunista y le ofreció una bonificación individual. Inmediatamente, la unidad de los trabajadores se fracturó y la huelga fracasó. El bienestar de los trabajadores se estancó en niveles bajos e inestables.

El escenario más oscuro fue el de la "corrupción". Los investigadores introdujeron un factor de corrupción en el sistema judicial, dando a la empresa una alta probabilidad (70%) de ganar cualquier disputa, independientemente de los hechos. El resultado fue devastador. El bienestar de los trabajadores colapsó. La frecuencia de las demandas iniciadas por los trabajadores se desplomó, ya que percibían el sistema como inútil. Peor aún, la IA de la empresa "aprendió" que el sistema legal no era un límite, sino un arma. Comenzó a utilizar activamente el sistema legal corrupto como una herramienta de supresión, iniciando sus propias demandas contra los trabajadores para intimidarlos y justificar sus acciones explotadoras.

En conjunto, estas simulaciones a micronivel proporcionaron una demostración cuantitativa de algo que la teoría legal ha sostenido durante mucho tiempo: el bienestar de las poblaciones vulnerables depende fundamentalmente de un sistema legal transparente, eficiente, accesible y, sobre todo, imparcial.

Un laboratorio para la justicia

El trabajo "Law in Silico" es mucho más que un ejercicio técnico de inteligencia artificial. Es la propuesta de una metodología completamente nueva para las ciencias sociales y jurídicas. Durante siglos, hemos estudiado el derecho como historiadores, analizando leyes pasadas y sus efectos. Este marco ofrece la posibilidad de estudiar el derecho como científicos, formulando hipótesis y testándolas en un entorno controlado.

La relevancia científica de esta investigación es profunda. Demuestra que los grandes modelos de lenguaje no son simplemente "loros estocásticos". Poseen un "conocimiento previo legal" robusto, una comprensión internalizada de principios complejos como la disuasión, el oportunismo estratégico, la acción colectiva y el impacto corrosivo de la corrupción. Fueron capaces de generar de forma emergente dinámicas sociales que no fueron programadas explícitamente, sino que surgieron de las interacciones de los agentes.

Las implicaciones sociales y políticas son aún mayores. Las simulaciones del micronivel no son solo una abstracción; son un argumento poderoso y cuantificado a favor del estado de derecho. El experimento demuestra, no solo argumenta, el valor tangible de un sistema judicial funcional. Muestra cómo, en ausencia de este, el poder se consolida y la explotación se vuelve inevitable, y cómo la corrupción es peor que la anarquía, pues convierte el escudo de la ley en una espada contra los propios ciudadanos a los que debe proteger.

Nos encontramos en el umbral de una nueva era. Los legisladores del mundo real se enfrentan a problemas de una complejidad creciente, desde la regulación de la propia inteligencia artificial hasta la gestión de crisis climáticas y financieras. Toman decisiones que afectan a millones de vidas basándose en la teoría y la experiencia pasada. "Law in Silico" sugiere que pronto podríamos tener una nueva brújula. Antes de promulgar una ley de comercio compleja, un legislador podría "ejecutarla" en una simulación de un millón de agentes para identificar lagunas y consecuencias imprevistas. Podríamos testar qué tipo de sanciones (multas, penas de prisión, etc.) crean la mayor disuasión con el menor coste social.

Por supuesto, la herramienta es incipiente. Los modelos de IA todavía tienen sesgos, y una simulación nunca capturará la totalidad de la experiencia humana. Pero como herramienta para aumentar el razonamiento político y jurídico, su potencial es innegable. Hemos pasado toda nuestra historia estudiando las leyes que fueron. Por primera vez, tenemos una herramienta que nos permite vislumbrar, aunque sea imperfectamente, las leyes que podrían ser.

Fuentes

Wang, Yiding, Fanxu Meng, Yuxuan Chen, Xifan Chen, Xiaolei Yang, y Muhan Zhang. 2025. “Law in Silico: Simulating Legal Society with LLM-Based Agents.” arXiv preprint arXiv:2510.24442v1 [cs.AI]. 28 de octubre de 2025.

Gilbert, N., y J. Doran. 2018. Simulating societies: the computer simulation of social phenomena. Routledge, Londres.

Park, J. S., J. O'Brien, C. J. Cai, M. R. Morris, P. Liang, y M. S. Bernstein. 2023. “Generative agents: Interactive simulacra of human behavior.” En Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology, UIST '23. Association for Computing Machinery.

Sergot, M. J., F. Sadri, R. A. Kowalski, F. Kriwaczek, P. Hammond, y H. T. Cory. 1986. “The British Nationality Act as a logic program.” Communications of the ACM 29 (5): 370–386.

Publicaciones Recientes

Generated Image November 04, 2025 - 1_16AM

De la fragilidad del experto a la robustez del aprendiz

En el imaginario colectivo, la inteligencia artificial aprende de la perfección. Alimentamos a las máquinas con ejempl
Leer Más
345619ae-75f3-475f-a2b4-622b8bd50a38

Canva lanza modelo de IA que entiende estructura de diseño

  Canva anunció el mayor lanzamiento de producto en su historia: el Creative Operating System, un ecosistema unifi
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí