¿De verdad somos racionales? La IA pone en duda una vieja creencia científica
Hay preguntas que no envejecen. Se repiten a lo largo de siglos, disfrazadas de ciencia, de filosofía o de intuición cotidiana, pero conservan el mismo núcleo inquietante: ¿tomamos decisiones racionales? ¿O somos criaturas de impulsos, atajos mentales y errores sistemáticos que apenas logramos disimular con un barniz de lógica?
Durante décadas (y con fuerza renovada en el siglo XX) la ciencia apostó por la racionalidad como piedra angular del comportamiento humano. De la economía clásica al diseño de políticas públicas, pasando por modelos de inteligencia artificial inspirados en la lógica formal, la suposición era clara: elegimos lo que más nos conviene, lo que maximiza nuestros beneficios, lo que resulta óptimo dados los datos disponibles.
Pero, ¿y si esa imagen estuviera equivocada desde el origen?
No se trata solo de que a veces nos equivoquemos. Eso se admite. Lo que ahora empieza a perfilarse, gracias a modelos de IA diseñados no para predecir sino para comprender, es algo más radical: que muchas de nuestras decisiones irracionales no son errores, sino estrategias. Que hay una lógica escondida en nuestras fallas. Y que las máquinas, si se programan del modo adecuado, pueden ayudar a verla.
Un nuevo estudio, publicado por investigadores del Laboratorio de Ciencias Cognitivas Computacionales, lo deja bien claro: las personas no son computadoras que maximizan beneficios. Y la IA tampoco tiene por qué serlo. De hecho, cuando se la libera de ese paradigma, empieza a reflejar comportamientos mucho más cercanos a los nuestros… incluso en sus desvíos.
La IA no como oráculo, sino como espejo
La mayoría de los titulares sobre inteligencia artificial suelen centrarse en lo espectacular: modelos que ganan partidas de ajedrez, traducen instantáneamente o escriben poesía. Pero esta investigación apunta en otra dirección, más discreta y más profunda: usar redes neuronales artificiales para modelar el proceso real de toma de decisiones humanas. No para resolver problemas, sino para ver cómo los resolvemos nosotros.
Y ahí empieza lo interesante.
En lugar de construir un sistema gigante, opaco y casi incomprensible (como suele ocurrir con los modelos de gran escala tipo GPT o Gemini), los autores diseñaron redes pequeñas, compactas, intencionalmente limitadas. ¿Por qué? Porque esas limitaciones son clave: permiten observar, paso a paso, qué hace el modelo para llegar a una elección. Y lo que descubrieron es que, cuando estas redes se entrenan en condiciones similares a las nuestras, terminan reproduciendo muchos de nuestros mismos errores… de forma predecible.
Es decir: no fallan porque estén mal hechas. Fallan como nosotros porque están aprendiendo como nosotros.
Lo más provocador es que esos errores (elecciones subóptimas, contradicciones, sesgos) no aparecen como accidentes, sino como formas adaptativas de lidiar con la incertidumbre, el tiempo limitado y la información ambigua. Justo como hacemos todos, todos los días.
El mito del ser racional: una herencia que cruje
Desde los tiempos de Descartes hasta las teorías económicas neoclásicas, la idea de que el ser humano actúa racionalmente ha sido un pilar cultural. Según ese paradigma, cuando enfrentamos una decisión, evaluamos todas las opciones, calculamos probabilidades, sopesamos riesgos y beneficios… y elegimos lo mejor.
El problema es que esa descripción no coincide con lo que muestran la psicología, la neurociencia ni, ahora, la inteligencia artificial bien orientada.
En la vida real no tenemos tiempo, ni todos los datos, ni una mente libre de emociones o interferencias. Actuamos según heurísticas (atajos mentales útiles, aunque imperfectos) que evolucionaron no para maximizar nada, sino para permitirnos funcionar. Rápido, con recursos limitados, y en entornos impredecibles.
Este enfoque, impulsado desde mediados del siglo XX por autores como Herbert Simon o Daniel Kahneman, ha ido ganando terreno. Pero lo nuevo es que ahora, con IA entrenada en procesos de decisión, se puede observar cómo esos mismos sesgos emergen de manera natural en un sistema que intenta aprender sin reglas explícitas.
Es decir: no se le programa para fallar. Se le da un entorno similar al humano y se la deja aprender. Y al hacerlo, la red reproduce nuestras desviaciones. Porque esas desviaciones, tal vez, no sean fallas. Tal vez sean lo que mejor podemos hacer dadas nuestras condiciones.
Las decisiones no óptimas también tienen lógica
El experimento que motiva este artículo no es solo una especulación teórica. Se basa en datos concretos y modelos replicables.
En pocas palabras: se entrenaron redes neuronales pequeñas para que aprendieran a tomar decisiones en distintos escenarios, algunos simples y otros más inciertos. Lo fascinante fue que, una vez entrenadas, estas redes tomaban decisiones sorprendentemente similares a las de los humanos en situaciones equivalentes.
Y eso incluye errores.
Cuando se enfrentaban a elecciones en las que había que confiar en patrones pasados, pero con ruido y ambigüedad, las redes hacían lo mismo que las personas: apostaban por lo que parecía más frecuente, pero sin lógica perfecta. Preferían lo más reciente, ignoraban los extremos, confundían correlación con causalidad. En suma: no maximizaban resultados, pero se defendían razonablemente bien en un entorno incierto.
El hallazgo no es menor. Significa que muchos comportamientos humanos que durante años se calificaron como “irracionales” pueden surgir naturalmente cuando se aprende de manera limitada y situada. Y que la IA, lejos de superarnos en racionalidad, puede ayudarnos a entender mejor nuestra propia forma de razonar.
No todo lo que parece torpe lo es
Tomemos un ejemplo concreto: la aversión a la pérdida. Es un sesgo bien documentado en psicología que muestra cómo, frente a decisiones de riesgo, la mayoría de las personas prefiere evitar una pérdida potencial antes que obtener una ganancia equivalente. Imaginá que te proponen lanzar una moneda: si sale cara ganás 100 dólares, si sale cruz perdés 100. A pesar de que las probabilidades son parejas y el valor esperado es neutro, mucha gente rechaza esa apuesta. ¿Por qué? Porque perder 100 dólares duele emocionalmente mucho más de lo que entusiasma ganarlos. Esa desproporción no sigue la lógica matemática, pero es real y consistente.
Ahora bien: si una red neuronal, entrenada en un entorno con incertidumbre y consecuencias variables, comienza a evitar decisiones que implican riesgos de pérdida aunque también ofrezcan beneficios… ¿está cometiendo un error? ¿O está desarrollando una forma de cautela aprendida?
Lo que sugiere el estudio es que muchos de estos desvíos, que desde la teoría se ven como irracionales, podrían tener un valor adaptativo concreto. Son estrategias para reducir daños en escenarios donde las consecuencias negativas son más costosas que las positivas. No se trata de maximizar con exactitud. Se trata de protegerse con rapidez.
Y si una red que no tiene emociones, ni miedo, ni evolución detrás, llega por su cuenta a esa conclusión… entonces tal vez no sea un error. Tal vez estemos ante una forma de inteligencia menos idealizada y más vivible. Una inteligencia que no aspira a ser perfecta, sino simplemente humana.
Cuando las máquinas fallan como nosotros
Una de las decisiones más importantes del estudio fue no construir supermáquinas. En lugar de crear inteligencias artificiales capaces de ganarles a todos en ajedrez o de responder preguntas con precisión sobre miles de temas, los investigadores diseñaron modelos pequeños, humildes, manejables. ¿Por qué? Porque los modelos enormes son efectivamente poderosos, pero también opacos. Pueden darnos respuestas, pero rara vez explican cómo llegaron a ellas.
Lo que interesaba aquí era otra cosa: entender el proceso, no el resultado. Y para eso, las redes neuronales pequeñas ofrecen una ventaja crucial: son interpretables. Se puede observar qué conexiones se activan, qué información priorizan, cómo generalizan, y en qué condiciones fallan.
Esos errores, a diferencia de los bugs tradicionales, no eran aleatorios ni grotescos. No surgían por falta de datos o por mal funcionamiento. Al contrario: emergían cuando la red tenía demasiada información y debía decidir con rapidez. Justo como nos pasa a nosotros.
La paradoja de la irracionalidad útil
Uno de los hallazgos más llamativos del estudio es que la irracionalidad no solo es frecuente… sino funcional.
En contextos de alta complejidad, actuar de forma perfecta no es viable. Procesar todos los datos posibles, comparar todas las alternativas y calcular las consecuencias de cada decisión llevaría una eternidad. Ni nuestras mentes ni las máquinas más poderosas pueden operar así en tiempo real.
Entonces, lo que hacemos (y lo que hacen las redes del estudio) es usar atajos. Nos guiamos por regularidades aprendidas, incluso si no son estrictamente lógicas. Preferimos lo que funcionó antes. Evitamos lo que nos lastimó. Reaccionamos antes que pensar. Y eso, lejos de ser un fallo, es una estrategia de supervivencia.
La paradoja es evidente: para funcionar bien, a veces hay que pensar mal. O, mejor dicho, pensar rápido, flexible y sin garantías. Algo que parece contrario a la racionalidad clásica, pero profundamente adaptativo en un mundo impredecible.
La IA no como juez, sino como cómplice
Este cambio de enfoque tiene consecuencias profundas. Hasta hace poco, la inteligencia artificial se concebía como un modelo ideal de razonamiento, algo superior, frío, objetivo. La vara con la que se medía la inteligencia humana.
Pero lo que estos modelos compactos nos muestran es algo más interesante: que la IA puede ser también un instrumento para mirar hacia adentro, un espejo técnico que imita nuestros métodos y, al hacerlo, nos devuelve una imagen más verosímil de nosotros mismos.
Ya no se trata de construir un sistema que nos supere. Se trata de diseñar redes que reproduzcan nuestras condiciones: tiempo limitado, información incompleta, patrones dudosos. Y ver qué hacen. Qué decisiones toman. Cuándo aciertan y cuándo fallan.
Y ahí aparece algo extraordinario: esas fallas no son aleatorias. Se parecen a las nuestras. En forma. En contenido. En ritmo. Como si al simularnos, las redes revelaran que lo que llamamos «irracionalidad» no es más que una racionalidad en clave menor, más rudimentaria, pero también más vivible.
¿Y si la racionalidad nunca fue el objetivo?
Durante siglos, el modelo del ser racional fue el ideal de la modernidad. La razón como brújula, como herramienta, como mandato. Pero lo que hoy empiezan a sugerir los datos (y las máquinas que los procesan) es que ese ideal fue siempre una construcción simplificadora.
No actuamos como algoritmos optimizadores. Actuamos como organismos que intentan sobrevivir, adaptarse, comunicarse, evitar el dolor y buscar placer. Todo eso en simultáneo. Lo que llamamos errores son, muchas veces, prioridades distintas.
La IA, cuando no se la entrena para ganar, sino para entender, confirma eso. Confirma que el comportamiento humano tiene otras lógicas, menos formales pero más robustas. Confirma que no todo lo que no es racional es irracional. Puede ser afectivo, heurístico, narrativo, reactivo… y aun así eficaz.
Y confirma, además, que no estamos solos en esa complejidad. Que las máquinas, si aprenden como nosotros, también pueden equivocarse como nosotros. Lo cual las hace, curiosamente, más humanas.
Las nuevas preguntas que esto abre
Este tipo de investigaciones no solo reformulan teorías del comportamiento. También abren preguntas nuevas, en ámbitos muy concretos:
-
En educación: si los errores no son fallas sino pasos naturales del aprendizaje, ¿cómo evaluamos? ¿Cómo enseñamos? ¿Cómo entrenamos modelos IA para acompañar procesos reales, no ideales?
-
En psicología: si muchas conductas «irracionales» son adaptativas, ¿cómo redefinimos la normalidad? ¿Qué lugar le damos al error como forma de saber?
-
En economía y política pública: si las decisiones no siguen la lógica del interés personal máximo, ¿cómo diseñamos incentivos? ¿Cómo comunicamos riesgos?
-
En ética de la IA: si la inteligencia artificial también puede ser sesgada, ¿cómo distinguimos una falla técnica de una estrategia aprendida? ¿Y quién decide qué es un «buen» razonamiento?
Estas preguntas no tienen respuestas cerradas. Pero lo que aportan las redes neuronales interpretables es una herramienta nueva para pensarlas: una forma de ver cómo emergen los patrones de elección, incluso cuando parecen contradictorios.
Lo que aprendemos al mirar cómo decide la máquina
Hasta ahora, gran parte de la IA aplicada a decisiones se centraba en resultados. ¿Qué eligió? ¿Cuántas veces acertó? ¿Cuál fue su rendimiento?
Pero este estudio cambia la lupa: no le interesa solo lo que eligió, sino cómo lo hizo. Qué conexiones activó. Qué memoria usó. Qué tipo de lógica interna desarrolló.
Y eso es revolucionario. Porque nos permite no solo predecir (sino comprender) el proceso de decisión. Algo que los modelos grandes y opacos no pueden ofrecer. Es una IA no solo eficaz, sino también explicativa.
Y al ser explicativa, se vuelve una aliada para la ciencia cognitiva, para la pedagogía, para la ética. Una IA que no juzga, sino que dialoga con nuestras limitaciones. Y que las hace visibles.
Epílogo: pensar como humanos, no como máquinas
En un mundo que avanza hacia la automatización masiva, esta línea de investigación ofrece una bocanada de realismo. Nos recuerda que la inteligencia no es perfección, sino capacidad de adaptación. Que errar no es fracasar, sino una forma válida de explorar. Que la racionalidad, como la definimos, es apenas una de muchas formas de ordenar el mundo.
Y que si las máquinas empiezan a pensar como nosotros, no deberíamos apresurarnos a corregirlas. Tal vez deberíamos escucharlas. Porque en su torpeza emergente, en sus errores predecibles, en sus respuestas imperfectas… hay un eco. Un espejo. Una confirmación inesperada de que la racionalidad, quizás, nunca fue lo más humano que tenemos.