Suscríbete a MUNDO IA

«The Shape of Thought»: la crítica humanista a la IA

0396eeff-ee8a-4ee8-b4ed-734e59b70011

«The Shape of Thought»: la crítica humanista a la IA

La forma del pensamiento: por qué la IA no 'razona' como un humano
Una reseña de "The Shape of Thought" de Richard H. R. Harper, el libro que desafía la euforia de la IA. Sostiene que el razonamiento humano es un acto social y corporal que los modelos de lenguaje no pueden, por definición, replicar.

Vivimos en una era obsesionada con la inteligencia artificial. Antropomorfizamos a los chatbots, nos maravillamos con su fluidez y debatimos con fervor casi teológico si están "entendiendo", "pensando" o incluso "sintiendo". Esta euforia ha alimentado la narrativa de una inminente "superinteligencia" (AGI) que lo cambiará todo, para bien o para mal. En medio de esta tormenta de exageraciones y predicciones apocalípticas, el nuevo y provocador libro de Richard H. R. Harper, "The Shape of Thought: Reasoning in the Age of AI" (La forma del pensamiento: razonar en la era de la IA), llega como un cable a tierra esencial y profundamente humanista.

La credibilidad de Harper hace que su argumento sea aún más potente. No es un ludita anti-tecnología protestando desde fuera. Por el contrario, es un eminente investigador sociotécnico que trabaja dentro de Microsoft Research, el socio principal y motor financiero de OpenAI. Precisamente por eso, su advertencia resuena con tanta fuerza: estamos cometiendo un error de categoría fundamental. Estamos confundiendo el rendimiento con la competencia, la mímica con la comprensión.

La tesis central de Harper es elegante en su simplicidad: el razonamiento humano y el "razonamiento" de la IA no solo son diferentes en grado, sino en especie. El pensamiento humano, argumenta, no es un proceso lógico y desapegado que ocurre puramente en el cerebro, como en un ordenador. Es un acto fundamentalmente corporal, emocional y social. Depende de nuestra experiencia vivida en el mundo físico y de nuestras interacciones con otros humanos. Por el contrario, los modelos de lenguaje masivos (LLM) son sistemas de reconocimiento de patrones estadísticos, inmensamente poderosos pero carentes de cuerpo, contexto social y experiencia vivida. Son, en esencia, "calculadoras de palabras" glorificadas, y confundir su imitación de la razón con la razón misma es un espejismo peligroso que podría llevarnos a tomar decisiones catastróficas.

El espejismo de la fluidez y la mímica estadística

El principal culpable de nuestra confusión es la asombrosa fluidez de los LLM. Estas herramientas han ingerido la totalidad de la palabra escrita y pueden predecir la siguiente palabra en una secuencia con una precisión sobrehumana. Esto crea una ilusión de "comprensión". Pero Harper nos pide que miremos bajo el capó. Cuando un LLM discute sobre la "tristeza", no "sabe" lo que es la tristeza; no tiene un sistema límbico, no tiene un cuerpo para sentir un nudo en el pecho, ni una vida social para experimentar una pérdida real. Solo "sabe" que la palabra "tristeza" aparece estadísticamente cerca de palabras como "pérdida", "lágrimas" y "duelo" en los billones de textos que ha analizado. Es una imitación perfecta, una mímica estadística, pero está vacía de experiencia, de qualia.

El libro se basa en esta distinción para criticar el famoso "Test de Turing". Turing propuso que si una máquina podía engañarnos haciéndonos creer que es humana, era funcionalmente inteligente. Harper argumenta que esto es un listón demasiado bajo. Es un test de imitación, no de comprensión. La fluidez de un LLM no es un signo de inteligencia, sino un signo de un conjunto de datos masivo y un poder de cómputo extraordinario. Hemos confundido la capacidad de generar lenguaje plausible con la capacidad de pensar. Este es un error que nos lleva a atribuir agencia e intención a lo que es, fundamentalmente, un motor de predicción extraordinariamente complejo.

Caminar contra el palo de pogo

Para ilustrar esta diferencia fundamental en la "forma" del pensamiento, Harper utiliza una analogía brillante: la IA es como un palo de pogo (pogo stick), mientras que el razonamiento humano es como caminar. Un palo de pogo es increíblemente eficiente, rápido y optimizado para una sola tarea: saltar en línea recta sobre un terreno perfectamente plano. Pero eso es todo lo que puede hacer. No puede subir escaleras, ni bailar, ni caminar de lado, ni esquivar un obstáculo repentino. Es una herramienta de un solo truco, y su rendimiento se degrada catastróficamente fuera de su estrecho dominio.

Caminar, por otro lado, es una actividad mucho más rica, flexible y robusta. Es más lento y quizás menos "eficiente" en línea recta, pero es infinitamente adaptable. Al caminar, podemos cambiar de dirección, acelerar para correr, detenernos, esquivar, bailar, saltar o trepar. Nuestra capacidad de razonar, al igual que caminar, es una plataforma de adaptabilidad general, diseñada por la evolución para un mundo ambiguo, impredecible y cambiante. La IA es una herramienta especializada, y el mundo real rara vez es una línea recta. Harper es profundamente escéptico de que el simple hecho de hacer más grandes los modelos actuales (más datos, más parámetros, un "palo de pogo más grande") pueda algún día salvar la brecha hacia la conciencia o el razonamiento genuino. Faltan los ingredientes fundamentales que no se pueden programar: un cuerpo y una sociedad.

Característica Razonamiento Humano (Según Harper) Razonamiento del LLM (IA)
Fundamento Corporal y Encarnado. Basado en la experiencia sensorial y física del mundo. Basado en Datos. Fundamentado en patrones estadísticos extraídos de textos y píxeles.
Proceso Social y Emocional. Moldeado por la interacción, la empatía, la cultura y la intuición. Estadístico y Lógico. Una predicción matemática de la siguiente palabra o token.
Comprensión Contextual y Profunda. Entiende el "por qué" detrás de los hechos. Sintáctica y Superficial. Imita la estructura del lenguaje sin entender el significado.
Flexibilidad Adaptable (Caminar). Puede manejar la ambigüedad y contextos novedosos. Especializado (Palo de Pogo). Frágil fuera de su dominio de entrenamiento.
Verdad Basada en la experiencia vivida y la corroboración social. Basada en la "plausibilidad" estadística (lo que "suena" correcto).
Responsabilidad Presente. El individuo asume las consecuencias de su razonamiento. Inexistente. Es una herramienta sin agencia ni responsabilidad.

La "forma" del pensamiento: encarnación y sociedad

El título del libro, "La forma del pensamiento", es una referencia directa a la teoría de la "cognición encarnada". Harper sostiene que nuestros pensamientos están moldeados por la realidad física de tener un cuerpo. No pensamos con el cerebro; pensamos con todo nuestro ser. Entendemos conceptos como "arriba" y "abajo", "pesado" y "ligero", "cerca" y "lejos", no como definiciones abstractas, sino porque tenemos un cuerpo que experimenta la gravedad, la masa y el espacio. Nuestro lenguaje y nuestro razonamiento están construidos sobre estas metáforas físicas. Un LLM, al ser una entidad puramente digital que solo existe como código en un servidor, no tiene este anclaje en la realidad. Para él, "arriba" es solo una palabra tan abstracta como "justicia". No tiene un "arriba" que experimentar.

Además del cuerpo, está el componente social. Los humanos no razonamos en un vacío; razonamos juntos. Nuestro pensamiento se forma a través del diálogo, el debate, la negociación de significados y el contexto cultural compartido que llamamos "sentido común". Cuando un médico razona sobre un diagnóstico, no solo compara síntomas con una base de datos (como haría una IA); utiliza su experiencia, su intuición sobre el paciente (¿está asustado?, ¿está ocultando algo?, ¿cómo afecta su entorno social a su salud?) y consulta con colegas. Este razonamiento es un proceso dinámico, desordenado, responsable y profundamente humano. La IA, por el contrario, es una solista perfecta: ofrece una respuesta coherente y estadísticamente probable, pero lo hace en total aislamiento social y contextual. No tiene "nada que perder" si se equivoca.

La "forma" del pensamiento: La IA se basa en un solo componente (patrones), mientras que el razonamiento humano es una mezcla de múltiples componentes encarnados y sociales.

Un "calculador de palabras" para un nuevo mundo

Si la IA no es un "pensador", ¿qué es? Harper ofrece una metáfora más precisa: es un "calculador de palabras". Así como la calculadora numérica no nos reemplazó, sino que nos liberó de la aritmética tediosa para centrarnos en problemas matemáticos más elevados (como el cálculo o la estadística), la IA nos liberará de la "aritmética" del lenguaje. Se encargará de resumir documentos de cien páginas, redactar los primeros borradores de correos electrónicos, encontrar patrones en miles de informes de clientes y generar código repetitivo. Es una herramienta de productividad sin precedentes, un aumento para nuestro propio intelecto, no un reemplazo de él.

La implicación para el futuro del trabajo es clara. No seremos reemplazados por una IA, pero sí seremos reemplazados por humanos que usan la IA de manera efectiva. El valor del trabajador del conocimiento se desplazará de la ejecución (redactar el memorando) a la dirección (saber qué memorando pedir, hacer la pregunta correcta) y, sobre todo, al juicio (juzgar la calidad de la respuesta de la IA, detectar sus alucinaciones y asumir la responsabilidad ética de la decisión final). La IA es un espejo increíblemente sofisticado; refleja el vasto conocimiento de la humanidad, pero no puede crear un nuevo significado ni asumir la responsabilidad de un juicio.

El riesgo de la atrofia del juicio

El mayor peligro que identifica Harper no es que la IA se vuelva consciente y malvada, sino algo más sutil y realista: que nosotros nos volvamos cognitivamente perezosos. Si externalizamos nuestro razonamiento y nuestra escritura a estas "calculadoras de palabras", corremos el riesgo de atrofiar nuestro propio músculo crítico. El verdadero peligro es que empecemos a confiar en la "plausibilidad" estadística de una IA por encima de nuestro propio juicio, un juicio forjado a través de la experiencia corporal, social y ética del mundo real. Si dejamos de "caminar" porque el "palo de pogo" es más rápido, olvidaremos cómo adaptarnos cuando el terreno se vuelva irregular.

"The Shape of Thought" es un libro profundamente humanista. Es una llamada a la calma en medio de una tormenta de exageraciones. Es un recordatorio, desde el corazón mismo de la industria tecnológica, de que si bien las herramientas que construimos son asombrosas, no deben confundirse con el constructor. El razonamiento humano es desordenado, lento, propenso a errores, emocional y biológico, y, según Harper, es precisamente en ese desorden donde reside su poder inimitable y su verdadera forma.

Referencias

Harper, Richard H.R. "The Shape of Thought: Reasoning in the Age of AI". 2025.

Microsoft Research. "Perfil de Richard H.R. Harper".

Entrevistas y reseñas sobre la "cognición corporal" (Embodied Cognition) y la IA. 2025.

The Guardian. "AI is not 'thinking', it's a 'word calculator'". 14 de noviembre, 2025.

Publicaciones Recientes

Google_AI_Studio_2025-12-08T04_16_04.949Z

El auge de los centros de datos y su impacto en la economía real

<p>El nuevo sistema nervioso del planeta: una fiebre del hormigón y silicio reescribe la economía global Mientras los
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí