Suscríbete a MUNDO IA

Por qué tu IA debería perder el tiempo probando ideas extrañas

Generated Image November 21, 2025 - 7_51PM

Por qué tu IA debería perder el tiempo probando ideas extrañas

La historia del progreso humano es, en muchos sentidos, la historia de nuestras herramientas. Desde la palanca que multiplicó nuestra fuerza hasta el microscopio que reveló mundos invisibles, hemos avanzado ampliando nuestras capacidades innatas. El computador nos permitió calcular a velocidades inconcebibibles; internet nos dio acceso a la biblioteca global. Cada invención fue un amplificador. Ahora, nos encontramos en el umbral de una herramienta fundamentalmente distinta. Una que no solo amplifica, sino que actúa. La inteligencia artificial no es un simple martillo; es un brazo que puede decidir dónde golpear. Y en la cima de esta nueva pirámide de ambición, se encuentra el sueño más profundo de la computación: el científico de IA.

No hablamos de un asistente que organice nuestros datos o sugiera bibliografía. Hablamos de un investigador autónomo. Un sistema capaz de formular hipótesis, diseñar experimentos, escribir el código para probarlos, analizar los resultados y, basándose en ellos, decidir qué hacer a continuación. Un agente digital que pueda tomar un problema complejo, como optimizar una red neuronal para la detección temprana del cáncer o diseñar un nuevo modelo climático, y trabajar en él de forma incansable, iterando a una velocidad sobrehumana. Este es el objetivo que persiguen laboratorios de todo el mundo, desde FAIR en Meta hasta DeepMind en Google. La promesa no es solo acelerar la ciencia, sino automatizar el motor mismo del descubrimiento.

Pero este sueño se enfrenta a una pregunta profunda, casi filosófica, que debe resolverse en el lenguaje frío de la ingeniería: ¿qué hace que uno de estos científicos digitales sea bueno? ¿Es simplemente una cuestión de fuerza bruta computacional? ¿Basta con dotarlo del modelo de lenguaje más grande y potente, un cerebro de silicio con más billones de parámetros que su competidor? ¿O falta algo más? ¿Una cualidad más esquiva, más humana?

Un trabajo fundamental publicado por un equipo de FAIR en Meta, titulado What Does It Take to Be a Good AI Research Agent?, aborda esta cuestión de frente. La investigación, dirigida por Alexis Audran-Reiss y un amplio equipo de colaboradores, ofrece una respuesta que resuena con la historia de la propia innovación humana. El factor decisivo, sugieren, no es solo el poder de procesamiento en bruto. Es la diversidad de ideación.

Para el lector no especializado, estos términos requieren una traducción cuidadosa. Un "agente de investigación de IA" es el sistema completo, nuestro científico digital. Su "ideación" es, literalmente, su capacidad para generar ideas. Cuando se enfrenta a un problema, ¿qué se le ocurre? "Probemos este enfoque", "modifiquemos aquel parámetro", "combinemos estas dos técnicas". La "diversidad de ideación", por tanto, es la amplitud de ese abanico de ideas. ¿El agente se obsesiona con una sola línea de investigación, probando miles de variaciones minúsculas sobre un mismo tema? ¿O es capaz de dar un paso atrás, descartar un camino fallido y probar algo completamente diferente?

El estudio de FAIR no se limita a proponer esta conexión; la demuestra. Utilizando un campo de pruebas estandarizado para estos sistemas, conocido como MLE-bench, los investigadores primero observaron las trayectorias de diferentes agentes. Una "trayectoria" es el cuaderno de bitácora del agente, su rastro de decisiones, experimentos y resultados. Lo que encontraron fue una correlación clara: los agentes que lograban mejores soluciones eran también aquellos cuyas trayectorias mostraban una mayor variedad de ideas.

Pero correlación no implica causalidad. El verdadero golpe de genio del estudio vino después. El equipo realizó un experimento controlado donde modificaron artificialmente el grado de diversidad de ideas de los agentes. En esencia, tomaron a un mismo agente y lo probaron en dos modos: uno "obsesivo", forzado a seguir una línea de pensamiento estrecha, y otro "creativo", empujado a explorar un abanico más amplio de posibilidades. El resultado fue inequívoco. Forzar una mayor diversidad de ideación resultó en un rendimiento más fuerte y en el descubrimiento de soluciones superiores. La creatividad, o al menos su proxy computacional, no era un simple efecto secundario del éxito; era su causa.

La anatomía de una mente artificial

Para comprender la magnitud de este hallazgo, primero debemos diseccionar a uno de estos investigadores digitales. No son una sola IA monolítica. Son una simbiosis de componentes, un sistema complejo diseñado para imitar el proceso científico.

El Ciclo de Investigación Autónoma

📋
1. El Problema
Recibir el desafío científico
🧠
2. Ideación
Generar hipótesis (Cerebro/LLM)
⚙️
3. Experimento
Ejecutar código (Andamiaje)
📈
4. Aprendizaje
Evaluar y refinar

El primer componente es el "cerebro". Generalmente, se trata de un gran modelo de lenguaje (LLM), como Llama 3 o GPT-4. Este modelo proporciona el conocimiento bruto, la intuición, la capacidad de "pensar" en sentido amplio. Es la parte que puede leer un problema y sugerir: "Los modelos ResNet suelen funcionar bien para este tipo de clasificación de imágenes, pero quizás un Vision Transformer sería más eficiente". Es el profesor brillante, lleno de ideas y vastos conocimientos, pero quizás un poco caótico.

El segundo componente es el "andamiaje" (scaffold). Este es el marco lógico, el código y la estructura que guía al cerebro. Si el LLM es el profesor, el andamiaje es el método científico, el currículo, el cuaderno de laboratorio y el asistente ejecutivo, todo en uno. Es el sistema que toma la idea vaga del LLM ("probemos un ResNet") y la convierte en un plan de acción riguroso: "Paso 1: Escribir el código para implementar un modelo ResNet-50. Paso 2: Entrenarlo con el conjunto de datos X durante 50 épocas. Paso 3: Evaluar su precisión. Paso 4: Registrar el resultado y decidir el siguiente experimento". Este andamiaje gestiona la memoria del agente, su capacidad de reflexionar sobre resultados pasados y su interacción con herramientas (como ejecutar código o buscar en bases de datos).

La "ideación" ocurre en la interacción entre estos dos componentes. El andamiaje le pide al cerebro (el LLM) una idea. El LLM la proporciona. El andamiaje la ejecuta, obtiene un resultado y luego le pide al LLM otra idea, esta vez proporcionando el contexto del último experimento fallido.

El entorno donde opera este dúo es el "laboratorio". En este estudio, el laboratorio es MLE-bench, un banco de pruebas que presenta al agente una serie de problemas de aprendizaje automático del mundo real. El objetivo del agente es encontrar el mejor modelo posible para cada problema, optimizando métricas como la precisión o la eficiencia. Su éxito no es teórico; se mide por el rendimiento tangible de los modelos que diseña.

Este diseño revela una tensión fascinante. Un LLM más grande y potente (como Llama 3) es, sin duda, un "cerebro" más capaz que uno más antiguo (como Llama 2). Tiene más conocimientos, razona mejor. Sin embargo, el estudio de FAIR demuestra que este cerebro superior puede verse fatalmente limitado por un andamiaje deficiente. Si el andamiaje es demasiado rígido, si solo pide ideas que son mejoras marginales sobre la última, el brillante Llama 3 puede quedar atrapado en un bucle de optimización trivial. Es como pedirle a un premio Nobel que se dedique exclusivamente a encontrar formas de ahorrar un 1% en clips de papel.

Por el contrario, un cerebro menos potente, pero guiado por un andamiaje que fomenta la exploración y la diversidad, puede superar a su contraparte más inteligente pero "aburrida". Esta es una de las implicaciones más profundas del trabajo: la arquitectura de la curiosidad importa tanto, o quizás más, que el tamaño del intelecto.

El arte de medir un pensamiento

El primer desafío que enfrentó el equipo de FAIR fue cómo cuantificar algo tan etéreo como la "diversidad de ideación". No se puede simplemente preguntarle al agente cuán creativo se siente. Se necesita una métrica objetiva, basada en el rastro digital que deja su trayectoria.

Los investigadores desarrollaron formas ingeniosas de medir esto. Analizaron las "ideas" generadas por los agentes, que a menudo toman la forma de fragmentos de código, arquitecturas de modelos o conjuntos de hiperparámetros. Una forma de medir la diversidad es simplemente textual: ¿cuán diferentes son las descripciones de las ideas que genera el agente? Si cada idea es "probar ResNet con tasa de aprendizaje 0.01", "probar ResNet con tasa de aprendizaje 0.001", "probar ResNet con tasa de aprendizaje 0.005", la diversidad textual es muy baja. Si las ideas son "probar ResNet", "probar Vision Transformer", "probar un enfoque de LightGBM", la diversidad es mucho mayor.

Fueron incluso más allá. Analizaron la naturaleza de los modelos que los agentes decidían explorar. En un apéndice revelador del estudio, se muestra un gráfico de los modelos utilizados por dos agentes diferentes. Un agente, llamado AIDE, mostraba una fuerte preferencia: casi el 40% del tiempo utilizaba una familia de modelos llamada EfficientNet. De hecho, el 75% de todos sus intentos se concentraban en solo tres arquitecturas diferentes. Este agente tenía claros "favoritos".

En cambio, otro agente, AIRA_Greedy, mostraba un paladar mucho más variado. Sus tres modelos principales representaban solo el 38% de sus intentos iniciales. Estaba probando un espectro mucho más amplio de soluciones.

Obsesión vs. Exploración: Comparativa de Modelos Usados

Agente AIDE (Baja Diversidad)

El 75% de sus intentos se gastan en solo 3 arquitecturas.

Agente AIRA (Alta Diversidad)

Sus top 3 modelos solo ocupan el 38% del tiempo, dejando espacio para probar cosas nuevas.

Esta fase de análisis estableció la observación fundamental: los agentes con puntuaciones más altas en MLE-bench tendían a ser aquellos con estas métricas de diversidad más altas. El agente AIDE, con su fijación por EfficientNet, era superado por agentes más exploratorios.

Esto, en sí mismo, ya era un hallazgo valioso. Sugería que, al diseñar agentes, deberíamos priorizar la exploración sobre la simple explotación de ideas conocidas. Pero el equipo de FAIR no se detuvo ahí. Sabían que el siguiente paso era crucial para pasar de una observación interesante a una ley científica. Necesitaban controlar la variable.

El experimento: Fabricando la serendipia

La segunda mitad del estudio es donde la investigación trasciende la observación y se convierte en un experimento elegante. El objetivo era tomar un agente y forzarlo a ser más o menos diverso, para ver si esto afectaba directamente su rendimiento.

Para lograrlo, intervinieron en el bucle de ideación. Cuando el andamiaje le pedía al LLM (el cerebro) una idea, no se limitaban a aceptar la primera que ofrecía. En su lugar, le pedían al LLM que generara múltiples ideas candidatas. Luego, un mecanismo de selección decidía cuál de esas ideas seguir.

Aquí es donde introdujeron la variable de control. En el modo de "baja diversidad", el mecanismo de selección siempre elegía la idea que el propio LLM consideraba la "mejor" o más probable de éxito. En el modo de "alta diversidad", el mecanismo introducía aleatoriedad o utilizaba criterios para elegir ideas que fueran diferentes de las probadas anteriormente, incluso si a primera vista parecían menos prometedoras.

Impacto de Forzar la Diversidad en el Rendimiento

Puntuación de rendimiento relativo en el benchmark MLE

Los resultados fueron contundentes y claros. Los agentes que operaban en el modo de "alta diversidad" superaron sistemáticamente a sus contrapartes idénticas que operaban en el modo de "baja diversidad". Encontraron mejores soluciones en el banco de pruebas.

Este experimento es brillante porque aísla la diversidad como factor causal. Demuestra que la tendencia de un agente a "quedarse atascado en un surco" (baja diversidad) es perjudicial, incluso si ese surco parece ser el más prometedor en ese momento. La voluntad de probar algo diferente, de explorar un camino menos obvio, es lo que finalmente conduce a descubrir soluciones superiores que el agente "obsesivo" nunca encontraría.

Esto resuena profundamente con la forma en que ocurre la innovación humana. Los grandes avances rara vez provienen de mejoras incrementales infinitas. Vienen de cambios de paradigma, de alguien que aplica una idea de un campo completamente diferente. El estudio de FAIR sugiere que para que los científicos de IA alcancen ese nivel de descubrimiento, deben estar programados para la serendipia.

La trampa de la codicia y el explorador paciente

El trabajo de FAIR también arroja luz sobre una tensión clásica en la informática y en la estrategia: el equilibrio entre "explotación" y "exploración". La explotación consiste en aprovechar lo que ya sabes que funciona. Si has encontrado una colina que tiene oro, la explotación es cavar más profundo en esa colina. La exploración es ir a buscar otras colinas. Puedes pasar meses sin encontrar nada, pero puedes descubrir una montaña de oro.

Muchos algoritmos de IA están diseñados para ser "codiciosos" (greedy). Un algoritmo codicioso, en cada paso, toma la decisión que parece mejor en ese momento, sin preocuparse por las consecuencias a largo plazo. Es el epítome de la explotación. El problema de los algoritmos codiciosos es que se quedan atascados en "máximos locales". Encuentran la colina de oro (un máximo local), pero no se dan cuenta de que al otro lado del valle hay una montaña de diamantes (el máximo global), porque para llegar allí tendrían que bajar de su colina primero, un movimiento que parece "peor" a corto plazo.

⛏️

Explotación (La Trampa)

El agente "codicioso" cava más profundo donde ya está. Encuentra soluciones rápidas y decentes, pero se queda ciego ante las grandes oportunidades que están fuera de su zona de confort.

🔭

Exploración (La Solución)

El agente "diverso" sacrifica la ganancia inmediata para buscar en territorios desconocidos. Asume el riesgo de fallar a cambio de la posibilidad de descubrir algo revolucionario.

El agente AIRA_Greedy del estudio tiene este concepto en su nombre. Su tendencia es tomar la mejor idea aparente. Los hallazgos del estudio demuestran que este enfoque codicioso es subóptimo.

Un agente de alta diversidad es, por definición, un explorador. Está dispuesto a tomar un camino que no parece el mejor en ese momento. Está dispuesto a bajar de la colina de oro para ver qué hay en el valle. Esta estrategia es más lenta, más costosa y está llena de fracasos. Pero en un panorama de investigación complejo, es la única estrategia que garantiza encontrar los verdaderos avances, los máximos globales.

La implicación para el diseño de agentes es revolucionaria. Sugiere que los sistemas de IA más exitosos del futuro no serán los que den la respuesta "correcta" más rápida. Serán los que tengan la paciencia programada para explorar callejones sin salida, para probar ideas "tontas" y para desviarse de la ruta óptima percibida. Estamos aprendiendo que para construir una inteligencia artificial verdadera, debemos enseñarle el valor de no ser siempre eficientes.

El científico que estamos construyendo

El trabajo de Alexis Audran-Reiss y sus colegas en FAIR at Meta es una de esas piezas de investigación que reorientan un campo. Llega en un momento en que la narrativa dominante de la IA ha sido "más grande es mejor". Más datos, más cómputo, modelos más grandes. Este estudio no niega el valor de la escala, pero introduce un eje ortogonal: la arquitectura de la agencia, la forma en que piensa.

La relevancia científica es inmediata. Los laboratorios que construyen estos agentes ahora tienen evidencia empírica de que deben invertir tanto en los andamiajes de exploración como en los modelos de lenguaje centrales. Ya no es suficiente con conectar un LLM a un bucle de código; el diseño de ese bucle debe fomentar activamente la diversidad conceptual.

La relevancia tecnológica es más amplia. Este principio se aplica más allá de la investigación de IA. Cualquier sistema de IA autónomo diseñado para resolver problemas complejos, ya sea en logística, diseño de fármacos o ingeniería de materiales, se beneficiará de este principio. Estamos pasando de construir "solucionadores" de problemas a construir "exploradores" de espacios de soluciones.

Pero la relevancia más profunda es la social y humana. Este estudio es un espejo. En nuestro esfuerzo por crear una mente artificial que pueda investigar, nos vemos obligados a definir qué es lo que hace que un buen investigador. Y la respuesta que encontramos no es la velocidad de cálculo, la memoria perfecta o la lógica infalible. Es la curiosidad. Es la voluntad de estar equivocado. Es la amplitud de miras para considerar lo improbable.

El científico digital que emerge del trabajo de FAIR no es un oráculo infalible. Es un explorador tenaz, programado para tropezar en la oscuridad con una linterna que ilumina en muchas direcciones a la vez, con la esperanza de que uno de los haces revele un camino nuevo. Al enseñar a las máquinas a pensar, estamos redescubriendo y validando las cualidades más fundamentales de nuestra propia y falible inteligencia.

Fuentes

Audran-Reiss, A., Armengol Estapé, J., Hambardzumyan, K., Budhiraja, A., Josifoski, M., Toledo, E., Hazra, R., Magka, D., Shvartsman, M., Pathak, P., Kao, J. T., Cipolina-Kun, L., Gauri, B., Gagnon-Audet, J.-C., Tewolde, E., Zhang, J., Cohen, T., Adi, Y., Shavrina, T., & Bachrach, Y. (2025). What Does It Take to Be a Good AI Research Agent? Studying the Role of Ideation Diversity. arXiv:2511.15593 [cs.AI]. https://arxiv.org/pdf/2511.15593

Publicaciones Recientes

Google_AI_Studio_2025-12-08T04_16_04.949Z

El auge de los centros de datos y su impacto en la economía real

<p>El nuevo sistema nervioso del planeta: una fiebre del hormigón y silicio reescribe la economía global Mientras los
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí