Existe un método de diseño que rige gran parte de nuestro universo biológico: la selección natural. La Neuroevolución, un campo de la inteligencia artificial que ha madurado silenciosamente desde la década de 1990, propone aplicar las mismas fuerzas creativas del proceso evolutivo para construir arquitecturas neuronales y determinar sus pesos sin depender de las complejas matemáticas del descenso de gradiente. La publicación del nuevo libro Neuroevolution: Harnessing Creativity in AI Agent Design, escrito por Sebastian Risi, Yujin Tang, David Ha y Risto Miikkulainen (científicos de Sakana AI, Google DeepMind y la Universidad de Texas), ha cristalizado este campo, posicionándolo como el contrapunto filosófico y metodológico a la inteligencia artificial de aprendizaje profundo dominante. Este enfoque promete liberar a los sistemas de la necesidad de metas de entrenamiento fijas, permitiendo el surgimiento de inteligencias genuinamente adaptables y creativas.
El aprendizaje profundo ha conquistado la clasificación y la predicción, pero sufre de una limitación intrínseca: requiere una función de coste derivable, una "pista de esquí" matemática que guíe el proceso de optimización mediante el cálculo de gradientes. Cuando el objetivo es la toma de decisiones complejas a lo largo del tiempo, como el control de un robot bípedo, el juego de estrategias o la navegación autónoma, la función de rendimiento se vuelve rugosa y discontinua. Es en este terreno inestable donde las técnicas evolutivas, que operan mediante prueba y error poblacional en lugar de cálculos infinitesimales, demuestran su poder. La Neuroevolución se centra en evolucionar redes neuronales destinadas a agentes inteligentes, es decir, sistemas donde un buen desempeño se traduce en una secuencia de acciones a lo largo del tiempo, y no en una única respuesta correcta.
El concepto central de la disciplina es sencillo: en lugar de ajustar los pesos de una red con retropropagación (backpropagation), se trata a una población de redes neuronales candidatas como un conjunto de organismos en un entorno digital. Se evalúa el fitness o aptitud de cada red en la tarea objetivo, las redes con mejores resultados se seleccionan para la reproducción, y se introducen variaciones genéticas (mutaciones y cruces) para generar la próxima generación. Este proceso iterativo, que imita la selección biológica, permite a los algoritmos explorar espacios de diseño amplios y no derivables, descubriendo soluciones originales que a menudo eluden a los métodos tradicionales basados en gradientes. Los autores del volumen enfatizan que, a diferencia del entrenamiento tradicional que busca la solución óptima, la Neuroevolución busca la solución creativa y funcionalmente robusta.
Históricamente, la aplicación de algoritmos evolutivos (como los algoritmos genéticos o las estrategias de evolución) a las redes neuronales ha abarcado desde la optimización exclusiva de los pesos de una red de topología fija hasta la coevolución del peso y la arquitectura. Este enfoque integral es lo que lo distingue del entrenamiento simple de los pesos y lo eleva a un paradigma de diseño estructural. La disciplina ha extendido sus horizontes recientemente, aplicándose a la optimización de arquitecturas de aprendizaje profundo, a la comprensión de cómo evolucionó la inteligencia biológica e incluso al diseño de redes neuronales para su implementación directa en hardware neuromórfico, demostrando su versatilidad en la intersección de la biología y la computación.
El genoma de la red: arquitecturas que nacen, no se diseñan
Una de las contribuciones más profundas de la Neuroevolución radica en su capacidad para diseñar la estructura de la red, una tarea notoriamente difícil para los humanos y para los métodos de aprendizaje profundo convencionales. Las técnicas iniciales se enfocaron en la Neuroevolución de Topología Fija, donde solo se modificaban los pesos de la red. Sin embargo, el verdadero avance se produjo con la Neuroevolución de Topologías de Aumento (NEAT, por sus siglas en inglés, Neuroevolution of Augmenting Topologies). Esta metodología no solo optimiza los pesos sinápticos, sino que introduce la capacidad de añadir nuevas conexiones y neuronas a lo largo de las generaciones, permitiendo que la complejidad de la red crezca orgánicamente solo cuando es funcionalmente necesaria.
El algoritmo de crecimiento estructural (NEAT) resuelve el problema fundamental de la innovación y la preservación de la misma. Cuando la topología (la "anatomía" de la red) puede cambiar, una simple mutación puede hacer que las redes resultantes sean demasiado diferentes entre sí, dificultando la reproducción efectiva de los rasgos exitosos. Este sistema aborda esto utilizando un mecanismo de "marcas históricas" genéticas para rastrear la ascendencia de cada nodo y conexión, y emplea la especiación para proteger las innovaciones incipientes. Al obligar a los individuos a competir solo dentro de su propia "especie" o nicho evolutivo durante un tiempo, la metodología de aumento garantiza que las soluciones estructurales radicalmente nuevas tengan la oportunidad de optimizar sus pesos antes de ser juzgadas contra las soluciones existentes y mejor adaptadas. Es una herramienta que cultiva la invención.
Este concepto de diseño autodirigido no se limita a las redes poco profundas. El campo se ha expandido masivamente hacia la Búsqueda Evolutiva de Arquitectura Neuronal (NAS, por sus siglas en inglés, Neural Architecture Search), donde los algoritmos evolutivos se emplean para encontrar la mejor estructura para las redes de aprendizaje profundo, como las Redes Convolucionales (CNN) o las Redes de Memoria a Corto y Largo Plazo (LSTM). Métodos como CoDeepNEAT combinan la evolución de la topología con la optimización de los hiperparámetros y la reutilización de módulos. De hecho, arquitecturas notables como AmoebaNet, que ha superado consistentemente los resultados de vanguardia (State-of-the-Art, SOTA) en tareas de clasificación de imágenes, han sido descubiertas mediante la Neuroevolución. En lugar de que los arquitectos humanos pasen meses probando combinaciones, el algoritmo evolutivo explora eficientemente el inmenso espacio de posibles diseños, descubriendo estructuras que desafían la intuición humana.
Un área particularmente sofisticada es la de las Codificaciones Indirectas. En lugar de que el genoma de la red codifique directamente cada peso sináptico (codificación directa), se emplean sistemas que describen cómo debe "crecer" la red. Esto reduce drásticamente la longitud del genoma, haciendo que la evolución sea más manejable y escalable. Un ejemplo destacado es el uso de Hypernetworks, donde una red neuronal (la hiperred) codifica las reglas para generar los pesos de una segunda red (la red de tareas). Las Redes de Producción de Patrones Composicionales (CPPN) son un tipo de hiperred que puede generar patrones complejos con simetría y repetición, y cuando se combinan con el crecimiento estructural (dando lugar a CPPN-NEAT), permiten el diseño evolutivo de robots blandos o criaturas virtuales cuyas estructuras y movimientos son increíblemente complejos y eficientes.
La adopción de esta aproximación indirecta no es simplemente una estrategia de escalabilidad; es una forma de introducir principios de desarrollo biológico en la inteligencia artificial. Así como un genoma biológico no codifica cada célula individual sino las reglas para el desarrollo celular, las codificaciones indirectas permiten a la Neuroevolución operar en un nivel más abstracto y poderoso. El campo ha avanzado hasta el punto de utilizar mecanismos de Autoatención (Self-Attention), que son fundamentales en los modelos de Transformers, como una forma de codificación indirecta dinámica. Esto significa que la Neuroevolución no solo puede construir la arquitectura de la red, sino que también puede co-diseñar el mecanismo de atención y percepción que la red utiliza para interactuar con su entorno. Esto representa un cierre de ciclo conceptual: el proceso evolutivo diseña tanto el hardware neuronal como los procesos cognitivos fundamentales.
Neuroevolución vs. Descenso de Gradiente
El descenso de gradiente (la base del aprendizaje profundo) requiere una función de coste continua y diferenciable. Cuando los objetivos son la creatividad, la búsqueda a largo plazo o el control robótico con recompensas dispersas, el espacio de soluciones es "rugoso" (no derivable), haciendo que los métodos basados en gradientes sean ineficaces. La Neuroevolución, al utilizar la búsqueda poblacional y la selección natural (prueba y error), puede navegar por estos paisajes de aptitud rugosos, descubriendo soluciones que los algoritmos de gradiente ignoran. Esta robustez la hace indispensable para problemas de control y diseño de agentes donde la recompensa final es incierta o lejana.
El arte de lo inesperado: la diversidad como motor de la inteligencia
Si la optimización basada en gradientes tropieza en los problemas de meta lejana, la Neuroevolución enfrenta un desafío análogo: el estancamiento evolutivo. Los algoritmos tradicionales a menudo se quedan atrapados en óptimos locales, soluciones que son buenas pero no las mejores, debido a que la función de aptitud deja de proporcionar una guía útil. Para superar esto, la disciplina ha adoptado la Búsqueda de Novedad (Novelty Search). Este método abandona la función de fitness (el objetivo final, como "caminar 10 metros") y en su lugar premia la diversidad conductual. Los agentes son recompensados no por alcanzar la meta, sino por realizar algo que nunca se había visto antes en la población.
La Búsqueda de Novedad es una estrategia de exploración. Al perseguir la variación, el algoritmo construye inconscientemente un repertorio de habilidades y comportamientos diversos. Aunque un comportamiento novedoso pueda no acercar inmediatamente al agente a la meta, a menudo lo lleva a un "escalón" del paisaje de aptitud del que el proceso de optimización tradicional no podía escapar. Una vez en ese nuevo escalón, el objetivo original puede volverse trivialmente fácil. Este enfoque ha demostrado ser capaz de resolver problemas que son irresolubles para los algoritmos que solo buscan la recompensa directa, lo que confirma una profunda idea biológica: la diversidad es un recurso intrínseco de la inteligencia.
A partir de la Búsqueda de Novedad surgieron los métodos de Calidad y Diversidad (QD, por sus siglas en inglés, Quality Diversity). Algoritmos como MAP-Elites no buscan un único agente óptimo, sino que intentan llenar un mapa de fenotipos. Se definen las "dimensiones conductuales" (por ejemplo, velocidad, agilidad, altura de salto) y el algoritmo intenta encontrar la solución más apta para *cada combinación posible* de esas dimensiones. El resultado es un "mapa de élites" que contiene una población de soluciones altamente especializadas y diversas. Si un problema nuevo requiere una combinación específica de habilidades (por ejemplo, "rápido y saltador"), la solución ya existe en el mapa y puede ser utilizada o modificada inmediatamente, facilitando la transferencia de aprendizaje.
La Neuroevolución también abarca el estudio de Sistemas Colectivos, donde la inteligencia no reside en un solo agente sino en la interacción. La Coevolución Competitiva, como en los escenarios de "hienas y cebras", impulsa una carrera armamentista evolutiva: las cebras más rápidas fuerzan a las hienas a evolucionar mejores estrategias de persecución, y viceversa. Este ciclo de mejora mutua, documentado en el libro, demuestra que la competencia puede generar comportamientos mucho más sofisticados y robustos que la optimización de un agente en un entorno estático. De manera similar, la Coevolución Cooperativa permite la evolución de equipos de agentes heterogéneos, como redes celulares neuronales (NCA) que crecen y se autoensamblan para formar máquinas funcionales, imitando procesos de desarrollo celular y morfogénesis biológica.
La capacidad de aplicar estas técnicas a la toma de decisiones del mundo real es inmensa. Los autores citan estudios de caso en los que la Neuroevolución se utilizó para optimizar la mitigación del cambio climático mediante el uso de la tierra o para determinar las Intervenciones No Farmacéuticas (NPI) óptimas durante la pandemia de COVID-19. Estos problemas se caracterizan por el ruido, la incertidumbre y la necesidad de muchas decisiones secuenciales, lo que los hace perfectos para las técnicas evolutivas que sobresalen en la robustez y la adaptación al contexto. La disciplina se revela, por tanto, no solo como un campo académico, sino como una herramienta práctica para abordar la complejidad sistémica y la incertidumbre inherente a los mayores desafíos de la sociedad moderna.
La doble hélice de la cognición: puentes con el aprendizaje y la biología
La Neuroevolución, en su madurez, ha trascendido la oposición binaria a otros campos de la inteligencia artificial, buscando sinergias productivas. La relación más evidente es con el Aprendizaje por Refuerzo (RL, por sus siglas en inglés). Si el RL es excelente en la optimización local y el ajuste fino de la política de un agente, la Neuroevolución es superior en la exploración global y en la determinación de las arquitecturas o hiperparámetros que hacen posible ese aprendizaje. Esta complementariedad ha dado lugar a métodos híbridos: el proceso evolutivo puede, por ejemplo, evolucionar las redes de valor del RL o simplemente proporcionar un punto de partida inicial bien estructurado, que el RL luego refina con el descenso de gradiente.
Un área de investigación fascinante dentro de esta sinergia es la Meta-Aprendizaje Evolutivo, donde la evolución no diseña el agente, sino los mecanismos internos que le permiten aprender. Esto incluye la evolución de funciones de pérdida, funciones de activación e incluso la evolución de las reglas de aprendizaje hebbiano (reglas de plasticidad) de la red. Al evolucionar estos mecanismos, la Neuroevolución crea agentes que pueden adaptarse rápidamente a entornos cambiantes, imitando la plasticidad del cerebro biológico. Los sistemas resultantes son mucho más robustos y capaces de transferir el conocimiento a robots físicos o a tareas nuevas, demostrando que el aprendizaje continuo y adaptativo puede ser un rasgo diseñado por la evolución computacional.
El nuevo frente es la fusión con la Inteligencia Artificial Generativa. Los Grandes Modelos de Lenguaje (LLM) han demostrado ser herramientas de razonamiento poderosas, pero su salida es estática y a veces carece de la creatividad orientada a la búsqueda. La computación evolutiva está siendo utilizada para mejorar los LLM a través de técnicas como la Ingeniería Evolutiva de Prompts. En lugar de que un humano diseñe el prompt óptimo para un LLM, la evolución lo hace, generando y probando cientos de variaciones para encontrar la cadena de texto que produce la respuesta más deseada. También se está utilizando para la fusión evolutiva de modelos, combinando los "conocimientos" de múltiples LLM especializados para crear un modelo híbrido superior.
Más fundamentalmente, los LLM también están siendo aprovechados para mejorar la Neuroevolución. Los sistemas de lenguaje pueden actuar como una Estrategia de Evolución al guiar el proceso de mutación y selección, utilizando su vasto conocimiento textual para sugerir cambios genéticos inteligentes en lugar de mutaciones aleatorias. La evolución, por su parte, juega un papel crucial en la creación de Modelos del Mundo (World Models). Estos son representaciones internas del entorno que permiten a los agentes practicar y planificar. La Neuroevolución se utiliza para entrenar agentes dentro de estos modelos internos, donde la simulación es más rápida y el coste de exploración es cero, un método que acelera drásticamente el proceso de desarrollo de estrategias complejas.
Finalmente, el campo de estudio proporciona una ventana a la Evolución Biológica misma. Al simular el proceso de evolución en redes neuronales, los investigadores pueden probar hipótesis sobre cómo la inteligencia natural desarrolló rasgos clave, como la modularidad, la neuromodulación o el origen evolutivo del lenguaje. Por ejemplo, al evolucionar redes bajo ciertas restricciones, se puede observar el surgimiento de módulos funcionales especializados, lo que proporciona evidencia computacional para entender por qué el cerebro humano está organizado de manera modular. La Neuroevolución se convierte en un laboratorio virtual donde se prueban las fuerzas evolutivas que han esculpido la cognición a lo largo de miles de millones de años, llevando a una comprensión más profunda de nuestra propia estructura biológica. El libro de Risi, Tang, Ha y Miikkulainen no solo documenta una disciplina de la computación, sino que relata la historia de una nueva forma de pensar sobre la inteligencia y el diseño.
El futuro de esta disciplina pasa por la disolución de las fronteras entre algoritmos y estructuras. El objetivo ya no es simplemente entrenar una red neuronal o un algoritmo evolutivo, sino construir un sistema que pueda coevolucionar su propia arquitectura, sus mecanismos de aprendizaje interno y sus estrategias de comportamiento en tiempo real. Esto requiere ir más allá de los conceptos de optimización y abrazar la idea de la Evolución Abierta (Open-ended Evolution), un proceso que busca la innovación perpetua sin un objetivo final definido, imitando la complejidad sin fin de la vida en la Tierra. Si el aprendizaje profundo nos enseñó a optimizar lo existente, la Neuroevolución nos está mostrando cómo crear lo completamente nuevo.
El desafío final, como sugieren los expertos, es la escalabilidad. Si bien técnicas como NEAT y los métodos de diversidad son conceptualmente poderosos, históricamente han sido más lentos de entrenar que los métodos basados en gradientes. Sin embargo, la integración con las arquitecturas de Deep Learning y el uso masivo de computación paralela, un enfoque denominado Deep Neuroevolution, están eliminando esta limitación. La capacidad de ejecutar poblaciones masivas de agentes de forma asíncrona en grandes grupos de cálculo está haciendo que la búsqueda evolutiva sea competitiva en tiempo con la optimización de gradientes, asegurando que la próxima gran oleada de la inteligencia artificial será aquella que se diseñe a sí misma, un paso fundamental hacia sistemas de inteligencia general verdaderamente creativos y adaptables.
Referencias
Risi, S., Tang, Y., Ha, D., and Miikkulainen, R. (2025). Neuroevolution: Harnessing Creativity in AI Agent Design. Cambridge, MA: MIT Press. (Versión en línea citada).
Miikkulainen, R. et al. (2025). Overview and Table of Contents of Neuroevolution: Harnessing Creativity in AI Agent Design. Neuroevolutionbook.com.
Stanley, K. O. y Miikkulainen, R. (2002). Evolving Neural Networks through Augmenting Topologies (NEAT). Estudios sobre el algoritmo NEAT.
Lehman, J., y Stanley, K. O. (2011). Novelty Search and the Problem with Objectives. Investigación sobre Búsqueda de Novedad.
Ha, D., y Tang, Y. (2025). EvoJAX: un kit de herramientas para la Neuroevolución acelerada. Contribuciones de los autores al desarrollo de software.
Risi, S. (2025). Creative AI Lab, IT University of Copenhagen. Investigación sobre codificaciones indirectas y creatividad.



