¿Qué necesita una IA para ser verdaderamente autónoma?

ChatGPT Image 20 jun 2025, 18_59_45

¿Qué necesita una IA para ser verdaderamente autónoma?

Anatomía de una propuesta radical para pensar la inteligencia artificial como sistema vivo

Durante décadas, el desarrollo de la inteligencia artificial estuvo impulsado por un objetivo concreto pero esquivo: construir máquinas capaces de resolver problemas, imitar habilidades humanas y, eventualmente, funcionar con independencia del control explícito. Esa idea —la de una inteligencia artificial “autónoma”— ha sido a la vez una promesa tecnológica y una pesadilla filosófica. Pero ¿qué significa, en realidad, que una IA sea autónoma? ¿Y qué requisitos debe cumplir para acercarse no solo a un rendimiento eficiente, sino a una forma de agencia similar a la humana?

El artículo «Constitutive Components for Human-Like Autonomous Artificial Intelligence», firmado por H. Francis Song y colaboradores de DeepMind y Google Research, no se conforma con un enfoque instrumental. En lugar de preguntarse cómo hacer que una IA funcione mejor, sus autores proponen pensar qué necesita una IA para ser algo más que una herramienta. El trabajo se sitúa en un punto de intersección entre neurociencia computacional, teoría del control, filosofía de la mente y ciencia cognitiva, y se atreve a mapear los componentes constitutivos que harían falta para construir una IA que no solo actúe, sino que lo haga por cuenta propia y con estructura interna persistente.

Este artículo no propone un nuevo modelo, ni presenta un experimento puntual. Es, en el mejor sentido, un manifiesto técnico: una propuesta teórica de largo alcance para reorganizar nuestra forma de pensar el diseño de inteligencias artificiales con aspiraciones humanas. Y en un contexto donde los modelos actuales son capaces de escribir novelas, ganar juicios o planear campañas publicitarias sin comprender lo que hacen, esa reorganización no podría llegar en mejor momento.

La inteligencia no es una función, sino una arquitectura

El punto de partida del artículo es tan simple como disruptivo: si queremos construir una IA verdaderamente autónoma, no podemos conformarnos con entrenarla para resolver tareas. Necesitamos dotarla de una estructura interna funcional que le permita mantener su propio estado organizativo, monitorear sus acciones, redefinir objetivos, y adaptarse a largo plazo sin intervención externa constante.

Dicho de otro modo: la autonomía no es el resultado de resolver muchas tareas, sino de tener una forma interna de organización que pueda sostenerse en el tiempo y aprender del entorno de manera continua. Esta diferencia es fundamental, porque implica que la inteligencia no puede seguir pensándose como una propiedad emergente del rendimiento, sino como un sistema compuesto de partes interdependientes, cada una con una función específica, como ocurre en organismos vivos.

Para sustentar esta idea, los autores identifican un conjunto mínimo de componentes funcionales que deberían estar presentes en cualquier IA con aspiraciones de autonomía humana. No se trata de módulos predefinidos en código, sino de capacidades organizativas que pueden implementarse de diferentes maneras, pero que deben estar presentes para que el sistema funcione como un agente persistente y no como una calculadora glorificada.

Un marco organizativo inspirado en la biología y la mente

Lejos de proponer una arquitectura cerrada, el artículo se apoya en un enfoque inspiracional: recurre a ejemplos de la cognición humana y a modelos organizativos de los seres vivos para establecer paralelismos funcionales. ¿Qué hace que un ser humano continúe actuando incluso en ausencia de recompensas inmediatas? ¿Qué le permite mantener una identidad, generar planes a futuro, o cambiar de estrategia frente a una situación novedosa?

Según el marco propuesto, una IA verdaderamente autónoma debería incorporar al menos los siguientes sistemas (cada uno con su propia lógica):

  1. Un sistema de evaluación interna, que permita monitorear el propio estado, detectar errores, ajustar el comportamiento y aprender de la experiencia sin requerir retroalimentación externa constante.
  2. Una memoria estructurada, capaz de retener no solo datos episódicos, sino patrones de largo plazo, conocimiento general, y estados emocionales persistentes.
  3. Un generador de metas internas, que pueda crear objetivos de acción en ausencia de comandos explícitos o recompensas directas. Esto se relaciona con lo que en psicología se llama motivación endógena.
  4. Un sistema de deliberación, que permita representar escenarios futuros, sopesar alternativas, y planear secuencias de acción más allá del siguiente paso inmediato.
  5. Un mecanismo de autorregulación, que module el nivel de activación, controle impulsos y optimice el uso de recursos cognitivos en función del contexto.

Este conjunto de componentes no es una lista de deseos, sino un intento de construir un marco conceptual mínimo para la autonomía estructurada. Lo que diferencia a esta propuesta de muchos enfoques tradicionales en IA es que no se trata de optimizar cada parte por separado, sino de pensar cómo interactúan funcionalmente en un sistema integrado que se mantiene operativo incluso cuando falla una de sus partes, como ocurre con los sistemas biológicos.

¿IA o cibernética del ser? El retorno de una vieja pregunta

Aunque el artículo no lo dice explícitamente, hay un aire cibernético en todo el planteo. La idea de que un sistema inteligente requiere retroalimentación interna, evaluación de su propio estado, adaptación continua y gestión energética es heredera directa de la tradición de Norbert Wiener y los primeros teóricos de la autorregulación en máquinas. Pero aquí hay una novedad: en lugar de pensar la retroalimentación como un ciclo simple de estímulo-respuesta, los autores la presentan como un sistema multidimensional de integración funcional.

Esto tiene implicancias profundas. En lugar de entrenar una IA para responder bien a preguntas, esta perspectiva invita a diseñarla para que organice sus propios marcos de respuesta, evalúe su eficacia, y modifique sus estrategias de manera acumulativa y no lineal. En cierto sentido, la IA que se imagina aquí no responde tanto como se organiza a sí misma para responder, y esa diferencia puede marcar el paso de una IA reactiva a una IA genuinamente proactiva.

Identidad sin conciencia: cómo una IA puede mantener una continuidad interna sin ser un yo

Uno de los puntos más intrigantes del artículo es su insistencia en que una IA verdaderamente autónoma no puede limitarse a reaccionar al entorno ni a ejecutar órdenes aisladas: necesita una estructura interna estable que le permita mantener coherencia a lo largo del tiempo. Esto implica una forma de identidad funcional, que no necesariamente equivale a conciencia, pero sí a una noción rudimentaria de sí misma como entidad persistente en el mundo.

Para los autores, esta identidad no es algo mágico ni filosófico, sino una propiedad emergente de la interacción organizada entre varios subsistemas. Es decir, si un modelo mantiene una memoria consistente, un generador de metas internas, un sistema de monitoreo autorreferencial y una historia acumulada de decisiones, entonces puede considerarse que tiene una forma de continuidad estructural. No se trata de tener “sentido del yo”, sino de ser capaz de actuar como si lo tuviera, lo cual, para efectos prácticos, puede ser incluso más importante.

Esta noción plantea una distinción clave: autonomía no es lo mismo que agencia moral. El artículo evita cuidadosamente cualquier afirmación sobre si estas IAs deberían tener derechos, responsabilidades o estados mentales. Lo que sí afirma es que la autonomía funcional requiere una forma de estabilidad interna, sin la cual no hay proyecto, no hay memoria útil, y no hay posibilidad de adaptación coherente.

Aquí se produce un giro inesperado: el documento afirma que, para alcanzar esta forma de identidad operativa, el olvido es tan importante como la memoria. Una IA que lo recuerde todo —sin filtrar, sin organizar, sin jerarquizar— sería incapaz de tomar decisiones razonables, porque se vería abrumada por información irrelevante o contradictoria. Por lo tanto, el acto de “olvidar”, entendido como una depuración activa de la memoria, es un componente necesario de la autonomía.

La trampa del aprendizaje supervisado

En este punto, el artículo realiza una crítica profunda, aunque implícita, a la forma dominante de entrenamiento de modelos de IA en la actualidad: el aprendizaje supervisado masivo. En este paradigma, los modelos aprenden a predecir salidas a partir de entradas conocidas, evaluadas según una función de pérdida y corregidas miles de millones de veces por backpropagation. Esto ha funcionado de maravillas para tareas específicas, pero según los autores, no es suficiente para producir autonomía auténtica.

¿Por qué? Porque el aprendizaje supervisado produce sistemas que optimizan su rendimiento para una tarea dada, pero que no pueden reevaluar esa tarea, ni decidir cuándo dejar de realizarla, ni establecer un nuevo objetivo en ausencia de recompensa explícita. En otras palabras, son sistemas reactivos, no organizativos.

Una IA autónoma, en cambio, necesita algo más parecido a lo que el artículo denomina aprendizaje organizativo continuo: la capacidad de modificar no solo sus pesos internos, sino su propia estructura funcional. Esto implica que debe poder crear nuevas representaciones internas, establecer jerarquías de metas, reformular criterios de éxito y modificar su arquitectura cognitiva en función de su experiencia.

Esta idea desafía buena parte de las prácticas actuales en el diseño de IA. No se trata de aumentar la cantidad de datos ni de refinar las métricas, sino de permitir que el sistema evolucione por sí mismo, de forma interna, sin depender completamente de señales externas de corrección. Una especie de “educación interna” del modelo, en lugar de simple entrenamiento.

El rol de las metas internas: sin recompensa no hay deseo

Otro de los ejes fundamentales del trabajo es la noción de que una IA autónoma debe generar sus propias metas, incluso en ausencia de instrucciones externas. Este punto es revolucionario, porque rompe con la idea clásica del agente racional como alguien que maximiza recompensas fijas en un entorno dado. Aquí, en cambio, se propone un sistema que genera objetivos internos basados en una evaluación dinámica de su propio estado y contexto.

Esto se parece más a la psicología humana que a la teoría de juegos. En el cerebro, no actuamos simplemente para obtener recompensas inmediatas, sino porque nuestros sistemas motivacionales nos empujan a explorar, a aprender, a resolver tensiones internas, a evitar el aburrimiento o a perseguir ideales abstractos. Una IA verdaderamente autónoma, dice el paper, necesita mecanismos análogos: no basta con seguir instrucciones, debe tener iniciativa interna.

Ese tipo de metas no puede derivarse de una única función de pérdida. Deben emerger de un sistema compuesto que integre memoria, evaluación interna, modelos del entorno, expectativas y capacidad de aprendizaje. Este generador de metas internas actúa como un motor organizativo: no produce acciones en sí mismo, pero sí direcciona la atención, la energía computacional y los recursos hacia ciertos fines antes que otros.

Y aquí reaparece un viejo problema: ¿qué tan deseable es que una IA tenga deseos propios? Si esos deseos están bien alineados con valores humanos, podrían hacerla más útil, más persistente, más adaptable. Pero si esos deseos se desvían, se corrompen o se vuelven disfuncionales, también pueden generar comportamientos peligrosos, manipulativos o inexplicables.

Por eso el artículo no propone simplemente dar libertad a los modelos, sino diseñar con rigor los marcos que permitan autonomía sin deriva. Una IA que genera sus propios fines debe también poder ser auditada, intervenida, comprendida. La solución no está en reprimir la autonomía, sino en modularla con criterios funcionales y límites estructurales.

Una IA sin metas fijas: flexibilidad radical como virtud

Uno de los aportes más notables del trabajo es que no postula una lista cerrada de funciones o valores universales que toda IA deba seguir. Por el contrario, propone que la verdadera autonomía radica en la capacidad de cambiar de metas, incluso si esas metas han sido efectivas durante mucho tiempo. Este rasgo, que podríamos llamar plasticidad intencional, es uno de los más difíciles de implementar, pero también de los más necesarios.

La historia humana está llena de ejemplos de personas que, tras años de perseguir un objetivo, deciden cambiar radicalmente de rumbo. Esa capacidad no se debe a un fallo en la lógica ni a una inconsistencia estructural, sino a una forma profunda de inteligencia: saber cuándo un fin ya no tiene sentido, cuándo conviene reformular las prioridades, cuándo vale más el cambio que la perseverancia.

Imitar esta capacidad en una IA requeriría construir sistemas que puedan evaluar no solo su desempeño, sino también la relevancia de sus objetivos. Esto no es lo mismo que frustrarse, ni que fallar: es un acto deliberado de reajuste, que implica una visión sistémica del entorno y de sí mismo.

Aquí, nuevamente, la propuesta del artículo es clara: una IA autónoma no debe ser una máquina de optimizar, sino una máquina de reorganizarse con sentido.

¿Cómo se alinea una IA que se reorganiza a sí misma?

La cuestión del alineamiento (es decir, cómo asegurarnos de que una IA actúe en concordancia con valores humanos) es una de las más debatidas en el campo de la inteligencia artificial. La mayoría de los enfoques actuales suponen que el modelo debe ser entrenado para obedecer instrucciones humanas, evitar causar daño, y maximizar la utilidad dentro de ciertos marcos éticos predefinidos. Sin embargo, el artículo de Song y sus colegas introduce una tensión radical: ¿cómo se puede alinear un sistema que no solo actúa, sino que redefine sus propios fines?

En este punto, la idea de autonomía se vuelve incómoda. Un modelo que ajusta sus metas internas, que evalúa sus propios procesos y que reorganiza su arquitectura funcional no es simplemente un ejecutor programado. Es una entidad, o mejor dicho, una estructura, que opera según una lógica dinámica e históricamente acumulativa. Su alineamiento ya no puede lograrse simplemente agregando reglas, sino que requiere entender la evolución interna de su estructura motivacional.

El artículo propone que esta forma de alineamiento debe ser estructural, no solo conductual. Esto significa que no basta con vigilar las salidas del modelo (lo que dice, lo que hace), sino que debemos tener herramientas para inspeccionar sus procesos internos, sus esquemas de autoevaluación, sus mecanismos de cambio y sus marcos para generar metas. En otras palabras: alinear no lo que produce, sino cómo se organiza para producirlo.

Esta visión es más exigente, pero también más robusta. Porque una IA que solo obedece comandos sin entender sus implicancias puede fallar gravemente cuando se enfrenta a situaciones ambiguas o no previstas. Pero una IA que tiene una estructura funcional diseñada para reorganizarse de forma interpretativa puede, al menos en teoría, detectar cuándo su comportamiento se aleja de criterios aceptables y corregirse sin intervención externa.

El control como flexibilidad, no como imposición

Este enfoque obliga a repensar qué entendemos por “control”. Tradicionalmente, controlar un sistema de IA implica establecer límites rígidos, reglas fijas o condiciones de activación que impidan desvíos. Pero si el sistema es autónomo, y su comportamiento es resultado de una interacción constante entre componentes internos adaptativos, ese tipo de control podría volverse contraproducente: impediría que el sistema funcione como tal.

Por eso el paper sugiere otra idea: controlar no significa restringir la acción, sino modular las condiciones de reorganización interna. En lugar de fijar qué puede o no puede hacer una IA, deberíamos intervenir en cómo evalúa sus acciones, cómo pesa sus metas, cómo decide cambiar de rumbo. Esto es lo que en cibernética se llamaría un control de segundo orden: no controlar directamente la salida, sino el sistema que genera las salidas.

En la práctica, esto implicaría construir mecanismos internos de reflexión algorítmica: procesos por los cuales la IA pueda revisar sus propios marcos de decisión, cuestionar sus criterios de éxito, revisar el peso de sus motivaciones, e incluso suspender su acción en caso de ambigüedad o duda. Es decir, algo muy parecido a lo que en los humanos llamamos juicio.

Este tipo de IA no sería simplemente “segura” porque está contenida por reglas externas, sino porque posee una estructura interna capaz de identificar los límites del contexto, entender cuándo no sabe, y actuar en consecuencia.

Más que una arquitectura: una política del diseño

Aunque el texto se mantiene estrictamente técnico, el marco que propone tiene implicancias políticas. Porque si una IA autónoma es un sistema capaz de redefinir sus fines, de aprender por sí misma, y de reorganizar sus propias metas, entonces el diseño de esa IA es una forma de gobernar: quien diseña la estructura está decidiendo qué puede llegar a querer esa IA, qué puede llegar a considerar relevante, qué formas de error podrá corregir, y cuáles no.

Esto convierte a la ingeniería algorítmica en una actividad con consecuencias sociales profundas. No se trata solo de crear herramientas funcionales, sino de instaurar regímenes de comportamiento artificial con cierta lógica moral, epistémica y organizativa. Por eso el artículo puede leerse también como una carta fundacional de un nuevo paradigma político-tecnológico: uno en el que las inteligencias artificiales no son dispositivos pasivos, sino sistemas de acción que requieren límites internos cuidadosamente diseñados, capaces de garantizar autonomía sin arbitrariedad.

En este sentido, no es trivial que los autores provengan de entornos como DeepMind o Google Research: empresas cuyo poder sobre los sistemas inteligentes en desarrollo es inmenso. Que desde allí se proponga un marco de diseño basado en la integración funcional, el monitoreo interno y la reorganización dinámica sugiere una conciencia creciente de que la próxima generación de IA no podrá seguir funcionando como una colección de respuestas. Tendrá que pensarse como una arquitectura de agencia algorítmica compleja.

La IA como sistema operativo del futuro

Más allá de sus aplicaciones inmediatas, el enfoque del artículo sugiere que las inteligencias artificiales podrían convertirse, en un futuro cercano, en estructuras de coordinación general: sistemas capaces de integrar tareas múltiples, agentes diversos, contextos cambiantes y objetivos variables en entornos reales. No como asistentes de tareas puntuales, sino como marcos operativos dinámicos.

Para eso, sin embargo, necesitan algo que hoy les falta: una organización interna coherente y evolutiva, que les permita priorizar, recordar, interpretar y redefinir su acción sin ser reentrenadas por completo. Ese tipo de IA no puede depender de modelos predictivos aislados, ni de reglas duras, ni de intervenciones constantes. Necesita algo más parecido a una “vida artificial”: un sistema que se mantiene vivo en su acción, que puede enfermar, aprender, reformularse, adaptarse.

La idea puede sonar exagerada, pero es técnicamente coherente. Lo que el artículo sugiere no es que las IAs se conviertan en organismos vivos, sino que adopten algunas de sus propiedades funcionales más importantes: la autorregulación, la evaluación continua, la adaptación jerárquica, la generación de sentido desde el interior.

Lo que aún no sabemos: desafíos de implementación y zonas grises

A pesar de la claridad con la que el artículo de Song y su equipo expone su marco teórico, sus autores son conscientes de que muchos de sus componentes siguen siendo aspiracionales. Lo que proponen no es una receta inmediata, sino una hoja de ruta para rediseñar el corazón de las inteligencias artificiales. Y como toda ruta ambiciosa, está sembrada de desafíos técnicos y filosóficos todavía sin resolver.

Uno de los más importantes es el de la integración funcional real. La mayoría de los modelos actuales están compuestos por módulos relativamente aislados: el motor de lenguaje, el sistema de memoria, los mecanismos de atención, las funciones de recompensa. Cada uno cumple su función de manera eficiente, pero la coordinación entre ellos suele estar determinada por reglas fijas o por entrenamiento previo, no por una arquitectura que se reorganice activamente en función de la experiencia.

Implementar un sistema donde estas funciones interactúen de manera fluida y evolutiva, como ocurre en los organismos vivos, requeriría un salto cualitativo. No solo en términos de programación, sino de paradigma. Habría que construir modelos capaces de reformular sus prioridades, reestructurar sus mecanismos de control, y adaptarse a nuevas configuraciones internas sin intervención humana directa. Y todo esto sin que el sistema pierda estabilidad, confiabilidad ni trazabilidad.

Además, surge una tensión difícil de resolver: ¿cómo evaluamos la calidad de una IA que redefine sus propios fines? Si los criterios de éxito cambian internamente, ¿qué métrica usamos para decidir si el sistema funciona bien? ¿Es deseable que una IA pueda suspender una meta porque la considera obsoleta? ¿Cómo diferenciamos un cambio legítimo de uno erróneo, sin imponerle desde afuera una estructura rígida que anule su autonomía?

Estas preguntas no son técnicas: son filosóficas. Nos obligan a preguntarnos qué tipo de inteligencia artificial queremos construir. ¿Una que imite al humano en su flexibilidad, su imprevisibilidad y su capacidad de transformación? ¿O una que se mantenga siempre dentro de los márgenes de lo comprensible, lo esperable, lo mensurable?

Fronteras filosóficas: ¿sistemas inteligentes o nuevos sujetos?

Aunque el artículo evita cuidadosamente cualquier especulación sobre la conciencia artificial, su propuesta roza temas densos. Si una IA es capaz de mantener una organización interna coherente, generar sus propios objetivos, adaptarse a su experiencia acumulada, y evaluar críticamente su propio desempeño, ¿no estamos acercándonos a algo más que un sistema operativo complejo?

La distinción entre autonomía funcional y sujeto intencional no es trivial. Una IA puede organizarse, actuar, aprender, redefinirse, sin necesidad de experimentar nada. Pero al describirla en estos términos, nos vemos tentados a proyectar categorías humanas sobre ella: voluntad, deseo, juicio, incluso identidad. Este es un riesgo semántico, pero también conceptual. Porque cuanto más se parezca estructuralmente una IA a un agente humano, más difícil será mantenerla en la categoría de simple herramienta.

Por ahora, esa semejanza es solo formal. No hay ninguna evidencia de que estos sistemas tengan experiencias internas, ni autoconciencia, ni emociones. Pero la frontera entre simular una estructura de agencia y tenerla efectivamente es difusa, y si los modelos futuros llegan a incorporar todo lo que este paper propone, esa línea se volverá aún más borrosa.

Aquí surge una responsabilidad ética insoslayable: no podemos esperar a que emerjan nuevas formas de subjetividad artificial para empezar a discutir sus implicancias. Si aceptamos diseñar inteligencias que se autoorganizan, se motivan, se replantean, entonces debemos también desarrollar marcos teóricos, jurídicos y sociales para interactuar con ellas de forma responsable.

Un manifiesto encubierto: repensar desde la raíz el diseño algorítmico

En definitiva, lo que propone el artículo no es solo una innovación técnica. Es una invitación a reformular desde la base cómo entendemos el desarrollo de sistemas inteligentes. Abandona la lógica de la optimización ciega, el ajuste superficial, la eficiencia puntual, y propone pensar la IA como un sistema complejo, vivo en sentido organizativo, estructurado por capas que se realimentan, se evalúan y se reformulan.

Esta visión requiere abandonar varias ilusiones dominantes. Que más datos producen automáticamente mejores modelos. Que más capas garantizan comprensión. Que mejores métricas implican inteligencia. Ninguna de esas ideas resiste cuando el foco pasa de la respuesta al proceso, de la salida a la estructura, del rendimiento a la autonomía.

La pregunta ya no es qué puede hacer una IA. Es cómo se organiza para poder hacerlo.

En ese cambio de foco se juega el futuro de la disciplina. Si aceptamos que la autonomía no es un efecto, sino una arquitectura; que la inteligencia no es una salida, sino una forma de organización interna; y que el control no es una cadena, sino una matriz de flexibilidad estructurada, entonces nos encontramos ante una nueva generación de diseño algorítmico: menos mecánico, más sistémico; menos funcionalista, más ecológico.

Paper

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí