El progreso de la computación avanza a menudo en círculos, espirales ascendentes donde las viejas verdades regresan para solucionar problemas inéditos. En el vertiginoso ascenso de la inteligencia artificial generativa, hemos vivido años de obsesión casi exclusiva con el "cerebro" de la máquina, esos modelos fundacionales cada vez más masivos y capaces que prometen razonar como humanos. Sin embargo, la comunidad científica ha comenzado a chocar con una pared invisible que no se derriba simplemente añadiendo más parámetros o capacidad de cómputo. El obstáculo no es la inteligencia en sí misma, sino la memoria, la organización y, sobre todo, el contexto. De nada sirve un cerebro brillante si opera en un vacío, desconectado de la realidad, incapaz de acceder a sus herramientas de forma ordenada o de recordar instrucciones pasadas sin corromperlas. En este escenario de caos arquitectónico, una nueva propuesta teórica sugiere que la solución al futuro de la IA autónoma reside en el pasado más elegante de la informática: la filosofía Unix de los años setenta.
Un equipo de investigadores de instituciones de prestigio como CSIRO’s Data61, la Universidad de Nueva Gales del Sur en Australia, y la tecnológica ArcBlock en Seattle, ha publicado un trabajo que promete redefinir los cimientos sobre los que construimos sistemas inteligentes. Bajo el título Everything is Context: Agentic File System Abstraction for Context Engineering (Todo es contexto: Abstracción de sistema de archivos agéntico para la ingeniería de contexto), los autores Xiwei Xu, Xuewu Gu, Robert Mao, Yechao Li, Quan Bai y Liming Zhu plantean una tesis audaz. Sostienen que la ingeniería de sistemas modernos ha cometido el error de tratar el contexto —esa amalgama de instrucciones, documentos recuperados y memorias— como un accesorio desordenado. Su propuesta es radical en su simplicidad: organizar la mente de la IA utilizando la abstracción más robusta y probada de la historia del software, el sistema de archivos.
Para comprender la magnitud de este giro copernicano, es necesario observar el paisaje actual del desarrollo de software. Hasta hace poco, construir una aplicación significaba escribir código determinista; si ocurria "A", entonces sucedía "B". Con la llegada de los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés), el paradigma se fracturó. Ahora, los ingenieros no programan reglas rígidas, sino que orquestan conversaciones probabilísticas. Intentan guiar a una entidad estocástica para que realice tareas útiles mediante el diseño de prompts, la inyección de documentos externos y la conexión con APIs. Esta práctica, conocida como ingeniería de contexto, se ha convertido en el nuevo cuello de botella. Los desarrolladores se encuentran haciendo malabares con fragmentos de texto, bases de datos vectoriales y llamadas a herramientas, todo unido con "cinta adhesiva" digital, creando sistemas frágiles, opacos y difíciles de auditar.
El colapso de la ingeniería de prompts tradicional
La fascinación inicial con la capacidad de los chatbots para generar poesía o código ocultó durante un tiempo las graves deficiencias estructurales de estos sistemas cuando se intentan escalar a entornos corporativos o críticos. La aproximación estándar actual, denominada Generación Aumentada por Recuperación (RAG), intenta suplir la falta de conocimiento actual del modelo inyectando información externa en el momento de la consulta. Si bien funcional, este método ha demostrado ser desordenado. Cada vez que un agente de IA necesita "recordar" algo o utilizar una herramienta, los ingenieros deben construir tuberías de datos ad hoc, transformando información de un formato a otro, a menudo perdiendo la trazabilidad de qué datos exactos produjeron qué respuesta.
El documento presentado por Xu y sus colegas identifica esta fragmentación como el principal enemigo de la fiabilidad. En la actualidad, el contexto es efímero. Un prompt se envía, el modelo responde y la interacción se disuelve en el éter digital o se almacena en registros no estructurados que son imposibles de gobernar. No existe una "memoria persistente" estandarizada que permita a un auditor externo, o al propio sistema, entender por qué se tomó una decisión. Es aquí donde la propuesta del Agentic File System (AFS) o Sistema de Archivos Agéntico, brilla por su elegancia conceptual.
La idea central recupera el mantra que Ken Thompson y Dennis Ritchie grabaron a fuego en el diseño del sistema operativo Unix hace medio siglo: "todo es un archivo". En aquel entonces, esta abstracción permitió que dispositivos tan dispares como una impresora, un disco duro o una terminal de usuario pudieran ser tratados de la misma manera por el software. Los investigadores proponen aplicar esta misma lógica a los componentes cognitivos de una inteligencia artificial. En su esquema, un mensaje del usuario no es una cadena de texto flotante, sino un archivo virtual. La memoria de una conversación pasada es otro archivo. Una herramienta externa, como una calculadora o un buscador web, se representa también como un archivo en el que el agente puede "escribir" su consulta y "leer" el resultado.
La estandarización del caos cognitivo
Al unificar todos estos elementos heterogéneos bajo una interfaz común, el caos se transforma en orden. El modelo de lenguaje deja de ser un oráculo que recibe ofrendas desordenadas de texto para convertirse en un operador que interactúa con un sistema de archivos estructurado. Cuando el agente necesita contexto, "lee" un directorio; cuando necesita actuar, "escribe" en un archivo ejecutable. Esta metáfora no es meramente poética, sino que tiene implicaciones técnicas profundas. Permite, por primera vez, aplicar décadas de herramientas de gestión de sistemas —permisos de seguridad, control de versiones, registros de acceso— al nebuloso mundo de la IA generativa.
Esta abstracción resuelve uno de los dolores de cabeza más agudos de la industria: la interoperabilidad. Hoy en día, si una empresa desea cambiar el modelo de GPT-4 de OpenAI a Claude 3 de Anthropic, o a un modelo de código abierto como Llama, a menudo debe reescribir gran parte de su infraestructura de gestión de contexto. Los formatos de entrada varían, las ventanas de atención son distintas y las formas de invocar herramientas son incompatibles. Bajo la arquitectura propuesta por el equipo de CSIRO y ArcBlock, el sistema de archivos actúa como un intermediario universal. El contexto se estructura en carpetas y archivos estandarizados, y el modelo, cualquiera que este sea, simplemente interactúa con esa estructura. Se desacopla la inteligencia (el procesador) de la memoria y las herramientas (el sistema de archivos), permitiendo intercambiar piezas sin derrumbar el edificio.
El paper detalla una implementación técnica rigurosa donde el sistema de archivos no es un simple almacén pasivo, sino una entidad activa, "agéntica". A diferencia de un disco duro tradicional que solo guarda bytes, este sistema de archivos entiende la naturaleza semántica de su contenido. Cuando un agente solicita leer un archivo que contiene miles de documentos, el sistema de archivos no le vuelca terabytes de texto crudo; en su lugar, puede realizar una búsqueda semántica inteligente y entregar solo los fragmentos relevantes, actuando como un bibliotecario eficiente que resume el contenido antes de entregarlo.
Gobernanza y seguridad: el control del "humano en el bucle"
Uno de los aspectos más inquietantes de los agentes autónomos es su naturaleza de caja negra. Cuando se les da acceso a herramientas del mundo real —como enviar correos electrónicos, realizar transacciones bancarias o modificar código— el riesgo de errores catastróficos aumenta exponencialmente. Los mecanismos de seguridad actuales suelen ser "barandillas" superpuestas, instrucciones en el prompt que ruegan al modelo: "por favor, no hagas nada ilegal". Esta seguridad basada en la semántica es frágil; un modelo confundido o manipulado puede ignorar esas instrucciones verbales.
La propuesta de Xu y Mao introduce una seguridad estructural basada en permisos, idéntica a la que protege nuestros ordenadores personales y servidores. En un sistema operativo, un usuario no puede borrar los archivos del sistema porque carece de permisos de escritura. En el Agentic File System, se pueden establecer reglas estrictas: el agente puede "leer" la base de datos de clientes, pero no tiene permiso de "escritura" ni de "ejecución" sobre la pasarela de pagos, a menos que un humano autorice esa operación específica.
Esto formaliza el concepto de "Human-in-the-loop" (humano en el bucle). En lugar de confiar ciegamente en la IA, el sistema puede configurarse para que ciertas acciones críticas queden bloqueadas en un estado de espera hasta que un supervisor humano otorgue el permiso, tal como un administrador de sistemas autoriza una actualización crítica. La seguridad deja de ser una sugerencia lingüística para convertirse en una barrera arquitectónica dura. Además, al ser todo un archivo, cada interacción queda registrada. Se puede auditar exactamente qué "archivos" leyó el agente antes de tomar una decisión, proporcionando una trazabilidad forense indispensable para sectores regulados como la medicina o las finanzas.
Del "Prompt Engineering" a la "Ingeniería de Contexto"
El artículo marca un hito terminológico y conceptual al declarar la obsolescencia del "Prompt Engineering" como disciplina aislada. Los autores argumentan que optimizar las palabras exactas para persuadir a un modelo es una táctica de bajo nivel, insuficiente para construir sistemas complejos. Proponen elevar la mirada hacia la "Ingeniería de Contexto". Esta nueva disciplina no se preocupa tanto por el fraseo de una pregunta, sino por cómo se adquiere, estructura, actualiza y elimina la información que rodea a esa pregunta.
La ingeniería de contexto requiere pensar en el ciclo de vida de la información. ¿Cuándo debe una memoria ser descartada? ¿Cómo se fusionan conocimientos contradictorios provenientes de dos fuentes distintas? ¿Cómo se evita que el contexto crezca tanto que sature la ventana de atención del modelo o incremente los costes y la latencia de forma insostenible? El Agentic File System ofrece las primitivas necesarias para responder estas preguntas. Permite, por ejemplo, "montar" (el término técnico usado en sistemas operativos) una base de conocimientos temporalmente para una tarea específica y "desmontarla" después, asegurando que el agente no arrastre información irrelevante o confidencial a la siguiente tarea.
La analogía con los sistemas distribuidos es inevitable. Del mismo modo que la nube permitió abstraer la complejidad del hardware físico, esta propuesta busca abstraer la complejidad del conocimiento. Los desarrolladores ya no tendrían que preocuparse por cómo el modelo accede a los datos, sino simplemente definir qué datos deben estar disponibles en el "directorio" de trabajo del agente. Es un paso hacia la madurez industrial de la IA, alejándose de la artesanía precaria de los scripts de Python y acercándose a la solidez de la ingeniería de software tradicional.
La anatomía técnica de la abstracción
Profundizando en la arquitectura descrita en el estudio, encontramos una distinción clara entre el plano de control y el plano de datos. El sistema se compone de una capa de interfaz que traduce las intenciones del modelo (como "quiero buscar información sobre X") en operaciones de sistema de archivos estándar (como open(), read(), write()). Debajo de esta interfaz yace una capa de implementación que conecta con el mundo real: bases de datos vectoriales, APIs de servicios como Slack o GitHub, y sistemas de memoria a largo plazo.
Lo revolucionario es que, para el agente, todas estas fuentes dispares parecen lo mismo: archivos y carpetas. Un canal de Slack podría aparecer como un directorio donde cada mensaje es un archivo; enviar un mensaje sería tan simple como escribir texto en un nuevo archivo dentro de esa carpeta. Esta uniformidad reduce drásticamente la carga cognitiva necesaria para diseñar agentes. El modelo no necesita aprender mil APIs distintas; solo necesita saber leer y escribir archivos, una habilidad que los LLMs ya poseen en gran medida debido a su entrenamiento con código informático.
El equipo de investigación, liderado por Xu desde Australia y con la colaboración de los expertos de ArcBlock en Estados Unidos, no se limitó a la teoría. Implementaron un prototipo funcional para demostrar la viabilidad del concepto. En sus pruebas, observaron que esta estructura facilitaba enormemente la colaboración entre múltiples agentes. Varios modelos especializados podían compartir un mismo "directorio" de contexto, leyendo las notas dejadas por otros y añadiendo sus propias conclusiones, coordinándose de manera asíncrona sin necesidad de complejos protocolos de comunicación directa, tal como varios usuarios pueden colaborar en un documento compartido en la nube.
El desafío de la adopción y el futuro del estándar
Ninguna propuesta tecnológica, por brillante que sea, triunfa en el vacío. El éxito de este Agentic File System dependerá de su adopción por parte de la comunidad de desarrolladores y de las grandes plataformas de IA. Actualmente, empresas como OpenAI o Google están construyendo sus propios ecosistemas cerrados ("walled gardens") donde la gestión del contexto ocurre de manera opaca dentro de sus servidores. La propuesta de un estándar abierto y agnóstico respecto al modelo es, en cierto modo, un acto de resistencia a favor de la descentralización y el control del usuario.
Si esta abstracción se convierte en un estándar, podríamos ver el surgimiento de "sistemas operativos para agentes" verdaderamente portátiles. Una empresa podría migrar toda su flota de agentes inteligentes de una nube a otra simplemente copiando su sistema de archivos de contexto, sin perder las "memorias" ni las configuraciones de seguridad que han acumulado durante años. Esto representa una soberanía de datos que hoy es imposible, dado que el "entrenamiento" o ajuste fino de un modelo suele quedar atrapado en la infraestructura del proveedor.
Además, el enfoque tiene implicaciones filosóficas sobre cómo entendemos la inteligencia artificial. Al separar claramente el razonamiento (el modelo) de la memoria y percepción (el sistema de archivos), nos acercamos a una arquitectura modular de la mente. Esto resuena con teorías cognitivas humanas donde la memoria de trabajo, la memoria a largo plazo y las habilidades motoras operan como sistemas distintos orquestados por la conciencia. El Agentic File System provee el andamiaje para construir estas mentes modulares de forma segura.
Reflexiones sobre la complejidad y la simplicidad
Es fascinante notar cómo la solución a la complejidad extrema de las redes neuronales profundas parece ser la simplicidad extrema de los árboles de directorios. Hay una lección de humildad en reconocer que las estructuras jerárquicas que diseñamos hace décadas para organizar bytes siguen siendo la mejor herramienta que tenemos para organizar significados. La "ingeniería de contexto" deja de ser un arte oscuro de susurrarle a la máquina para convertirse en una ingeniería civil de datos, con planos, estructuras de carga y normas de seguridad.
El trabajo de Xu, Gu, Mao, Li, Bai y Zhu llega en un momento crítico. La industria empieza a sentir la fatiga de las demos impresionantes que fallan en producción. La necesidad de fiabilidad, consistencia y seguridad es el clamor unánime de las corporaciones que intentan integrar IA. Al ofrecer un camino para tratar a los agentes no como cajas mágicas impredecibles, sino como procesos informáticos gobernables dentro de un sistema de archivos, este paper podría estar señalando el fin de la infancia desordenada de la IA generativa y el comienzo de su edad adulta responsable.
La nueva frontera: Agentes multicelulares
Un aspecto derivado y fascinante de esta investigación es cómo habilita la creación de "organismos" de IA más complejos. Hasta ahora, la mayoría de los agentes funcionan como organismos unicelulares: una sola instancia del modelo intentando hacerlo todo. Con un sistema de archivos compartido y gobernado, podemos imaginar ecosistemas multicelulares donde agentes especializados (un analista, un redactor, un crítico, un gestor de seguridad) cohabitan en el mismo espacio de información.
El sistema de archivos actúa como el medio intercelular, el espacio compartido donde se depositan las señales químicas (archivos de texto) que coordinan el trabajo del conjunto. La robustez de los permisos de archivo asegura que el agente "creativo" no pueda sobrescribir accidentalmente los datos críticos del agente "financiero". Esta orquestación, que hoy requiere frameworks complejos y propensos a errores, se vuelve nativa gracias a la abstracción del sistema de archivos.
El concepto también abre la puerta a una mejor depuración (debugging). Cualquiera que haya intentado entender por qué un chatbot dio una respuesta extraña sabe lo frustrante que es el proceso. En el paradigma propuesto, el desarrollador simplemente puede "abrir" la carpeta de contexto del momento exacto del error e inspeccionar los archivos que el agente tenía "montados". ¿Había un archivo con información desactualizada? ¿Faltaba el archivo de instrucciones de seguridad? El diagnóstico se vuelve empírico y forense, en lugar de especulativo.
El imperativo de una inteligencia artificial constitucional
Más allá de la técnica, subyace una dimensión ética y legal. A medida que delegamos decisiones en algoritmos, la capacidad de limitar su radio de acción es vital. La "Constitución" de una IA ya no tendría que ser solo un prompt inicial vago sobre "ser útil e inofensivo", sino un conjunto de permisos de lectura y escritura rigurosamente codificados en el sistema de archivos que habita. Si un agente médico no debe recetar medicamentos, no es suficiente con decírselo; se le debe denegar el permiso de escritura en el directorio de recetas/.
Esta transición de la seguridad probabilística (basada en que el modelo entienda y obedezca) a la seguridad determinista (basada en que el sistema operativo permita o deniegue) es quizás la contribución más valiosa para la integración social de la tecnología. Nos permite confiar en la herramienta no porque creamos que es "buena" o "alineada", sino porque sus capacidades de acción están restringidas por un diseño inviolable ajeno a su propia "voluntad" o alucinaciones.
El retorno al orden
En conclusión, el artículo Everything is Context no inventa una nueva red neuronal ni un algoritmo de aprendizaje revolucionario. Su innovación es, paradójicamente, conservadora: propone imponer el orden de la vieja escuela informática sobre la exuberancia de la nueva IA. Al equiparar el contexto con un sistema de archivos, Xu y sus colaboradores nos entregan un mapa para navegar la tormenta de datos que se avecina.
Estamos ante una propuesta que, de materializarse en estándares industriales, transformaría la IA de ser una curiosidad brillante y caótica a una infraestructura cívica fiable. La visión de un sistema de archivos agéntico nos recuerda que, en la informática como en la vida, la verdadera libertad y potencia no nacen del caos absoluto, sino de la estructura adecuada que permite a la creatividad florecer sin autodestruirse. La "Ingeniería de Contexto" se perfila así no solo como una técnica necesaria, sino como el lenguaje arquitectónico con el que escribiremos el próximo capítulo de nuestra coexistencia con las máquinas inteligentes.
- Xu, X., Gu, X., Mao, R., Li, Y., Bai, Q., & Zhu, L. (2025). Everything is Context: Agentic File System Abstraction for Context Engineering. arXiv preprint arXiv:2512.05470.
- Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., ... & Horvitz, E. (2019). Guidelines for human-ai interaction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems.
- Wang, X., Salmani, M., Omidi, P., Ren, X., Rezagholizadeh, M., & Eshaghi, A. (2024). Beyond the limits: A survey of techniques to extend the context length in large language models. arXiv preprint arXiv:2402.02244.
- de Lamo Castrillo, V., Gidey, H. K., Lenz, A., & Knoll, A. (2025). Fundamentals of building autonomous llm agents. arXiv preprint.



