En sus tesis sobre Feuerbach, Karl Marx escribió una frase que ha trascendido la filosofía para adentrarse en la esencia de lo humano: "la esencia humana no es algo abstracto inherente a cada individuo. Es, en su realidad, el conjunto de las relaciones sociales". Un individuo, sugería, no es una entidad aislada, sino la suma de sus interacciones, de su entorno, de sus propósitos; en una palabra, de sus contextos. Durante casi dos siglos, esta idea ha sido un pilar de las humanidades. Hoy, inesperadamente, se ha convertido en el desafío central de la inteligencia artificial.
A medida que construimos máquinas cada vez más sofisticadas, diseñadas no solo para calcular, sino para interactuar, colaborar y asistir, nos enfrentamos a una pregunta fundamental: ¿cómo puede una máquina, un sistema lógico, llegar a comprender ese "conjunto de relaciones sociales"? ¿Cómo puede entender nuestra situación, anticipar nuestro propósito, y actuar de forma coherente dentro del complejísimo tejido de la experiencia humana?
La respuesta, o al menos la búsqueda de una, está cristalizando en una disciplina que, aunque pueda sonar novedosa, tiene raíces profundas. Se le ha dado el nombre de "Ingeniería de Contexto". Es crucial entender que este término no es un sinónimo elegante para la "ingeniería de prompts" o el arte de formular preguntas a un chatbot. Lo que se está definiendo es algo mucho más profundo: un campo de estudio dedicado a diseñar sistemas que puedan percibir, representar, razonar y adaptarse activamente a la situación y, de forma crítica, al propósito de un usuario.
La conversación moderna sobre inteligencia artificial tiende a centrarse en los grandes modelos de lenguaje (LLM) como si hubieran surgido de la nada, armados con una capacidad casi mágica para conversar. Sin embargo, un reciente y esclarecedor análisis de un equipo de investigadores de la Universidad Jiao Tong de Shanghái (SJTU) y el Shanghai AI Laboratory (SII GAIR) nos obliga a dar un paso atrás. En su trabajo, titulado "Ingeniería de Contexto 2.0: El Contexto de la Ingeniería de Contexto", los autores, entre ellos Qishuo Hua y Pengfei Liu, proponen una panorámica que es a la vez una lección de historia y una hoja de ruta.
Su argumento central es que la obsesión actual por los "agentes" autónomos nos ha hecho olvidar que esta búsqueda del contexto no es nueva. Es una montaña que la informática lleva escalando más de treinta años, y acabamos de llegar a un campamento base avanzado. El estudio sitúa nuestro momento actual no como el principio de la escalada, sino como una nueva fase, la "Ingaeniería de Contexto 2.0", que se distingue radicalmente de todo lo anterior. Para entender qué significa este "2.0", es indispensable recorrer el camino que nos trajo hasta aquí, un viaje que redefine nuestra propia relación con la tecnología.
La Evolución del Contexto
El viaje desde herramientas estáticas hasta agentes colaborativos se ha desarrollado en cuatro fases distintas.
Contexto 0.0: Estático
(~1990s) Interacción Humano-ComputadoraLa máquina es una herramienta pasiva. El usuario soporta el 100% de la carga contextual, traduciendo su objetivo complejo al lenguaje rígido de la máquina.
Contexto 1.0: Adquirido
(~2000s) Conciencia del ContextoLa máquina obtiene "sentidos" (GPS, reloj). Puede adquirir contexto dinámico sobre su entorno físico. Responde "Dónde" y "Cuándo".
Contexto 1.5: Inferido
(~2010s) PersonalizaciónLa máquina monitorea el comportamiento (clics, búsquedas). Comienza a inferir contexto para personalizar recomendaciones. Adivina "Qué".
Contexto 2.0: Razonado
(~2020s) Interacción Humano-AgenteLa máquina se convierte en agente. Debe razonar sobre el contexto de múltiples fuentes para entender el propósito del usuario. Se enfoca en "Por qué".
El fantasma en la línea de comandos
Hubo un tiempo, no tan lejano, en que la interacción con una computadora era un ejercicio de sumisión intelectual. La máquina no hacía concesiones. Para que el dispositivo ejecutara una tarea, el ser humano debía aprender su idioma, una sintaxis arcana de comandos y parámetros. Este fue el mundo de las interfaces de línea de comandos, el amanecer de la interacción humano-computadora (HCI).
Los investigadores del artículo sitúan esta era como el "Contexto 0.0". La etiqueta es reveladora: no había, en efecto, ningún contexto. El ordenador era un sistema estático, ciego y sordo a la realidad externa. No tenía idea de quién era su usuario, dónde estaba, qué hora era, o por qué se le pedía que ejecutara un programa. La totalidad de la carga cognitiva recaía sobre la persona. El usuario no solo debía saber qué quería hacer, sino también la secuencia exacta de instrucciones inmutables para lograrlo. El contexto (la situación del usuario, su frustración, su objetivo final) existía únicamente en el lado humano de la pantalla. La máquina era una herramienta poderosa, sí, pero fundamentalmente pasiva y ajena al mundo.
Este paradigma definió la informática durante décadas. El software se diseñaba en torno a la lógica de la máquina, no a la realidad del usuario. La idea de que el sistema debiera adaptarse a la persona era, en gran medida, impensable. Era la persona quien debía adaptarse al sistema.
El mundo entra en la máquina
El primer gran cambio de paradigma no provino de una computación más rápida, sino de una computación que empezó a sentir. A finales de los años noventa y principios de los dos mil, una nueva corriente de pensamiento, la "computación ubicua" o "pervasiva", comenzó a tomar forma. La idea, visionaria en su momento, era que la computación se alejaría del escritorio para integrarse de forma invisible en nuestro entorno. Y para que esa integración fuera posible, los dispositivos necesitaban sentidos.
Así nació la "Ingeniería de Contexto 1.0", la era de la "conciencia de contexto" (context-awareness). Los dispositivos, ahora móviles, empezaron a equiparse con sensores. El GPS les dio la ubicación. Los acelerómetros les dieron el movimiento. Los relojes internos les dieron la hora. Las conexiones de red les informaron sobre otros dispositivos cercanos.
De repente, la máquina ya no era ciega y sorda. Podía adquirir datos explícitos sobre el entorno físico. Este fue un salto cuántico. Las aplicaciones comenzaron a usar esta nueva información. El teléfono que se silenciaba automáticamente al detectar que estaba en un cine. El mapa que se orientaba solo y mostraba restaurantes cercanos. El sistema que ajustaba la iluminación de una sala en función de la hora del día.
El contexto, en esta fase, se convirtió en algo adquirido y dinámico. El sistema podía reaccionar a los cambios en el entorno. Sin embargo, como señalan los académicos, esta comprensión era superficial. El sistema sabía dónde estabas, pero no por qué. Sabía la hora, pero no la urgencia de tu tarea. Era un sistema que reaccionaba a los datos, pero no razonaba sobre ellos. La máquina podía percibir una situación, pero no tenía la menor idea de tu propósito.
La personalización del entorno
La siguiente evolución fue más sutil, pero de consecuencias mucho más profundas. Pasamos de un contexto físico a un contexto de comportamiento. Esta es la fase que los investigadores denominan "Contexto 1.5", y es el mundo que la mayoría de nosotros habita hoy: la era de la Web 2.0, las redes sociales y los sistemas de recomendación.
Aquí, el contexto ya no se limita a los sensores físicos. El contexto se infiere a partir de nuestras acciones. Cada clic, cada "me gusta", cada búsqueda, cada segundo que pasamos mirando una imagen, se convierte en una señal. Estos sistemas comenzaron a construir modelos predictivos de nuestros intereses y preferencias. El contexto se volvió interactivo y personalizado.
Las plataformas de comercio electrónico no solo sabían lo que habías comprado, sino que intentaban adivinar lo que querrías comprar a continuación. Los servicios de streaming no solo sabían qué película habías visto, sino qué tipo de películas te gustarían en el futuro. La máquina empezó a desarrollar una especie de intuición algorítmica.
El poder de este enfoque fue inmenso. Creó industrias multimillonarias y reconfiguró nuestra forma de consumir información y cultura. Pero este contexto también era inherentemente limitado. Estaba, y sigue estando, fragmentado y encerrado en "jardines vallados". El modelo que Netflix tiene de ti es distinto del que tiene Amazon, y ambos son distintos del que tiene tu motor de búsqueda. Además, este contexto inferido, aunque predictivo, sigue careciendo de una comprensión real del propósito. Puede adivinar qué quieres ver, pero no puede ayudarte a planificar un proyecto complejo, gestionar una crisis laboral o negociar un conflicto interpersonal. Sigue siendo una forma de reacción, aunque muy sofisticada, a un comportamiento pasado.
La era del agente: llega el Contexto 2.0
Y así llegamos al presente. La irrupción de los grandes modelos de lenguaje ha cambiado las reglas del juego. No porque sean simplemente mejores conversadores, sino porque habilitan una nueva clase de sistema: el agente autónomo. Esta es la "Ingeniería de Contexto 2.0".
El salto conceptual es abismal. En todas las fases anteriores (0.0, 1.0 y 1.5), la máquina era fundamentalmente reactiva. Reaccionaba a un comando, a un sensor o a un clic. En la era 2.0, esperamos que la máquina sea proactiva. No queremos solo una herramienta o un recomendador; queremos un colaborador.
Un agente, en este nuevo paradigma, es una entidad que debe actuar en el mundo en nuestro nombre para lograr un objetivo. Pensemos en un asistente de IA al que le pedimos: "Organiza un viaje de negocios a Tokio para la próxima semana, busca el vuelo más eficiente, reserva un hotel cerca de la oficina de nuestro cliente y coordina mi agenda con el equipo japonés".
Para cumplir esta tarea, el sistema no puede ser pasivo. No puede simplemente reaccionar. Debe actuar. Debe buscar activamente el contexto que le falta. Debe hacer preguntas para aclarar ("¿Prefiere volar por la mañana o por la tarde?"), consultar fuentes de datos externas (bases de datos de vuelos, disponibilidad de hoteles), acceder a información privada (tu calendario, tus preferencias de aerolínea guardadas en un perfil), e interactuar con otros sistemas (el calendario del equipo japonés).
Aquí, el contexto se define por la interacción y el razonamiento. El agente debe sintetizar información de múltiples fuentes. Debe inferir el propósito (el objetivo no es solo "reservar un vuelo", el objetivo es "tener una reunión de negocios exitosa y eficiente"). Y debe planificar una secuencia de acciones, adaptándose en tiempo real si surge un problema (el hotel preferido está lleno).
Esto marca el paso de la Interacción Humano-Computadora (HCI) a la Interacción Humano-Agente (HAI). La máquina ya no es un interlocutor pasivo; es un actor en nuestro conjunto de relaciones sociales.
El Cambio de Paradigma: De Reactivo a Proactivo
Este gráfico visualiza el cambio fundamental en el enfoque del desarrollo de la IA.
Los desafíos de la nueva arquitectura
Esta nueva era, como detalla el análisis, presenta desafíos técnicos de una magnitud completamente diferente. Ya no es un problema de adquisición de datos, sino de representación y razonamiento.
El primer gran desafío es la memoria. Un agente no puede tratar cada interacción como si fuera la primera. Necesita un sistema de memoria sofisticado. No solo una "memoria de trabajo" a corto plazo (el contexto de la conversación actual), sino una memoria a largo plazo (tus preferencias, hechos sobre tu vida, interacciones pasadas). Debe saber qué recordar, cómo almacenarlo de forma eficiente y, lo más difícil, cómo recuperarlo en el momento oportuno.
El segundo desafío es la fusión de fuentes. El contexto 2.0 es inherentemente multimodal y heterogéneo. Proviene de una instrucción verbal, de un correo electrónico, de una base de datos, de un sensor. ¿Qué ocurre cuando estas fuentes entran en conflicto? Tu calendario dice que estás en una reunión, pero tu teléfono indica que te mueves a 60 km/h por la autopista. Un agente 1.0 se bloquearía. Un agente 2.0 debe ser capaz de razonar sobre esta discrepancia, quizás inferir que vas tarde a la reunión y preguntar si debe notificar a los asistentes.
El tercer y más profundo desafío es la inferencia de la intención. Este es el núcleo del problema del "propósito". Los humanos somos expertos en esto. Si un colega te dice "hace frío aquí", no te limitas a procesar el dato "la temperatura es baja". Infieres un propósito: "mi colega quiere que cierre la ventana". La Ingeniería de Contexto 2.0 trata de construir sistemas que puedan realizar este tipo de saltos inferenciales. Deben construir un modelo mental del usuario, entender sus objetivos no declarados, sus motivaciones subyacentes.
Los Desafíos Centrales del Contexto 2.0
Este gráfico ilustra la dificultad conceptual percibida de estos nuevos desafíos.
Para lograr esto, los investigadores están explorando arquitecturas complejas. Ya no basta con un gran modelo de lenguaje. Se necesitan sistemas modulares donde el LLM actúa como un "cerebro" o un motor de razonamiento, conectado a módulos especializados:
Una Nueva Arquitectura Modular
Los sistemas de Contexto 2.0 son arquitecturas modulares que conectan componentes especializados a un núcleo de razonamiento.
(Sensores, Datos, Usuario)
(Corto y Largo Plazo)
Núcleo de Razonamiento LLM
(Planifica, Fusiona e Infiere Intención)
(Descompone objetivos)
(Ejecuta tareas, APIs)
Más allá de la herramienta
El trabajo de Qishuo Hua y su equipo es valioso no solo por acuñar un término, sino por proporcionarnos el "contexto" para entender nuestro propio momento tecnológico. Al trazar esta genealogía desde el Contexto 0.0 hasta el 2.0, nos ofrecen una perspectiva crucial: la evolución de la inteligencia artificial no es solo una carrera por más datos o procesadores más rápidos. Es una búsqueda constante y difícil para reducir la distancia cognitiva entre el ser humano y la máquina.
Pasamos de un mundo donde nosotros teníamos que entender a la máquina (0.0), a un mundo donde la máquina reaccionaba a nuestro entorno (1.0). Luego, a uno donde infería nuestros patrones (1.5). Ahora, estamos entrando en un mundo donde la máquina debe razonar sobre nuestros propósitos (2.0).
Las implicaciones de esto son profundas. Un agente que comprende verdaderamente tu contexto es un colaborador sin precedentes. Es un asistente que realmente asiste, un copiloto que entiende la ruta. Pero también plantea interrogantes sobre la autonomía, la privacidad y la naturaleza de la cognición. Construir una máquina que entienda nuestro "conjunto de relaciones sociales" es un objetivo de una ambición sobrecogedora.
Conclusiones Clave
HCI → HAI
De Interacción Humano-Computadora a Interacción Humano-Agente.
REACTIVO → PROACTIVO
La IA anticipará necesidades, no solo responderá a comandos.
SITUACIÓN → PROPÓSITO
El objetivo final: Entender por qué estás haciendo algo.
La Ingeniería de Contexto 2.0 es, en esencia, el campo de batalla donde se decidirá si estas nuevas inteligencias siguen siendo meras herramientas avanzadas o si pueden convertirse en verdaderos colaboradores. El desafío ya no es construir una máquina que pueda procesar el mundo, sino una que pueda, en alguna medida significativa, entender a una persona. Y para lograrlo, debe empezar por entender la compleja red de situaciones y propósitos que nos hacen ser quienes somos.
Referencias
Hua, Q., Ye, L., Fu, D., Wu, Y., Lin, J., Wang, J., Xiao, Y., Cai, X., & Liu, P. (2025). Context Engineering 2.0: The Context of Context Engineering. arXiv:2510.26493 [cs.AI]. Obtenido de https://arxiv.org/abs/2510.26493



