NEWSLETTER

V-Thinker y la caja de herramientas visuales

Generated Image November 08, 2025 - 5_21AM

V-Thinker y la caja de herramientas visuales

El actual panteón de inteligencias artificiales nos ha acostumbrado a una suerte de milagro cotidiano. Sistemas que, con una simple instrucción de texto, pueden generar imágenes fotorrealistas, componer sinfonías o describir con una precisión asombrosa el contenido de una fotografía. Hemos aceptado como un hecho la capacidad de la máquina para "ver". Sin embargo, esta visión ha sido, hasta ahora, fundamentalmente pasiva. Es la mirada de un espectador que describe una escena, no la de un participante que interactúa con ella. La máquina podía decirnos "hay un gato sobre la alfombra", pero se perdía si le pedíamos que siguiera una serie de instrucciones complejas basadas en esa imagen, que dedujera una intención oculta o que resolviera un puzle visual que requiriera múltiples pasos y un enfoque minucioso. La IA veía, pero no observaba. Percibía, pero no razonaba activamente con lo que tenía delante.

Esta es la frontera que un equipo de investigadores de la Universidad de Correos y Telecomunicaciones de Beijing, en colaboración con la división WeChat Vision de Tencent, se ha propuesto demoler. Su trabajo, titulado "V-Thinker: Interactive Thinking with Images" (V-Thinker: Pensamiento Interactivo con Imágenes), no es una simple mejora incremental; es un cambio de paradigma. Propone una arquitectura de inteligencia artificial que no se limita a recibir asistencia de las imágenes, sino que se sumerge en un auténtico proceso de "pensamiento interactivo" con ellas. Este sistema, bautizado como V-Thinker, aprende a comportarse no como un descriptor pasivo, sino como un agente cognitivo activo. Es la diferencia entre un turista que mira un mapa y un detective que saca una lupa, marca zonas de interés, descarta información irrelevante y, paso a paso, construye una hipótesis.

La propuesta es tan ambiciosa como elegante. Para que una IA piense de verdad con el contenido visual, no basta con una mirada global. Debe poder "jugar" con la imagen, diseccionarla y enfocar su atención de forma deliberada. Para ello, V-Thinker está dotado de un conjunto de "herramientas visuales" que le permiten manipular la información que recibe. Puede decidir, por ejemplo, "hacer zoom" en una región específica (recorte visual o cropping), ignorar el fondo para centrarse solo en un objeto (enmascaramiento visual o masking), o señalar un componente concreto (localización visual o grounding). La clave es que el modelo no aplica estas herramientas al azar, sino que aprende a usarlas en una secuencia lógica y deliberada, en un proceso de razonamiento que puede extendse durante múltiples pasos para resolver un problema complejo. Es un sistema diseñado para el "razonamiento de largo horizonte".

El desafío, por supuesto, es monumental. ¿Cómo se enseña a una máquina esta forma de intuición visual? Los ejemplos de este tipo de pensamiento no abundan en internet. No podemos simplemente descargar millones de vídeos de personas "pensando con imágenes". Aquí es donde reside una de las joyas del proyecto: la creación de un motor de datos autónomo. Los investigadores han construido lo que llaman un "Volante de Evolución de Datos" (Data Evolution Flywheel). Se trata de un sistema que genera automáticamente sus propios problemas visuales, intenta resolverlos y, en un ciclo virtuoso de retroalimentación, utiliza sus éxitos y fracasos para crear problemas nuevos, más difíciles, de mayor calidad y más diversos. Es una fábrica de datos que se perfecciona a sí misma, creando un plan de estudios a medida para la IA.

Finalmente, para que el modelo aprenda a navegar este complejo espacio de problemas, el equipo emplea una estrategia de "Entrenamiento Visual Progresivo" (Visual Progressive Training). Utilizan una técnica avanzada de aprendizaje profundo conocida como aprendizaje por refuerzo, el mismo tipo de entrenamiento basado en recompensas que ha permitido a la IA dominar juegos como el ajedrez o el Go. El modelo V-Thinker es un "agente" que recibe recompensas cuando sus acciones visuales (recortar, enmascarar) lo acercan a la solución correcta. El entrenamiento es "progresivo" porque, en lugar de lanzarlo al abismo de la complejidad, la máquina aprende primero tareas simples y, gradualmente, aborda secuencias de razonamiento más largas y abstractas. El resultado es un asistente multimodal de propósito general, capaz de aplicar su cognición visual a una vasta gama de tareas, superando las limitaciones de los flujos de trabajo rígidos y específicos que habían dominado el campo hasta ahora.

El espejismo de la visión artificial

Durante la última década, la convergencia de dos campos, la visión por computador y el procesamiento del lenguaje natural, dio a luz a los modelos multimodales gigantes (LMMs). Estas arquitecturas, que sustentan productos como GPT-4o de OpenAI o Gemini de Google, han demostrado una capacidad sorprendente para procesar y conectar texto e imágenes. Pueden mantener conversaciones fluidas sobre una fotografía, identificar objetos en escenas caóticas y responder preguntas sobre lo que ven. Han superado innumerables pruebas de referencia (benchmarks) y, para el público general, su competencia parece casi mágica.

Sin embargo, en la comunidad científica se era consciente de una profunda limitación. La mayoría de estos sistemas operan bajo un modelo de "mirada única". Reciben una imagen y una pregunta, procesan ambas en un único paso de codificación y generan una respuesta. Su éxito se basa en la ingente cantidad de datos de texto-imagen que han memorizado. Han aprendido correlaciones estadísticas (la palabra "perro" suele aparecer junto a imágenes de perros), pero no necesariamente un entendimiento profundo de la estructura, la causalidad o la lógica espacial de una escena. Su "razonamiento" es a menudo una forma muy sofisticada de recuperación de información, no de cognición activa.

El problema se hace evidente cuando las tareas requieren múltiples pasos de lógica visual. Pensemos en un diagrama de un circuito electrónico donde se pide "seguir el cable rojo desde el componente A, pasar por la resistencia R2, y describir el componente al que se conecta finalmente". Un modelo multimodal estándar fallaría. Su mirada global no está diseñada para "seguir" instrucciones paso a paso. Se satura con el ruido visual. O imaginemos una prueba de "encuentra las cinco diferencias" entre dos imágenes casi idénticas. La IA podría identificar que "hay dos imágenes", pero le costaría realizar la comparación metódica y minuciosa que un niño de siete años ejecuta con naturalidad.

Este es el punto de fractura que el trabajo de V-Thinker viene a reparar. Los autores argumentan que el campo ha estado limitado por "espacios de herramientas visuales estrechos" y "diseños de flujo de trabajo específicos para cada tarea". Si queríamos que una IA jugara al ajedrez visualmente, construíamos un modelo solo para eso. Si queríamos que identificara tumores en una radiografía, creábamos otro. V-Thinker busca ser un "asistente de razonamiento multimodal de propósito general". La meta no es que resuelva una única tarea, sino que aprenda la habilidad metalingüística de cómo abordar cualquier tarea visual compleja. Es la transición de una IA con un destornillador fijo a una IA con una navaja suiza y la inteligencia para saber qué herramienta usar.

Modelos Tradicionales vs. V-Thinker

El siguiente gráfico ilustra las diferencias conceptuales en capacidades de razonamiento que V-Thinker busca resolver. Muestra una puntuación relativa (en una escala conceptual de 0 a 10) de cómo V-Thinker avanza sobre las limitaciones de los modelos multimodales tradicionales de "mirada única".

La mecánica del pensamiento visual

La arquitectura de V-Thinker se fundamenta en una idea central: el pensamiento es un proceso interactivo. Cuando un humano resuelve un puzle, no mira la imagen una sola vez. Se enfoca en una esquina, luego en otra, vuelve al centro, tapa una parte con la mano para ver mejor. Este diálogo entre la percepción y la cognición es lo que el sistema busca emular. El modelo no solo procesa una imagen; mantiene una "conversación" con ella.

Esta conversación es posible gracias a su "espacio de herramientas" (Visual Tool Space). A diferencia de sistemas anteriores que podían tener una o dos funciones fijas, V-Thinker integra un conjunto de herramientas fundamentales para la disección de la información visual. La primera es el "recorte visual". El modelo puede generar coordenadas (un "cuadro delimitador") y decirle al sistema: "Quiero ver solo esta parte". El sistema le devuelve una nueva imagen, recortada, que se convierte en la nueva base de su razonamiento. Esto es vital para tareas que exigen una alta precisión en regiones pequeñas, eliminando el ruido del resto de la escena.

La segunda herramienta es el "enmascaramiento visual". A veces, el objetivo no es ampliar una zona, sino aislar un objeto de forma irregular de su entorno. El modelo puede generar una "máscara" (una silueta precisa) y decir: "Muéstrame solo el píxel de este objeto y nada más". Esto es crucial para entender las relaciones entre componentes que se solapan o para analizar las propiedades de un solo elemento sin la distracción del fondo.

La tercera es la "localización visual", que funciona en sentido inverso. En lugar de manipular la imagen, el modelo usa la herramienta para señalar su centro de atención. Dice: "Mi razonamiento actual se basa en esta región específica", lo que permite al sistema (y a los humanos) rastrear su proceso de pensamiento.

Herramientas Visuales de V-Thinker

El modelo dispone de un conjunto de herramientas fundamentales para la disección de la información visual, permitiéndole un análisis activo:

Herramienta Visual Función Principal Propósito Cognitivo
Recorte Visual (Cropping) Genera coordenadas para "hacer zoom" en una región. Eliminar ruido visual y enfocar la atención en detalles finos.
Enmascaramiento Visual (Masking) Aísla un objeto de forma irregular de su fondo. Analizar propiedades de un elemento sin distracción.
Localización Visual (Grounding) Señala la región específica que sustenta el razonamiento. Rastrear el foco de atención y aumentar la transparencia.

El ciclo de razonamiento es iterativo. El modelo recibe el problema (por ejemplo, una imagen y una pregunta compleja). Primero, formula un plan interno o un pensamiento. Basado en ese pensamiento, decide invocar una herramienta visual en una región. El sistema ejecuta la acción y le presenta al modelo el resultado de esa acción (la imagen recortada o enmascarada). El modelo observa este nuevo estado visual, genera un nuevo pensamiento, y el ciclo se repite. Este bucle de "observar, pensar, actuar" continúa hasta que el agente cognitivo considera que tiene suficiente información para formular la respuesta final. Es un proceso de "largo horizonte" porque la solución no es un evento único, sino la culminación de una cadena de decisiones lógicas.

La forja de un pensador: el motor de datos evolutivo

La propuesta de un modelo que aprende a usar herramientas es poderosa, pero se enfrenta de inmediato a un obstáculo casi insalvable: los datos de entrenamiento. Para que el aprendizaje por refuerzo funcione, el modelo necesita practicar en millones de escenarios. ¿De dónde sacar un conjunto de datos que contenga problemas visuales complejos y, más importante aún, las secuencias correctas de acciones (recortar, enmascarar) para resolverlos? La respuesta es que no existen.

La solución del equipo de Beijing y Tencent es, quizás, la contribución más brillante del artículo. Si los datos no existen, hay que inventarlos. Para ello, crearon el "Volante de Evolución de Datos" (DE-Flywheel), un mecanismo autónomo y autorreplicante para generar un currículo de entrenamiento de dificultad creciente.

Este "volante" opera en un ciclo de tres fases que se retroalimentan constantemente. La primera fase es la "síntesis de datos". El sistema combina imágenes existentes, preguntas y posibles secuencias de acciones (trayectorias de razonamiento) para generar nuevos problemas. Utiliza modelos de IA ya existentes como punto de partida, pero no se detiene ahí.

La segunda fase es la "evolución y verificación". Aquí es donde el sistema se vuelve verdaderamente inteligente. Los datos generados se filtran a través de dos "discriminadores". Un "discriminador de dificultad" evalúa qué tan complejo es el problema. Si es demasiado fácil, el sistema lo descarta o, más inteligentemente, lo "evoluciona" para hacerlo más difícil (por ejemplo, añadiendo más pasos de razonamiento o más elementos distractores en la imagen). Si es demasiado difícil, lo simplifica. Esto asegura que el modelo siempre esté entrenando en su "zona de desarrollo próximo", el punto óptimo entre el aburrimiento y la frustración.

Paralelamente, un "discriminador de calidad" verifica que la trayectoria de razonamiento propuesta (la secuencia de herramientas) sea lógica y conduzca realmente a la respuesta correcta. Se descartan los problemas mal planteados o con soluciones erróneas. Este doble filtro asegura que el conjunto de datos de entrenamiento no solo crezca en tamaño, sino en calidad y en diversidad de dificultad.

La tercera fase es la "retroalimentación", que cierra el bucle. Los modelos entrenados con estos datos mejorados se vuelven más competentes. A su vez, estos modelos más competentes se utilizan en la siguiente ronda de "síntesis de datos" para generar problemas aún más sofisticados y trayectorias de razonamiento más sutiles. Es un ciclo virtuoso: mejores datos crean mejores modelos, y mejores modelos crean mejores datos. Este volante permite al proyecto V-Thinker escalar y mejorar de forma autónoma, superando el cuello de botella de la recolección manual de datos.

El Volante de Evolución de Datos (DE-Flywheel)

El motor de datos de V-Thinker opera en un ciclo virtuoso de tres fases que se retroalimentan, generando un currículo de entrenamiento de dificultad y calidad crecientes. Cada fase alimenta a la siguiente en un bucle continuo de mejora.

El aprendizaje de la intuición: entrenamiento progresivo visual

Una vez que se dispone de esta fuente casi infinita de problemas graduados, comienza el verdadero entrenamiento. Enseñar a un modelo a tomar una secuencia de decisiones complejas es el dominio del aprendizaje por refuerzo (RL, por sus siglas en inglés). En este paradigma, la IA es un "agente" que explora un entorno. Por cada "acción" que toma (en este caso, "recortar la región X" o "enmascarar el objeto Y"), recibe una "recompensa" o un "castigo" del entorno, dependiendo de si esa acción lo acerca o lo aleja de la solución final.

Sin embargo, el aprendizaje por refuerzo es notoriamente inestable, especialmente cuando el número de acciones posibles es casi infinito (cualquier combinación de píxeles puede ser un recorte) y las tareas son de "largo horizonte" (una recompensa puede llegar solo después de diez pasos correctos). Para domar esta complejidad, los investigadores implementaron el "Entrenamiento Visual Progresivo" (VP-Training).

El entrenamiento no se realiza de una sola vez. Se divide en etapas, como en un currículo escolar. Primero, el modelo V-Thinker se entrena en una fase de "pre-entrenamiento". En esta etapa, simplemente aprende a "imitar" las trayectorias de razonamiento de alta calidad generadas por el "volante de datos". Aprende los fundamentos: cómo formular un pensamiento, cómo invocar una herramienta y cuál es la sintaxis de una buena secuencia de acciones. Es el equivalente a que un estudiante de medicina memorice los pasos de un procedimiento en un libro de texto.

Tras esta fase de imitación, el modelo pasa al aprendizaje por refuerzo propiamente dicho. Aquí, ya no se limita a copiar; debe explorar. Se le da un problema y debe encontrar la solución por sí mismo, usando la "intuición" que desarrolló en la fase anterior como punto de partida. Recibe recompensas por la precisión de su respuesta final, pero también por la eficiencia de su proceso. El objetivo es que encuentre la solución correcta usando la menor cantidad de pasos lógicos posibles.

Este enfoque "progresivo", que va de la imitación a la exploración, estabiliza el entrenamiento y permite al modelo construir una comprensión robusta de la causalidad visual. No solo aprende qué herramientas usar, sino por qué y cuándo una es preferible a otra. El resultado es un sistema que no depende de un flujo de trabajo fijo, sino que adapta dinámicamente su estrategia de pensamiento a la naturaleza única de cada problema que enfrenta.

Las implicaciones de un 'thinker'

La llegada de V-Thinker y el paradigma del "pensamiento interactivo con imágenes" marca un punto de inflexión con profundas implicaciones científicas, tecnológicas y, a largo plazo, sociales. Trasciende la simple mejora de una métrica en un benchmark; redefine nuestra expectativa de lo que significa que una máquina "entienda" el mundo visual.

Desde una perspectiva científica, este trabajo ofrece un puente muy necesario entre la percepción de bajo nivel y la cognición de alto nivel. Los modelos actuales son excelentes en la percepción, pero débiles en la cognición. Al forzar al modelo a usar herramientas en una secuencia temporal, los investigadores están imponiendo una estructura causal a su razonamiento. El sistema debe aprender que la "acción A" (recortar) conduce al "estado B" (nueva imagen), lo cual permite la "acción C". Esto se acerca mucho más a cómo funciona la cognición animal y humana, basada en la interacción con el entorno para probar hipótesis.

Tecnológicamente, las aplicaciones son vastas e inmediatas. Pensemos en el diagnóstico médico. Un radiólogo no mira una tomografía una sola vez; la contrasta, ajusta el brillo, hace zoom en áreas sospechosas y compara con imágenes previas. Un asistente de IA como V-Thinker podría emular este proceso, analizando una imagen médica de forma metódica, aislando anomalías y presentando un informe de razonamiento paso a paso, en lugar de una simple respuesta binaria de "benigno" o "maligno".

En el campo de la robótica, un robot doméstico o industrial necesita razonar visualmente para manipular objetos. Si se le pide "pásame la tuerca que está debajo de la llave inglesa", el robot debe ser capaz de identificar la llave, "enmascararla" mentalmente para ignorarla, y luego "recortar" su atención a la región que estaba oculta debajo. El razonamiento viso-céntrico de propósito general es un componente indispensable para la próxima generación de máquinas autónomas.

Socialmente, el mayor impacto podría residir en la transparencia y la colaboración. Uno de los grandes problemas de la IA actual es su naturaleza de "caja negra". A menudo nos da una respuesta sin que podamos entender cómo llegó a ella. Un sistema como V-Thinker es inherentemente más transparente. Su respuesta final viene acompañada de una "trayectoria de razonamiento": la secuencia completa de recortes, máscaras y pensamientos intermedios que lo llevaron a esa conclusión. Esto permite a un usuario humano auditar su lógica, corregir sus errores y, en última instancia, confiar más en su colaborador artificial. Ya no es un oráculo impenetrable, sino un aprendiz que puede "mostrar su trabajo".

El camino hacia una inteligencia artificial verdaderamente general sigue siendo largo, pero el trabajo de estos investigadores elimina uno de los obstáculos más significativos. Han empezado a enseñar a la máquina no solo a mirar el mundo, sino a observarlo; no solo a describirlo, sino a interactuar con él. Han construido una IA que, por primera vez, no se limita a ver imágenes, sino que ha aprendido a pensar con ellas.


Referencias

Qiao, R., Tan, Q., Yang, M., Dong, G., Yang, P., Lang, S., Wan, E., Wang, X., Xu, Y., Yang, L., Sun, C., Li, C., & Zhang, H. (2025). V-Thinker: Interactive Thinking with Images. arXiv preprint arXiv:2511.04460.

Recent Posts

Generated Image November 15, 2025 - 2_58AM

La “granja de portátiles”: el arma secreta de Corea del Norte

  Cinco ciudadanos estadounidenses se declararon culpables de operar ‘granjas de portátiles’ para blan
Read More
815fb62d-1f9f-41f9-8bb7-e8bbde4e5928

De archivador a investigador: la nueva era de NotebookLM

  NotebookLM deja de ser un simple anotador. Sus nuevas funciones de investigación automatizada y generación mult
Read More

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Sign In

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí