NEWSLETTER

Del caos visual al diagnóstico clínico: la metodología que humaniza la inteligencia artificial en medicina

Generated Image October 31, 2025 - 1_46PM

Del caos visual al diagnóstico clínico: la metodología que humaniza la inteligencia artificial en medicina

S-Chain: Cadenas de Pensamiento Visual Estructurado para la Medicina

En el vasto mundo de la inteligencia artificial, existe un desafío particular que mantiene despiertos a los investigadores de todo el planeta: lograr que las máquinas no solo acierten las respuestas, sino que también expliquen cómo y por qué llegaron a esa conclusión. Es especialmente crítico en medicina, donde una predicción acertada sin justificación es prácticamente inútil. Un oncólogo que dice "es cáncer" sin señalar dónde o por qué, un cardiólogo que diagnostica insuficiencia cardíaca sin explicar qué anomalía observó en el corazón. En la práctica clínica real, el diagnóstico no es un salto mágico hacia la verdad. Es un proceso meticuloso, paso a paso, donde cada observación visual se anota, se correlaciona con el conocimiento médico, se coteja con escalas de severidad estándar, y solo entonces se extrae una conclusión.

Hace poco más de una década, investigadores en inteligencia artificial comenzaron a explorar qué sucedería si enseñaban a los modelos a razonar en cadenas. La idea es simple pero revolucionaria: en lugar de intentar resolver un problema complejo de una sola vez, el modelo genera una serie de pasos intermedios que lo llevan hacia la respuesta final. Esta estrategia, conocida como Chain-of-Thought o razonamiento encadenado, demostró ser tan efectiva que se propagó por casi todas las disciplinas de la IA. Sin embargo, en medicina existe un problema adicional. No basta con que el modelo genere pasos intermedios. Esos pasos deben estar fundamentados visualmente. Cuando un algoritmo dice "hay atrofia hipocampal", debe poder señalar exactamente en la imagen dónde está ese cambio. De lo contrario, aunque la respuesta final sea correcta, el razonamiento es una ilusión, un espejismo que oculta lo que realmente el modelo está haciendo detrás de ciertas correlaciones estadísticas imposibles de rastrear.

Este dilema está en el corazón de una investigación recién completada que reúne a colaboradores de universidades de Canadá, Alemania, Singapur, Estados Unidos, Corea del Sur, Vietnam, Japón y Australia. El proyecto se llama S-Chain, y representa el primer conjunto de datos a gran escala de imágenes médicas anotadas por expertos donde cada paso del razonamiento está vinculado explícitamente a regiones específicas de la imagen. En palabras simples: es la primera vez que la comunidad científica construye una base de datos que enseña a los algoritmos de visión y lenguaje a razonar de manera transparente, exactamente como lo hace un médico examinando una resonancia magnética.

La crisis de confianza en las máquinas que ven y piensan

Durante años, los investigadores han entrenado redes neuronales para responder preguntas sobre imágenes médicas. Los resultados parecían prometedores. Algunos modelos alcanzaban precisiones sorprendentemente altas. Pero cuando los investigadores comenzaron a inspeccionarlos más de cerca, descubrieron algo inquietante. Los modelos generaban respuestas correctas, pero no siempre por las razones correctas. A veces, las explicaciones que producían no guardaban relación alguna con lo que realmente estaban mirando en la imagen.

Esto se conoce como alucinación. Dentro del contexto de los sistemas de visión y lenguaje, significa que el algoritmo genera texto que suena plausible pero no está anclado en evidencia visual real. Imagínese solicitar a un sistema de IA que analice una radiografía de tórax y describa lo que ve. El modelo podría responder algo como "neumonía en el lóbulo inferior izquierdo con signos de consolidación". La descripción suena convincente. Pero cuando un especialista revisa la imagen, descubre que el algoritmo inventó esa consolidación. Nunca estuvo ahí. Peor aún, la alucinación pasó desapercibida porque la respuesta final resultó ser correcta de todos modos, una coincidencia que oculta un defecto fundamental.

Los investigadores que desarrollaron S-Chain observaron un patrón perturbador cuando examinaron conjuntos de datos previos que intentaban capturar razonamiento en cadena para medicina. Algunos de estos recursos existentes usaban un atajo para escalar la anotación. En lugar de contar con expertos humanos para escribir cada paso del razonamiento, utilizaban modelos de lenguaje grandes como GPT-4 para generar explicaciones automáticamente. La lógica era pragmática. Los expertos son caros. Las anotaciones que realizan requieren tiempo, verificación, y conocimiento clínico profundo. ¿Por qué no aprovechar que GPT-4 ya entiende medicina en términos estadísticos?

El problema es que GPT-4 no entiende medicina. Entiende patrones. El modelo fue entrenado en millones de documentos médicos, pero no posee comprensión. Cuando se le pide generar cajas delimitadoras (bounding boxes) que señalen anomalías en una imagen, o que escriba descripciones clínicas estructuradas, frecuentemente genera información que se ve convincente pero es imprecisa, incompleta o francamente falsa. Los investigadores encontraron que cuando entrenaban redes neuronales con estas etiquetas sintéticas, el modelo aprendía a replicar las mismas alucinaciones.

Construyendo el equivalente de una clínica virtual anotada

El equipo que desarrolló S-Chain decidió tomar un camino completamente diferente. En lugar de automatizar el proceso de anotación, optaron por invertir recursos significativos en expertos humanos. El proyecto reunió a médicos entrenados que trabajaron de manera independiente antes de llegar a consenso en cada anotación. Utilizaron imágenes de resonancia magnética del cerebro provenientes del conjunto de datos público OASIS, que contiene escaneos de más de 400 pacientes clasificados en tres categorías clínicas: sin demencia, demencia leve y demencia moderada.

El proceso fue minucioso. Cada resonancia magnética es una serie de cientos de imágenes en capas. Los expertos tuvieron que seleccionar manualmente las rebanadas más representativas, aquellas que mejor mostraban tanto estructuras normales como anomalías relevantes para la enfermedad de Alzheimer. Luego, en cada imagen elegida, dibujaron cajas delimitadoras alrededor de regiones de interés. No simplemente cualquier región, sino específicamente aquellas que muestran evidencia de los cambios característicos que la demencia produce en el cerebro: encogimiento del hipocampo, ensanchamiento de los surcos cerebrales, adelgazamiento de la corteza.

Una vez identificadas las regiones, los médicos escribieron notas estructuradas describiendo lo que observaban. Estas notas no eran libres. Seguían una arquitectura de cuatro pasos que refleja cómo los neurorradiólogos realmente practican la medicina:

  • Localización de objetos: identificar y marcar las áreas relevantes
  • Descripción de la lesión: explicar en términos clínicos qué anomalías se ven
  • Calificación de la lesión: aplicar escalas de medición estandarizadas
  • Clasificación de la enfermedad: llegar a un diagnóstico

Esas escalas de medición estandarizadas merecen mención especial. La medicina clínica ha desarrollado durante décadas herramientas semiquantitativas para evaluar cambios en imágenes cerebrales. La escala de atrofia del lóbulo temporal medio (MTA por sus siglas en inglés), la escala de atrofia cortical global (GCA), y la escala de Koedam para atrofia posterior son ejemplos. Estas no son inventos arbitrarios. Son el resultado de investigación rigurosa donde se correlacionaron hallazgos de imagen con resultados clínicos verificados. Son el lenguaje que usan los médicos cuando hablan entre sí de sus hallazgos.

Lo que hizo extraordinario el proyecto S-Chain es que incorporó estas escalas como parte integral de su anotación. Cada imagen no solo tiene cajas delimitadoras y descripciones. También tiene puntuaciones sistemáticas que codifican el grado de severidad de los cambios observados. Esto permitió que los investigadores entrenaran modelos de IA no solo para acertar en el diagnóstico final, sino para aprender el vocabulario de la práctica clínica real.

El costo oculto de la calidad

Para construir esta base de datos, los investigadores requirieron aproximadamente 2100 horas de trabajo de expertos médicos. Es una cifra que suena abstracta hasta que uno se detiene a pensar en su implicación. Dos mil cien horas de trabajo especializado de personas cuya formación requirió una década o más. En dólares o en euros, esa inversión es sustancial. Por eso, durante años, la industria ha preferido automatizar. Las soluciones automatizadas son escalables. Se pueden replicar fácilmente. Pero S-Chain apostó por hacer exactamente lo opuesto: reducir la escala, invertir profundamente en calidad, y confiar en que eso produciría beneficios que compensaran el costo.

El resultado fueron 12.000 imágenes médicas completamente anotadas por expertos. Cada anotación fue verificada por múltiples especialistas para garantizar coherencia. Luego, el equipo tradujo el conjunto de preguntas y respuestas a dieciséis idiomas distintos, trabajando con lingüistas profesionales que además tenían formación médica básica. De esta manera, el conjunto final no es simplemente 12.000 muestras de entrenamiento. Son más de 700.000 pares pregunta-respuesta distribuidos en dieciséis lenguas, lo que lo convierte en un recurso sin precedentes para entrenar sistemas de visión y lenguaje que funcionen de manera interpretable en contextos médicos multilingües.

Enseñar a las máquinas a demostrar su trabajo

Cuando los investigadores comenzaron a entrenar modelos de visión y lenguaje usando S-Chain, obtuvieron resultados que no solo mejoraban el desempeño, sino que revelaban algo profundo sobre cómo estos sistemas pueden aprender a razonar. Probaron varios modelos diferentes: algunos diseñados específicamente para medicina, como ExGra-Med y LLaVA-Med, y otros de propósito general como Qwen2.5-VL. Incluso evaluaron modelos cerrados de acceso público como GPT-4.1, GPT-o3, Grok-4 y Gemini-2.5.

Los hallazgos fueron consistentes. Los modelos entrenados con las anotaciones de experto de S-Chain superaban significativamente a aquellos entrenados únicamente con respuestas finales. La mejora típica oscilaba entre 10 y 15 puntos porcentuales en precisión. Más interesante aún, cuando se comparaban con modelos entrenados usando las cadenas de razonamiento sintetizadas por GPT-4, la superioridad era aún más clara, con mejoras típicamente del orden de 4 a 5 puntos porcentuales. Esos números pueden parecer modestos al leer un artículo, pero en el contexto de la práctica clínica, representan la diferencia entre un algoritmo que diagnóstica correctamente a 9 de cada 10 pacientes y uno que acierta en 10 de cada 10.

Pero el beneficio verdadero no estaba solo en esos números. Estaba en lo que sucedía en los pasos intermedios. Cuando los investigadores examinaron cómo los modelos generaban las cajas delimitadoras, las descripciones de lesiones y las puntuaciones en escalas clínicas, encontraron que aquellos entrenados con S-Chain producían respuestas que realmente correspondían a lo que veían en las imágenes. Los modelos entrenados con datos sintéticos de GPT-4, por el contrario, frecuentemente generaban cajas delimitadoras que estaban mal alineadas, faltantes o ubicadas en lugares completamente erróneos. Algunas descripciones incluían hallazgos que simplemente no existían en la imagen. Las alucinaciones persistían.

Un descubrimiento particularmente revelador surgió de experimentos de control diseñados específicamente para desmenuzar cómo cada componente del razonamiento contribuía al diagnóstico final. Los investigadores entrenaron un modelo y luego realizaron pruebas alterando qué información se proporcionaba. Si el modelo recibía la imagen junto con las cajas delimitadoras correctas dibujadas por expertos, pero tenía que generar por sí mismo la descripción de la lesión y el diagnóstico, ¿cuán bien funcionaba? Si además recibía las descripciones correctas además de las cajas, ¿mejoraba? Si recibía los tres primeros pasos correctos y solo tenía que producir el diagnóstico final, ¿qué precisión alcanzaba?

Los resultados fueron sorprendentes. Cuando el modelo tenía acceso solo a las cajas delimitadoras correctas, la mejora en el diagnóstico final era modesta, alrededor del 2 por ciento. Pero cuando tenía acceso a las descripciones correctas de las lesiones, la precisión se elevaba casi a un 99 por ciento. Esto reveló algo fundamental: para este conjunto de problemas, lo más importante no era qué regiones del cerebro estaban resaltadas, sino qué historia clínica se contaba sobre esas regiones. En otras palabras, traducir observaciones visuales en el lenguaje clínico correcto era el paso crítico. Sin eso, todo se desmorona.

Esto también significaba que los modelos estaban desarrollando algo que se asemejaba a razonamiento genuino. No estaban simplemente aprendiendo correlaciones superficiales entre píxeles y etiquetas. Estaban aprendiendo a procesar evidencia visual, traducirla en conceptos clínicos estructurados, y usar esa información para llegar a conclusiones diagnósticas. Era como si los modelos estuvieran internalizando el proceso de pensamiento del neurorradiólogo.

Los investigadores no se detuvieron en demostrar que la anotación de expertos mejoraba el rendimiento. También investigaron si el razonamiento estructurado de S-Chain podía combinarse sinérgicamente con técnicas adicionales de IA. Una de estas técnicas es la generación aumentada por recuperación, conocida por su sigla en inglés RAG. La idea detrás de RAG es que en lugar de confiar únicamente en lo que el modelo aprendió durante el entrenamiento, durante la inferencia se recuperan documentos relevantes de una base de conocimientos externa para enriquecer el contexto.

En el dominio médico, esto significa que antes de hacer un diagnóstico, el sistema puede consultar un corpus de información médica verificada, extrayendo descripciones de enfermedades, síntomas, pautas clínicas y explicaciones de hallazgos radiológicos. Luego proporciona esta información al modelo junto con la imagen, permitiendo que realice diagnósticos apoyados no solo en lo que aprendió de datos históricos, sino también en conocimiento médico actual y verificado.

Cuando los investigadores combinaron S-Chain con esta estrategia de RAG utilizando un corpus especialmente curado llamado MIRIAD, encontraron que los beneficios se acumulaban, pero de manera interesante. RAG por sí solo proporcionaba mejoras modestas, típicamente entre 1 y 5 puntos porcentuales. Sin embargo, cuando se combinaba con el razonamiento estructurado supervisado de S-Chain, los modelos lograban sus mejores rendimientos. En algunos casos, las mejoras combinadas alcanzaban 15 puntos porcentuales sobre el modelo de línea base. Esto sugiere que el conocimiento externo complementa pero no reemplaza el razonamiento visualmente grounded. Son dos ingredientes distintos que trabajan mejor juntos que separados.

Sin embargo, los investigadores descubrieron también que lograr precisión en la respuesta final no garantizaba que el razonamiento fuera realmente fidedigno. En un conjunto de experimentos, examinaron qué sucedía cuando entrenaban modelos para que tuvieran acceso a información sobre regiones de interés, pero esa información se proporcionaba solo en forma de texto. Por ejemplo, las coordenadas de las cajas delimitadoras se escribían como números en el texto de entrada, sin superponer las cajas visualmente en la imagen.

Cuando compararon esto con un enfoque donde las regiones de interés se destacaban directamente sobre la imagen mediante visualización, encontraron una diferencia sustancial. Con solo información textual, el modelo generaba descripciones de lesiones que mencionaban términos anatómicos relevantes pero que eran débiles en su capacidad de conectar esos términos con lo que realmente veía. La precisión alcanzaba un 62 por ciento. Cuando se destacaban visualmente las regiones de interés, saltaba a 73 por ciento. El cambio refleja algo importante: las máquinas, al igual que los humanos, procesan la información de manera más profunda cuando es presentada visualmente. Leer "hay una caja en coordenadas (0.5, 0.65, 0.43, 0.15)" no es lo mismo que ver esa región resaltada en la imagen.

Este hallazgo motivó a los investigadores a proponer un mecanismo adicional para fortalecer el vínculo entre la evidencia visual y el razonamiento. Desarrollaron una forma de regularización que usa técnicas de aprendizaje contrastivo para animar activamente al modelo a mantener sus representaciones internas de razonamiento alineadas con las características visuales de las regiones de interés. En términos técnicos, usaron lo que se conoce como pérdida de InfoNCE para anclaje ROI, que esencialmente enseña al modelo a empujar sus embeddings de razonamiento cerca de los tokens visuales que corresponden a regiones relevantes y alejarlos de regiones irrelevantes.

Cuando agregaron esta técnica de regularización al entrenamiento, los modelos mejoraban modestamente. Un modelo que alcanzaba 60.4 por ciento de precisión mejoró a 62.5 por ciento. Los números no parecen revolucionarios, pero representan un paso hacia lo que los investigadores llaman "fidelidad". En medicina, un modelo que explica sus diagnósticos de manera fiel a la evidencia visual es infinitamente más valioso que un modelo que simplemente acierta, sin importar cómo llegó a esa conclusión.

Implicaciones más allá de la demencia

Aunque el trabajo de S-Chain se enfoca específicamente en la enfermedad de Alzheimer y la demencia utilizando imágenes del cerebro, la metodología tiene aplicaciones mucho más amplias. La enfermedad de Alzheimer fue elegida como caso de estudio porque representa un problema clínico bien definido, porque existen escalas de evaluación visual estandarizadas y ampliamente utilizadas, y porque el acceso a imágenes de investigación es relativamente sencillo debido a la existencia de conjuntos de datos públicos como OASIS.

Pero los principios fundamentales son generalizables. Cualquier contexto médico donde se necesita razonamiento interpretable podría beneficiarse de este enfoque. Patología de cáncer, donde los patólogos digitales necesitan no solo clasificar tumores sino explicar qué características malignas observan. Cardiología, donde los algoritmos deben detectar anomalías en ecocardiogramas y explicar exactamente qué anomalía morfológica están viendo. Radiología torácica, donde identificar neumonía, tuberculosis o neoplasias requiere tanto precisión como explicabilidad. En cada uno de estos dominios, la construcción de conjuntos de datos similares a S-Chain, anotados por expertos y estructurados para capturar razonamiento en cadena, serían inversiones valiosas.

Los límites actuales del trabajo también son instructivos. Los investigadores reconocen que el conjunto de datos, aunque es el más grande y mejor anotado de su tipo, se enfoca en un dominio relativamente estrecho. Incluye principalmente variaciones de un único tipo de patología, la demencia degenerativa. No captura la complejidad de diagnósticos diferenciales donde múltiples enfermedades compiten por explicar los hallazgos observados. No refleja los juicios de incertidumbre que los radiólogos frecuentemente deben hacer cuando la evidencia es ambigua. Tampoco incorpora la dimensión temporal, los cambios en las imágenes a lo largo de meses o años que son vitales para la práctica clínica real.

La brújula de la confianza en IA médica

Lo que S-Chain representa, en última instancia, es una declaración de valores. Dice que en medicina, la precisión sin interpretabilidad no es suficiente. Dice que construir sistemas que expliquen sus razonamientos, aunque sea más costoso, es una inversión necesaria. Dice que la alucinación, el hallazgo irreal generado por máquinas, es inaceptable en contextos clínicos. Dice que los atajos de automatización a veces no valen la pena si el resultado es un sistema en el que los clínicos no pueden confiar.

En una era donde los modelos de lenguaje grande se entrenan con cientos de miles de millones de parámetros en corpus de miles de millones de tokens, existe una tentación natural de confiar en la escala como solución a todos los problemas. Ciertamente, modelos más grandes y más datos conducen a mejores rendimientos. Pero S-Chain demuestra que existe otro ingrediente que importa profundamente: la calidad de la supervisión. Un conjunto de datos más pequeño, cuidadosamente anotado por expertos, donde cada etiqueta ha sido verificada y reverificada, puede producir modelos más confiables que conjuntos de datos más grandes construidos mediante automatización.

Este es un mensaje incómodo para la industria. Escalar requiere automatización. La automatización reduce costos. Pero la calidad de la supervisión es el corazón del aprendizaje automático supervisado. Comprometerse en ello es comprometerse con límites prácticos en velocidad y escala. Sin embargo, en medicina, donde los errores tienen consecuencias para seres humanos reales, tal compromiso no es una debilidad sino una fortaleza fundamental.

Hacia máquinas que razonan como clínicos

La medicina es una disciplina que se construyó a través de siglos de cuidadosa observación, acumulación de conocimiento y transmisión de experiencia. Cuando un médico experimentado mira una resonancia magnética, no está simplemente clasificando píxeles. Está ejecutando un proceso cognitivo complejo que integra múltiples fuentes de conocimiento, que evalúa evidencia en el contexto de probabilidades clínicas previas, que reconoce patrones pero también es cauteloso ante excepciones.

El desafío de hacer que la inteligencia artificial médica sea verdaderamente confiable es el desafío de replicar esa profundidad cognitiva. No es suficiente que un modelo acierte. Debe poder articular cómo llegó a su conclusión de una manera que un médico clínico pueda verificar y potencialmente impugnar. S-Chain representa un paso significativo en esa dirección. Al construir un conjunto de datos donde cada diagnóstico está anclado en observación visual explícita, donde el razonamiento se desglosa en pasos intermedios verificables, y donde el lenguaje utilizado es el lenguaje de la práctica clínica real, los investigadores han creado un nuevo estándar para cómo podemos entrenar máquinas para razonar en contextos donde la interpretabilidad y la confiabilidad no son lujos sino necesidades fundamentales.

El futuro de la IA en medicina no será determinado por qué tan grande puede hacerse un modelo o cuántos datos puede procesar. Será determinado por nuestra capacidad de asegurar que esos modelos funcionen de manera transparente, explicable y fundamentada en evidencia verificable. S-Chain es un prototipo de ese futuro, un ejemplo de investigación que elige calidad sobre conveniencia, fundamentación sobre automatización, y confianza sobre escala bruta. En una industria frecuentemente seducida por los números más grandes, es un recordatorio de que a veces las elecciones más importantes son las más humildes.


Referencias

Le-Duc, K., Nguyen, D. M. H., Trinh, P. T. H., Nguyen, T. P., Diep, N. T., Ngo, A., Vu, T., Vuong, T., Nguyen, A. T., Nguyen, M., Hoang, V. T., Nguyen, K. N., Nguyen, H., Ngo, C., Liu, A., Ho, N., Hauschild, A. C., Nguyen, K. X., Nguyen-Tang, T., ... Nguyen, A. T. (2025). S-Chain: Structured visual chain-of-thought for medicine. arXiv preprint arXiv:2510.22728.

Chen, Z., Wu, J., Wang, W., Su, G., Chen, G., Xing, S., Zhong, M., Zhang, Q., Zhu, X., Lu, L., ... Ge, W. (2024). InternVL: Scaling up vision foundation models and aligning for generic visual-linguistic tasks. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 24185-24198.

Wang, P., Bai, S., Tan, S., Wang, S., Fan, W., Bai, J., Chen, K., Liu, X., Wang, J., Ge, W., ... Li, J. (2024). Qwen2-VL: Enhancing vision-language model's perception of the world at any resolution. arXiv preprint arXiv:2409.12191.

Sellergren, A., Kazemzadeh, S., Jaroensri, T., Kiraly, A., Traverse, M., Kohlberger, T., Xu, S., Jamil, F., Hughes, C., Lau, C., ... Jain, R. (2025). MedGemma technical report. arXiv preprint arXiv:2507.05201.

Li, C., Wong, C., Zhang, S., Usuyama, N., Liu, H., Yang, J., Naumann, T., Poon, H., & Gao, J. (2023). LLaVA-Med: Training a large language-and-vision assistant for biomedicine in one day. Advances in Neural Information Processing Systems, 36, 28541-28564.

Moor, M., Banerjee, O., Abad, Z., et al. (2023). Foundation models for generalist medical artificial intelligence. Nature, 616(7956), 259-265.

Marcus, D. S., Wang, T. W., Parker, J., Csernansky, J. G., Morris, J. C., & Buckner, R. L. (2007). Open access series of imaging studies (OASIS): Cross-sectional MRI data in young, middle aged, and older adults. Journal of Cognitive Neuroscience, 19(9), 1498-1507.

Wei, J., Wang, X., Schuurmans, D., Le, Q., Chi, E., Narang, S., Chowdhury, A., Zhou, Y., et al. (2022). Chain-of-thought prompting elicits emergent ability in large language models. Advances in Neural Information Processing Systems, 35, 24824-24837.

Borys, K., Schmitt, Y. A., Nauta, M., Seifert, C., Krämer, N., & Friedrich, C. M. (2023). Explainable AI in medical imaging: An overview for clinical practitioners. European Journal of Radiology, 162, 110786.

Publicaciones Recientes

Generated Image November 04, 2025 - 1_16AM

De la fragilidad del experto a la robustez del aprendiz

En el imaginario colectivo, la inteligencia artificial aprende de la perfección. Alimentamos a las máquinas con ejempl
Leer Más
345619ae-75f3-475f-a2b4-622b8bd50a38

Canva lanza modelo de IA que entiende estructura de diseño

  Canva anunció el mayor lanzamiento de producto en su historia: el Creative Operating System, un ecosistema unifi
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí