Cuando la IA ensaya: el juicio clínico en tiempos automáticos

e2f372e3-d55f-4204-9da5-4473af4d4726

Cuando la IA ensaya: el juicio clínico en tiempos automáticos

Ensayar sin ensayo: cuando la inteligencia artificial reescribe el método clínico

Los ensayos clínicos, durante décadas, fueron una de las estructuras más inamovibles de la medicina moderna. Fases rígidas, cohortes cuidadosamente elegidas, protocolos extensos revisados por comités, tiempos largos, costos abrumadores y una tasa de fracaso que parecía naturalizada: entre el 60 % y el 80 % de los fármacos que entraban a estudios clínicos en fase 1 no llegaban jamás al mercado. El método científico, aplicado a la salud, era también un camino de desgaste, un dispositivo de filtrado brutal donde la mayoría de los intentos morían en el intento.

Pero eso está empezando a cambiar. Y no por un ajuste técnico, sino por una transformación estructural que lleva la marca de la inteligencia artificial. Un nuevo editorial publicado por Nature Biotechnology en julio de 2025 lo sintetiza con claridad: la IA no solo interviene en etapas puntuales del proceso clínico —como el análisis estadístico o la clasificación de pacientes— sino que comienza a integrarse en toda la cadena de diseño, ejecución y evaluación de los ensayos. En otras palabras, ya no se trata de usar IA para acelerar partes del experimento. Se trata de dejar que la IA replantee el experimento mismo.

Esta reconfiguración se manifiesta de múltiples formas, todas convergentes. Por un lado, los modelos de lenguaje se utilizan ahora para redactar borradores de protocolos, filtrar literatura médica, sintetizar antecedentes regulatorios y hasta simular los informes que se enviarán a las agencias. Lo que antes requería semanas de redacción científica, hoy puede obtenerse en cuestión de horas, con un grado de exhaustividad que iguala —y a veces supera— el trabajo humano. Pero más allá de la eficiencia textual, lo decisivo está en el modo en que estas herramientas reformulan las decisiones metodológicas: qué poblaciones incluir, qué variables controlar, qué indicadores priorizar.

En paralelo, nuevos algoritmos permiten detectar patrones ocultos en bases de datos clínicas para emparejar pacientes con ensayos en tiempo real. No se trata simplemente de automatizar la selección, sino de hacerla más diversa, más rápida y más adaptativa. Herramientas como TrialGPT o motores desarrollados por startups biomédicas generan recomendaciones instantáneas sobre criterios de inclusión y exclusión, anticipan problemas de representatividad en las muestras y sugieren ajustes en función de la evolución del ensayo. El paciente ya no espera a ser convocado. Es la IA la que lo encuentra.

Pero quizás lo más disruptivo de esta mutación no esté en la entrada de los datos, sino en su simulación. En los últimos dos años se consolidó una práctica que hasta hace poco parecía ciencia ficción: el uso de gemelos digitales (digital twins) para representar pacientes en brazos de control. En lugar de exponer a voluntarios a placebos o terapias estándar, se utiliza el historial médico de individuos reales, modelado mediante IA, para crear una versión virtual que actúe como grupo de comparación. Empresas como Unlearn.ai ya lograron que este método fuera aprobado por agencias regulatorias europeas en estudios de fase 2 y 3.

Esto implica que parte del ensayo se vuelve sintético, pero no ficticio. La simulación no reemplaza a la realidad, sino que la extiende, la duplica bajo parámetros verificables. Y lo hace con una economía de medios sorprendente: menos pacientes, menos tiempo, menos costo. Lo que antes llevaba una década, ahora puede completarse en uno o dos años. Y con una tasa de éxito que ronda el 80–90 % en fase 1, según datos citados por Nature Biotechnology, frente al 40–65 % del modelo clásico.

¿Significa esto que la IA garantiza fármacos mejores? No necesariamente. Pero sí altera el equilibrio entre exploración y validación. La inteligencia artificial permite probar más compuestos, más rápido y con menos riesgo inicial. Y eso produce un cambio en el ritmo de la investigación biomédica. Ya no se trata solo de descubrir lo nuevo, sino de hacerlo en sincronía con sistemas que evalúan, ajustan y validan en ciclos cada vez más breves.

El otro gran salto ocurre en la etapa regulatoria. La FDA, históricamente lenta y burocrática, ha comenzado a incorporar su propio modelo de lenguaje, llamado Elsa, para revisar protocolos clínicos y reducir los tiempos de evaluación. Esto no es simplemente una digitalización del trámite. Es una externalización parcial del criterio: un modelo de IA decide, o al menos sugiere, qué protocolo cumple con los estándares. El poder de certificar ya no se limita al ojo humano.

En ese contexto, el ensayo clínico se transforma. Deja de ser una secuencia lineal y controlada, y se convierte en un sistema dinámico, retroalimentado por algoritmos, ajustado en tiempo real. Algunos ensayos ya implementan lógica de aprendizaje por refuerzo: analizan datos interinos y reconfiguran las dosis, los criterios de inclusión o la asignación de pacientes sin necesidad de reiniciar el protocolo. No se trata de repetir el experimento, sino de corregirlo sobre la marcha.

Todo esto no ocurre sin tensiones. Los críticos advierten que esa flexibilidad puede generar sesgos nuevos, reducir la transparencia o comprometer la validez estadística de los resultados. Pero incluso esas advertencias parten del reconocimiento de un hecho ineludible: la IA ya no es un instrumento complementario en el ensayo clínico. Es parte constitutiva de su nueva arquitectura.

Cuando el protocolo aprende solo: nuevas tensiones en la validación biomédica

El entusiasmo técnico no alcanza para sostener un nuevo paradigma si no se acompaña de legitimidad. Y esa legitimidad, en el campo clínico, no proviene solo de la eficiencia, sino del escrutinio. Los ensayos clínicos fueron diseñados como mecanismos de confianza: pasos claros, controles cruzados, revisión por pares, validación externa. Lo que ahora está en juego no es solo un cambio de herramientas, sino un desplazamiento en el modo de construir verdad biomédica.

El editorial de Nature Biotechnology no omite esa dimensión. Reconoce que si bien las nuevas plataformas algorítmicas han demostrado una eficacia sin precedentes en la aceleración del proceso clínico, la trazabilidad de sus decisiones sigue siendo un problema abierto. ¿Qué significa exactamente que un protocolo fue optimizado por IA? ¿Cómo se documenta el razonamiento interno de un modelo de lenguaje que sugiere modificaciones en tiempo real? ¿Qué grado de intervención humana se considera suficiente para que la autoría clínica no se diluya?

Estos interrogantes no son decorativos. Tocan el núcleo de lo que se considera evidencia válida. Hasta ahora, la medicina basada en evidencia descansaba sobre la posibilidad de reconstruir el camino metodológico que condujo a un resultado. Pero si el camino se modifica sobre la marcha, ajustado por variables ocultas que los propios desarrolladores del sistema no siempre pueden explicar, ¿qué tipo de evidencia estamos generando? ¿Una evidencia funcional, útil pero opaca? ¿O una evidencia verificable, aunque más lenta?

Hay también una dimensión política en juego. La velocidad que prometen estos sistemas no es neutra: responde a intereses corporativos, a la presión por obtener aprobaciones más rápidas, a la necesidad de reducir el tiempo entre inversión y retorno. No es casual que muchas de las empresas que desarrollan IA para ensayos estén directamente vinculadas a farmacéuticas globales. El cruce entre automatización y rentabilidad no es especulativo: está en el centro mismo de esta revolución.

Y sin embargo, la pregunta más difícil no es económica, sino epistémica. Si los ensayos clínicos ya no se definen por su protocolo cerrado, sino por su capacidad de adaptarse en tiempo real, ¿qué significa ensayar? El ensayo deja de ser un experimento con estructura fija y se convierte en un sistema de optimización progresiva. No se prueba una hipótesis: se ajusta un algoritmo. No se confirma una intervención: se mejora su rendimiento con cada iteración.

Esa lógica es más cercana al aprendizaje por refuerzo que al diseño experimental clásico. Y su trasfondo filosófico es radicalmente distinto. El modelo anterior buscaba reducir el sesgo controlando las condiciones. El nuevo modelo acepta el sesgo como parte del entorno y lo compensa con iteración. El resultado puede ser igual de útil —o incluso más—, pero no significa lo mismo.

Este desplazamiento tiene efectos colaterales. Uno de ellos es la erosión del concepto de réplica. En ciencia, la posibilidad de replicar un resultado es clave para su validación. Pero si el proceso de ensayo incluye decisiones algorítmicas personalizadas, adaptadas a poblaciones específicas y contextos variables, entonces replicar ya no implica repetir exactamente lo mismo, sino reconstruir una lógica en movimiento. Eso tensiona la idea misma de evidencia acumulativa.

Otro efecto es la reformulación del consentimiento informado. En un ensayo tradicional, el paciente acepta participar bajo condiciones predefinidas. Pero si el protocolo puede cambiar en función de los datos que se obtienen —incluso durante su participación—, ¿sigue siendo válido el consentimiento inicial? ¿Es suficiente con una cláusula que autorice ajustes dinámicos? ¿Cómo se comunica ese cambio de paradigma sin convertir al paciente en una variable más del sistema?

Frente a estas preguntas, las agencias regulatorias intentan adaptarse sin perder su rol de guardianes. La FDA, por ejemplo, no solo emitió pautas para el uso de IA en la evaluación de fármacos, sino que desarrolló su propio modelo de lenguaje, Elsa, para procesar la documentación clínica. Este gesto tiene un valor simbólico fuerte: si la evaluación va a ser automatizada, que al menos lo sea desde el propio Estado. Pero también es una señal de que la inteligencia artificial no será un actor externo en el sistema de salud, sino una parte creciente de su lógica operativa.

Eso no significa que desaparezcan los marcos clásicos. Todavía se exige transparencia, revisión ética, justificación estadística. Pero la forma en que esas exigencias se cumplen está cambiando. Se acepta que haya componentes algorítmicos no completamente explicables, siempre que su rendimiento sea consistente. Se toleran cajas negras si producen resultados confiables. El método se vuelve híbrido, como si estuviera negociando con una forma de saber distinta.

Y esa forma de saber no es ajena al presente cultural. El ensayo clínico automatizado se parece más a un sistema de recomendación que a un experimento controlado. Funciona por ajuste progresivo, no por demostración formal. Se guía por resultados, no por hipótesis. Y eso pone a prueba nuestra capacidad para distinguir entre lo que es científicamente robusto y lo que simplemente parece funcionar.

Quizás no se trate de volver atrás. La inteligencia artificial ya está aquí, y su impacto es irreversible. Pero sí puede tratarse de afinar nuestras preguntas. No solo qué tan rápido podemos desarrollar fármacos, sino bajo qué condiciones los declaramos válidos. No solo qué tan bien funcionan los algoritmos, sino qué tipo de conocimiento producen. Porque no todo lo que se optimiza se entiende. Y no todo lo que funciona debe aceptarse sin más.

Modelar lo vivo: futuros contingentes de la medicina asistida por IA

Cuando se afirma que la inteligencia artificial está transformando los ensayos clínicos, conviene aclarar qué se entiende por transformación. No se trata solo de herramientas nuevas ni de automatización parcial. Lo que está en juego es el modo en que se define la validez médica, la arquitectura del conocimiento clínico y la forma misma de intervenir sobre lo biológico. La IA no acelera simplemente lo que ya existía. Redibuja el terreno donde lo existente cobra sentido.

En este nuevo mapa, la figura del experto clínico cambia. No desaparece, pero se descentraliza. Su autoridad ya no reside en el dominio absoluto del protocolo, sino en la capacidad de colaborar con sistemas autónomos que generan inferencias, simulan cohortes, sugieren combinaciones moleculares y reajustan en tiempo real parámetros que antes estaban fijados por diseño. El experto sigue siendo necesario, pero como supervisor, no como arquitecto. Como garante de límites, no como centro de decisiones.

Esa redefinición puede leerse de dos maneras. Una, optimista, sostiene que el profesional médico se libera de tareas repetitivas para concentrarse en juicios complejos, estratégicos, éticos. Otra, más escéptica, observa que esa delegación puede llevar también a una pérdida de agencia, a una dependencia creciente de modelos opacos, y a una erosión del saber clínico como forma encarnada de experiencia. En ambos casos, el resultado es el mismo: la inteligencia médica se distribuye. Y en esa redistribución hay poder, responsabilidad y riesgo.

El problema es que los marcos institucionales con los que contamos para gobernar esa inteligencia distribuida son todavía análogos. Las agencias regulatorias, los comités de bioética, las estructuras hospitalarias y las universidades siguen respondiendo a lógicas previas: secuenciales, lineales, orientadas a la estabilidad. Pero los sistemas que emergen con la IA son dinámicos, adaptativos, iterativos. Aprenden, modifican, reconfiguran sin intervención directa. Y eso genera una fricción silenciosa: la entre una medicina que avanza a ritmo de algoritmo y una gobernanza que se mueve a ritmo humano.

Esa fricción puede ser contenida por un tiempo. Pero si no se aborda explícitamente, se vuelve disfuncional. Aparecen entonces escenarios de captura: empresas que producen IA para diseñar ensayos, optimizar tratamientos y al mismo tiempo redactar los informes regulatorios que avalan sus resultados. Otras que generan modelos para asignar pacientes a terapias y luego utilizan esa misma IA para defender sus propios productos frente a evaluaciones públicas. No se trata de especulaciones distópicas. Son tensiones reales que ya están en curso.

La cuestión no es si la IA debería participar del proceso médico, sino cómo evitar que lo redefina unilateralmente. Porque en la medida en que los criterios de eficacia, seguridad y validez estén mediados por algoritmos entrenados en datos históricos —muchas veces sesgados, incompletos o no representativos—, el riesgo es que el sistema sanitario se vuelva predictivo pero no justo, preciso pero no transparente.

Esto exige un giro en el modo en que pensamos la política pública. La regulación no puede limitarse a auditar outputs. Necesita intervenir en las condiciones de entrenamiento, en las arquitecturas algorítmicas, en los incentivos comerciales que guían la innovación. El benchmark no debe ser solamente técnico, sino social: ¿quién accede a estos nuevos fármacos?, ¿quién queda afuera del modelo?, ¿qué tipo de enfermedades se priorizan?, ¿qué poblaciones están subrepresentadas en los datos?

También cambia el sentido de lo público. En un contexto donde las farmacéuticas operan con IA propia, donde los datos de salud son activos estratégicos y donde los modelos se entrenan sobre bases privadas, el rol del Estado ya no es solo financiar ciencia básica o regular patentes. Es garantizar soberanía algorítmica, acceso equitativo, y capacidad de intervención crítica sobre procesos cada vez más automáticos.

Esa intervención no requiere entender cada línea de código, pero sí comprender las lógicas de automatización que atraviesan el sistema. ¿Qué significa confiar en una predicción generada por un modelo que no puede explicarse? ¿Cómo se justifica una aprobación clínica basada en simulaciones? ¿Qué pasa con los efectos secundarios que no se anticipan porque nunca estuvieron en el conjunto de datos inicial?

En algún punto, estas preguntas reponen una dimensión olvidada de la medicina: su carácter contingente. La IA tiende a convertir lo biológico en lo optimizable. Pero el cuerpo, la enfermedad, la recuperación, son procesos que incluyen azar, historia, cultura, subjetividad. Reducirlos a una función de rendimiento puede aumentar la eficacia, pero también empobrecer el horizonte terapéutico.

Por eso no alcanza con integrar IA a la medicina. Hay que repolitizar su uso. Pensar los ensayos clínicos no solo como experimentos científicos, sino como artefactos institucionales donde se negocia el sentido de lo válido, lo seguro, lo humano. La tecnología puede expandir nuestras capacidades, pero solo si mantenemos la posibilidad de decidir qué vale la pena probar y bajo qué condiciones estamos dispuestos a aceptar sus resultados.

El umbral de lo clínico: una inteligencia que no espera permiso

Hay una transformación que ocurre en silencio. No tiene una fecha precisa ni un anuncio oficial. No es una revolución que irrumpe, sino una sedimentación progresiva de cambios acumulados, cada uno de los cuales parece menor, incluso técnico, pero que en conjunto alteran la forma en que entendemos lo que es experimentar con seres humanos. Esa transformación no está sucediendo en los laboratorios más visibles ni en los congresos más ruidosos, sino en las arquitecturas que ahora modelan, aceleran y reorganizan el proceso clínico. Y en el centro de esa arquitectura se despliega una inteligencia artificial que ya no pregunta qué hacer, sino que propone cómo hacerlo.

Los ensayos clínicos eran, hasta hace poco, una de las últimas estructuras formales que quedaban en pie dentro de un sistema médico cada vez más fragmentado. Eran también una promesa de justicia metodológica: aplicar una misma prueba bajo reglas claras para producir conocimiento fiable. La entrada de la IA no destruye esa promesa, pero la redefine. Lo que antes era una secuencia controlada, ahora es una red de procesos adaptativos. Lo que era documentación progresiva, ahora es generación asistida. Lo que era evaluación externa, ahora es monitoreo automatizado.

No hay nostalgia en esta observación. Hay realismo. Muchos de los problemas estructurales de los ensayos clínicos clásicos —exclusión de poblaciones no representadas, tiempos excesivos, costos inabordables, sesgos de publicación— fueron sostenidos por un modelo lento, opaco y vertical. Que ese modelo esté siendo reemplazado por sistemas más ágiles, más abiertos al cruce de datos, más sensibles a patrones invisibles para los humanos, no puede considerarse un retroceso. Pero tampoco un progreso automático.

Porque en esa transición también se redefine lo que significa validar un tratamiento. Ya no alcanza con demostrar que una intervención funciona. Hay que demostrar que el camino que llevó a esa conclusión es legítimo, transparente, auditable. Y cuando el trayecto incluye componentes algorítmicos que ajustan sobre la marcha, que predicen sin explicar, que optimizan sin demostrar causalidad, el problema no es solo técnico: es epistémico. ¿Seguimos hablando de medicina basada en evidencia, o estamos entrando en un régimen nuevo, más cercano a la medicina basada en predicción?

Esa pregunta no tiene respuesta inmediata. Pero exige ser sostenida. No como negación, sino como orientación. Lo que diferencia una tecnología poderosa de una tecnología emancipadora no es su capacidad de operar más rápido, sino su apertura a la crítica, al control democrático, a la reversibilidad. Los sistemas que hoy diseñan, corrigen y validan ensayos clínicos en tiempo real no son infalibles. Pero pueden ser corregibles. No son neutrales. Pero pueden ser gobernados.

El desafío está en no ceder el sentido clínico al rendimiento. En no dejar que lo que puede calcularse se vuelva automáticamente lo que debe hacerse. En recordar que la salud no es solo un indicador de eficiencia ni una curva por aplanar, sino un campo donde lo biológico se entrelaza con lo político, lo histórico, lo sensible. Allí donde un algoritmo ve un patrón, una sociedad debe ver un paciente. Y donde una IA ajusta una dosis, alguien tiene que seguir preguntando por el contexto.

La medicina no está siendo reemplazada. Está siendo reconfigurada. El ensayo clínico, en particular, atraviesa una mutación que lo desborda como procedimiento y lo redefine como dispositivo de gobernanza algorítmica. No es el fin del método. Es su traducción a otro lenguaje. Uno que necesita gramática nueva, pero también memoria. Porque entre el dato y la decisión hay todavía un terreno que no puede ser automatizado: el juicio.

Y mientras la inteligencia artificial avanza sin pedir permiso, esa reserva crítica sigue siendo, por ahora, un asunto humano.

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí