NEWSLETTER

El derecho a la privacidad médica en la era de la automatización

Generated Image November 12, 2025 - 9_11PM

El derecho a la privacidad médica en la era de la automatización

Cuando rechazar inteligencia artificial en el consultorio dental termina en llamada policial: el caso que expone el vacío regulatorio en salud
Una artista australiana fue confrontada por la policía tras negarse a permitir que su periodoncista usara inteligencia artificial para tomar notas durante su consulta. El incidente revela la ausencia de marcos legales claros sobre el consentimiento de los pacientes cuando sistemas automatizados procesan información médica sensible.

Caerwin Martin, músico y artista de Melbourne, Australia, reservó una cita con su periodoncista esperando el procedimiento habitual: evaluación clínica, diagnóstico, quizás una referencia a un especialista. No esperaba terminar la tarde siendo interrogada por oficiales de policía. El incidente comenzó cuando el doctor informó que usaría inteligencia artificial para tomar notas durante la consulta y generar documentos de referencia. Martin se negó. El médico insistió. Martin mantuvo su posición. El consultorio llamó a las autoridades.

La policía llegó, entrevistó a Martin y la dejó ir sin cargos después de un breve intercambio. Desde su perspectiva, no había ocurrido delito alguno. Pero el daño estaba hecho. Martin compartió su experiencia en Facebook, donde generó un debate intenso sobre derechos de pacientes, autonomía médica y los límites del consentimiento informado en la era de la automatización clínica. Su relato fue simple: se opone al uso de inteligencia artificial por razones éticas y no quiere que sistemas automatizados tengan acceso a su historial médico. El consultorio interpretó su negativa como algo suficientemente problemático para justificar una intervención policial.

El caso plantea una pregunta fundamental: ¿puede un paciente negarse al uso de inteligencia artificial en entornos médicos sin consecuencias? La respuesta, sorprendentemente, depende de dónde vivas, qué tipo de herramienta se use y si tu médico considera tu negativa como cooperación razonable o como obstrucción inaceptable. En la mayoría de jurisdicciones, incluyendo Estados Unidos, no existe ley federal que requiera a proveedores médicos informar explícitamente sobre el uso de inteligencia artificial durante las consultas. Esta ausencia de regulación clara crea una zona gris donde los derechos de pacientes y las prácticas clínicas colisionan sin un marco legal que arbitre el conflicto.

El silencio regulatorio sobre inteligencia artificial médica

Star Kashman, socio fundador de Cyber Law Firm, confirma que en Estados Unidos no existe ninguna regla federal general que obligue a los médicos a informar a los pacientes sobre el uso de inteligencia artificial durante las visitas clínicas. Esto no significa que los médicos puedan hacer lo que quieran sin consecuencias. Significa que las obligaciones de divulgación y consentimiento surgen indirectamente a través de otras normativas, creando un panorama legal fragmentado y confuso.

Por ejemplo, si la consulta es virtual y se graba en audio o video, leyes estatales sobre interceptación de comunicaciones y consentimiento de grabación pueden aplicarse. Pero estas leyes fueron diseñadas décadas antes de que la inteligencia artificial generativa existiera, por lo que su aplicación a sistemas automatizados de toma de notas es ambigua. La información sobre condiciones de salud, registros médicos e información personal de pacientes se considera información de salud protegida (conocida como PHI por sus siglas en inglés). Esta información está regulada principalmente por HIPAA, la Ley de Portabilidad y Responsabilidad de Seguros de Salud, que aborda indirectamente el uso de inteligencia artificial.

Bajo HIPAA, el uso de cualquier sistema de información o software para recolectar y almacenar PHI representa riesgos, porque típicamente la información es accesible por el proveedor del sistema, incluyendo a los proveedores de inteligencia artificial, explica Ron Harman King, director ejecutivo de Vanguard Communications Group. Si un proveedor de inteligencia artificial carece de cifrado doble y de un Acuerdo de Asociado de Negocios (conocido como BAA), que vincula al contratista a las mismas salvaguardas legales de privacidad que los proveedores de salud, su uso requiere que los pacientes firmen un formulario de divulgación y renuncia cuidadosamente redactado antes de usar la inteligencia artificial.

Marco regulatorio fragmentado de IA en salud

Situación federal en Estados Unidos: No existe ley federal que obligue a médicos a informar explícitamente sobre el uso de inteligencia artificial durante consultas clínicas. Las obligaciones surgen indirectamente a través de HIPAA y otras regulaciones.

Requisito de HIPAA: La información de salud protegida (PHI) debe estar resguardada. Si un proveedor de IA carece de cifrado doble y Acuerdo de Asociado de Negocios (BAA), se requiere consentimiento explícito del paciente.

Plataformas de IA para el consumidor: La mayoría de herramientas populares de IA para toma de notas no ofrecen BAAs ni protecciones de privacidad adecuadas para uso seguro por proveedores de salud con información de pacientes.

Regulación estatal emergente: California, Texas y Utah han promulgado reglas que requieren o fomentan la notificación cuando IA generativa se usa en comunicaciones con pacientes o apoyo de decisiones clínicas.

Adopción médica actual: Dos de cada tres médicos estadounidenses ahora usan inteligencia artificial, incluyendo tareas como escribir notas de visitas, instrucciones de alta o planes de cuidado.

La brecha entre adopción tecnológica y protección legal

King es directo en su evaluación: "Las plataformas de inteligencia artificial para consumidores rara vez ofrecen BAAs o protecciones de privacidad adecuadas para ser usadas de manera segura por proveedores de salud con la información de salud de los pacientes, incluyendo la toma de notas durante las citas". En otras palabras, muchos de los sistemas de inteligencia artificial que los médicos están usando actualmente no cumplen con los estándares de HIPAA, a menos que el proveedor médico haya adquirido una suscripción especial diseñada para entornos de salud. Las versiones estándar de ChatGPT, Claude, Google Gemini u otros sistemas generativos populares no están certificadas para manejar PHI sin configuraciones específicas.

Con las leyes federales rezagadas respecto al despliegue rápido de herramientas de inteligencia artificial, algunos estados están interviniendo. Aaron Maguregui, socio y experto en inteligencia artificial en Foley & Lardner LLP, señala que California, Texas y Utah han promulgado reglas que requieren o fomentan la notificación cuando inteligencia artificial generativa se usa en comunicaciones con pacientes o como apoyo de decisiones clínicas. "Principios más amplios de consentimiento informado y ética también pueden obligar a la divulgación cuando la inteligencia artificial influye significativamente en el cuidado. Las reglas permanecen fragmentadas pero se están endureciendo rápidamente", dice Maguregui.

Esta fragmentación crea problemas prácticos. Un paciente en California puede tener derecho legal a ser informado sobre el uso de inteligencia artificial. Ese mismo paciente, cruzando la frontera a Nevada, puede no tener una protección equivalente. Un médico que opera una red de clínicas en múltiples estados enfrenta un mosaico regulatorio donde las prácticas legales en una jurisdicción pueden violar requisitos en otra. La falta de un estándar nacional no solo confunde a proveedores y pacientes, sino que también crea incentivos perversos para que las clínicas operen en jurisdicciones con regulación más laxa.

Las plataformas de inteligencia artificial para consumidores rara vez ofrecen Acuerdos de Asociado de Negocios o protecciones de privacidad adecuadas para ser usadas de manera segura por proveedores de salud con la información de salud de los pacientes, incluyendo toma de notas durante citas. Ron Harman King, Director Ejecutivo de Vanguard Communications Group

La desconfianza de pacientes y la realidad de adopción médica

Los pacientes son generalmente cautelosos respecto a las aplicaciones de inteligencia artificial en el cuidado de la salud. Casi cuatro de cada diez estadounidenses creen que usar inteligencia artificial en salud comprometería la seguridad de los registros de pacientes, según una encuesta de 2023. Cuando se trata de tomar decisiones de salud, el escepticismo hacia la inteligencia artificial es aún más fuerte: casi 58% dice tener baja confianza en que sus sistemas de salud aseguren que una herramienta de inteligencia artificial no les dañe.

A pesar del escepticismo de los pacientes, la tecnología llegó para quedarse. Dos de cada tres médicos estadounidenses ahora usan inteligencia artificial, incluyendo tareas como escribir notas de visitas, instrucciones de alta o planes de cuidado. Esta adopción masiva ocurrió en una ventana de apenas dos años, sin que los marcos regulatorios correspondientes se establecieran primero. Los médicos justifican el uso citando eficiencia, la reducción de la carga administrativa y más tiempo con los pacientes. Pero los pacientes no necesariamente fueron consultados sobre si aceptan este intercambio.

El caso de Martin ilustra la tensión subyacente. Ella explicó a los medios que se opone al uso de inteligencia artificial por razones éticas y porque no quiere que tenga acceso a sus registros médicos. "Soy músico y me ofende que el gobierno haya tenido que intervenir para detener que la inteligencia artificial absorba todo nuestro material", dijo a DailyMail, haciendo referencia a debates sobre el entrenamiento de modelos con contenido protegido por derechos de autor sin consentimiento. Su objeción no fue caprichosa ni desinformada. Fue una posición ética deliberada sobre una tecnología que considera extractiva y potencialmente dañina.

Niveles de confianza de pacientes estadounidenses en inteligencia artificial médica por categoría de uso (2025)

Cómo los pacientes pueden proteger sus derechos

Lani M. Dornfeld, abogado de salud en Brach Eichler, enfatiza que en cada interacción con proveedores médicos, los pacientes deben ser diligentes y ser sus propios defensores de salud. Esto incluye hacer preguntas sobre el uso de herramientas de inteligencia artificial durante los encuentros médicos. Las preguntas clave incluyen: ¿Qué herramientas se están usando? ¿Por qué se usan dichas herramientas? ¿Cuáles son los riesgos y beneficios que ofrecen? ¿Se divulgará información del paciente a terceros? ¿Qué supervisión humana está involucrada?

Aunque los pacientes pueden solicitar límites en el uso de datos, los proveedores pueden negarse si las restricciones interfieren con el cuidado, advierte Maguregui. Esta advertencia es crítica. Significa que negarse al uso de inteligencia artificial no es un derecho absoluto. Un médico puede argumentar razonablemente que ciertas herramientas de inteligencia artificial son esenciales para brindar un nivel de cuidado apropiado. Si el sistema automatizado detecta interacciones medicamentosas potencialmente mortales que un humano podría pasar por alto, ¿tiene el paciente derecho a rechazarlo? Si el modelo de inteligencia artificial genera un plan de tratamiento más preciso que el juicio clínico humano por sí solo, ¿puede el paciente exigir que el médico ignore esa información?

Kashman recomienda que los pacientes que optan por rechazar herramientas de inteligencia artificial en un entorno médico documenten esa decisión en su historial clínico, y de no olvidar informar a recepción. Esta documentación protege tanto al paciente como al proveedor. Si surge una disputa posteriormente sobre si se obtuvo el consentimiento apropiado, el registro clínico proporciona evidencia de las preferencias del paciente. Pero esta recomendación también subraya una realidad incómoda: la carga de proteger los derechos de privacidad recae sobre pacientes individuales, no sobre marcos regulatorios que deberían establecer estándares claros.

Preguntas que todo paciente debe hacer sobre IA médica

¿Qué herramientas específicas se usan? Solicitar nombres y fabricantes de sistemas de IA que procesarán información médica personal durante la consulta.

¿Para qué se usa la IA? Entender si la herramienta toma notas, genera diagnósticos, recomienda tratamientos o analiza imágenes médicas.

¿Quién tiene acceso a los datos? Preguntar si la información médica se comparte con proveedores de IA externos, si se almacena en la nube y si se usa para entrenamiento de modelos.

¿Existe Acuerdo de Asociado de Negocios? Verificar si el proveedor de IA tiene un BAA que lo obliga a cumplir con los estándares de privacidad de HIPAA.

¿Qué supervisión humana existe? Confirmar que un médico humano revisa y aprueba todas las salidas de IA antes de que influyan en decisiones clínicas.

¿Puedo optar por no participar? Preguntar directamente si es posible recibir atención sin el uso de sistemas de IA, y si hay consecuencias por rechazarlos.

El futuro incierto del consentimiento automatizado

El caso de Martin permanece ante la junta médica australiana. Su resultado podría establecer un precedente sobre si los médicos pueden condicionar el tratamiento a la aceptación de herramientas de inteligencia artificial, o si los pacientes tienen un derecho absoluto a rechazar el procesamiento automatizado de información médica. Mientras tanto, la adopción de inteligencia artificial en medicina continúa acelerándose. Nuevos sistemas prometen diagnosticar enfermedades raras mediante análisis de imágenes, predecir complicaciones quirúrgicas antes de que ocurran y personalizar regímenes de medicamentos según la genómica individual.

Cada una de estas aplicaciones plantea preguntas similares sobre consentimiento, transparencia y control de pacientes. Si un modelo de inteligencia artificial analiza miles de biomarcadores en la sangre de un paciente y predice un riesgo elevado de enfermedad cardíaca, ¿debe el paciente ser informado de que un algoritmo, y no un humano, generó esa predicción? Si un sistema de inteligencia artificial revisa el historial médico completo de un paciente para detectar patrones que sugieren un diagnóstico erróneo previo, ¿tiene el paciente derecho a saber que una máquina cuestionó el juicio de sus médicos anteriores?

La respuesta legal sigue siendo turbia. La respuesta ética debería ser obvia: los pacientes tienen el derecho fundamental a saber cómo se toman decisiones sobre su salud y quién, o qué, tiene acceso a su información médica más sensible. Ese derecho no debe depender de la fragmentación geográfica de regulaciones estatales ni de la voluntad individual de los proveedores de divulgar el uso de tecnología. Requiere un marco federal claro que establezca estándares mínimos de transparencia, consentimiento y control de pacientes sobre el procesamiento automatizado de su información médica.

Principios más amplios de consentimiento informado y ética también pueden obligar a la divulgación cuando la inteligencia artificial influye significativamente en el cuidado. Las reglas permanecen fragmentadas pero se están endureciendo rápidamente. Aaron Maguregui, Socio y Experto en IA, Foley & Lardner LLP
El incidente de Caerwin Martin no es una anécdota aislada sino una señal de advertencia. La proliferación de inteligencia artificial en medicina está superando dramáticamente el desarrollo de marcos legales que protejan los derechos de los pacientes. Mientras dos tercios de médicos estadounidenses ya usan estas herramientas, la mayoría de pacientes no sabe que su información médica está siendo procesada por sistemas automatizados, ni mucho menos tiene la capacidad de dar consentimiento informado sobre ese procesamiento. La ausencia de regulación federal clara no es una laguna técnica. Es una falla de política pública que deja a los pacientes vulnerables y a los proveedores operando en una zona gris legal. El caso de Martin demuestra que negarse a la inteligencia artificial en un entorno médico no debería ser un acto de protesta extraordinario que justifique una respuesta policial. Debería ser un derecho básico de autonomía del paciente protegido por ley.

Referencias

Cybernews. (2025). Australian artist's protest against AI in dental appointment ends with police encounter. Reporte tecnológico, noviembre 2025.

DailyMail Australia. (2025). Melbourne artist Caerwin Martin speaks out after police called to dental clinic. Entrevista con paciente.

Kashman, Star. (2025). Legal analysis of AI disclosure requirements in healthcare settings. Cyber Law Firm, consultoría legal especializada.

King, Ron Harman. (2025). HIPAA compliance and AI tools in medical practice. Vanguard Communications Group, análisis regulatorio.

Maguregui, Aaron. (2025). State-level AI disclosure requirements in healthcare. Foley & Lardner LLP, análisis de política legal.

Dornfeld, Lani M. (2025). Patient advocacy and AI in healthcare settings. Brach Eichler, consultoría de derecho médico.

Survey on American attitudes toward AI in healthcare. (2023). Datos sobre confianza de pacientes en sistemas automatizados.

Recent Posts

Generated Image November 15, 2025 - 2_58AM

La “granja de portátiles”: el arma secreta de Corea del Norte

  Cinco ciudadanos estadounidenses se declararon culpables de operar ‘granjas de portátiles’ para blan
Read More
815fb62d-1f9f-41f9-8bb7-e8bbde4e5928

De archivador a investigador: la nueva era de NotebookLM

  NotebookLM deja de ser un simple anotador. Sus nuevas funciones de investigación automatizada y generación mult
Read More

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Sign In

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí