NEWSLETTER

Dilemas éticos: terapeutas usando IA durante sesiones con pacientes

Generated Image November 08, 2025 - 2_14AM

Dilemas éticos: terapeutas usando IA durante sesiones con pacientes

Terapeutas utilizan inteligencia artificial generativa durante sesiones reales de terapia con pacientes
Una práctica controvertida se extiende silenciosamente en consultorios psicológicos: terapeutas humanos emplean modelos de lenguaje como ChatGPT, Claude y Gemini durante sesiones en tiempo real, planteando profundos dilemas éticos sobre confidencialidad, consentimiento informado y la esencia misma de la relación terapéutica.

En lo que representa una transformación silenciosa pero significativa en la práctica clínica, terapeutas de salud mental están incorporando inteligencia artificial generativa directamente durante sus sesiones con pacientes, una práctica que desafía las expectativas convencionales sobre la confidencialidad y la naturaleza de la relación terapéutica. Esta integración en tiempo real de modelos de lenguaje grande está generando un intenso debate profesional sobre los límites éticos de la tecnología en espacios tradicionalmente reservados para la interacción humana exclusiva.

La práctica funciona de manera discreta: mientras el paciente habla, el terapeuta puede tener un dispositivo como una tableta donde recibe análisis en tiempo real de la conversación, sugerencias de preguntas, recordatorios sobre temas tratados previamente o incluso evaluaciones psicológicas preliminares generadas por la inteligencia artificial. Lo que para el paciente parece ser simplemente la toma de notas tradicional, puede ser en realidad una compleja interacción entre el terapeuta y un asistente algorítmico que procesa cada palabra de la sesión.

Este fenómeno emerge en un contexto donde la terapia remota se ha normalizado, facilitando técnicamente la integración de estas herramientas. La barrera física que antes separaba al terapeuta de sus recursos digitales se ha desvanecido, creando un espacio donde la inteligencia artificial puede operar como un participante invisible pero activo en el proceso terapéutico, planteando preguntas fundamentales sobre autenticidad, privacidad y la evolución de la práctica clínica en la era digital.

La mecánica de la terapia aumentada por inteligencia artificial

La implementación técnica de esta práctica varía según el contexto terapéutico. En sesiones presenciales, los terapeutas pueden utilizar tabletas o dispositivos discretos donde la inteligencia artificial procesa el audio de la conversación en tiempo real. El flujo de trabajo típico involucra la transcripción instantánea del diálogo, seguida por el análisis del modelo de lenguaje, que puede identificar patrones de lenguaje, frecuencias temáticas, cambios emocionales en el tono o inconsistencias con sesiones anteriores.

En entornos de terapia remota, la integración se vuelve técnicamente más sencilla. El terapeuta puede mantener abierta una interfaz de chat con la inteligencia artificial en una pantalla secundaria, solicitando análisis específicos o verificando información sin que el paciente sea consciente de esta interacción paralela. Algunos terapeutas incluso emplean el enfoque de "insecto en el oído", utilizando auriculares discretos para recibir sugerencias verbales de la inteligencia artificial durante la sesión.

Formas de integración de inteligencia artificial en terapia

Análisis en tiempo real: Procesamiento inmediato del diálogo para identificar patrones y temas recurrentes

Recordatorios contextuales: Alertas sobre información relevante de sesiones anteriores o objetivos terapéuticos

Generación de preguntas: Sugerencias de preguntas clínicamente relevantes basadas en el flujo de conversación

Evaluación preliminar: Análisis de posibles condiciones psicológicas basado en el contenido verbalizado

Verificación de consistencia: Detección de contradicciones o cambios en el discurso del paciente

El debate ético: ¿mejora profesional o abandono de responsabilidad clínica?

Los defensores de esta práctica argumentan que la inteligencia artificial funciona como un asistente clínico que potencia las capacidades del terapeuta humano. Señalan que los profesionales pueden sufrir fatiga, distracción o lagunas de memoria durante sesiones intensas, y que la inteligencia artificial ofrece un respaldo valioso que mejora la calidad de la atención. Desde esta perspectiva, el paciente se beneficia de lo que equivale a tener dos terapeutas por el precio de uno: el profesional humano y su contraparte algorítmica.

Los críticos, sin embargo, ven en esta práctica una potencial erosión de la relación terapéutica fundamental. Argumentan que los pacientes pagan por la atención completa e indivisa de un profesional capacitado, no por una experiencia mediada por algoritmos. La preocupación central reside en que la dependencia de la inteligencia artificial podría llevar a una gradual disminución de las habilidades clínicas del terapeuta, transformándolo eventualmente en un mero portavoz de recomendaciones algorítmicas.

Cuando ya no somos capaces de cambiar una situación, nos vemos desafiados a cambiarnos a nosotros mismos. Esto aplica igualmente a los terapeutas y la fuerza imparable de la inteligencia artificial que irrumpe rápidamente en la práctica de la terapia. Terapeutas, prepárense para cambiarse a ustedes mismos. Adaptación de una reflexión del psiquiatra Viktor E. Frankl

La espiral de dependencia: cuando el asistente se convierte en el conductor

Uno de los riesgos más significativos identificados por expertos en ética médica es la progresiva dependencia que los terapeutas pueden desarrollar hacia estos sistemas. El proceso comienza de manera inocente: un terapeuta con exceso de trabajo utiliza la inteligencia artificial para compensar la falta de preparación para una sesión. Con el tiempo, la comodidad de tener un asistente siempre disponible puede llevar a una disminución en el esfuerzo de preparación tradicional, creando un ciclo donde la inteligencia artificial se convierte progresivamente en el conductor del proceso terapéutico.

En el escenario más preocupante, el terapeuta humano se transforma en lo que algunos críticos denominan "un mero nodo de verificación" en el proceso, esencialmente validando las recomendaciones de la inteligencia artificial sin aportar el juicio clínico independiente que constituye el núcleo de su expertise profesional. Esta dinámica plantea una pregunta incómoda: si el terapeuta se limita a seguir las sugerencias algorítmicas, ¿no sería más honesto y eficiente que los pacientes interactúen directamente con la inteligencia artificial?

El dilema de la divulgación: ¿deben los pacientes saber?

Uno de los aspectos más controvertidos de esta práctica es la frecuente falta de divulgación a los pacientes. La mayoría de los códigos éticos profesionales, incluyendo los Principios Éticos de Psicólogos y Código de Conducta de la Asociación Americana de Psicología, exigen consentimiento informado cuando se introducen elementos novedosos en el proceso terapéutico.

Sin embargo, muchos terapeutas que utilizan inteligencia artificial durante sesiones no informan a sus pacientes, argumentando que la tecnología funciona simplemente como una herramienta de apoyo similar a tomar notas tradicionales. Los críticos contraargumentan que la naturaleza de la inteligencia artificial como participante activo en el proceso terapéutico constituye un cambio fundamental que los pacientes tienen derecho a conocer y consentir.

Estados como Illinois, Utah y Nevada han comenzado a promulgar leyes que restringen específicamente el uso de inteligencia artificial en salud mental por parte de terapeutas, indicando una creciente preocupación regulatoria sobre estas prácticas.

Consideraciones de privacidad y confidencialidad

El uso de inteligencia artificial generativa en sesiones de terapia plantea serias preocupaciones sobre la privacidad de los datos de los pacientes. La mayoría de los modelos de lenguaje público mantienen derechos sobre los datos ingresados para entrenamiento futuro, lo que significa que información sensible de salud mental podría terminar siendo utilizada para mejorar sistemas comerciales de inteligencia artificial. Esta práctica potencialmente viola principios fundamentales de confidencialidad médica.

Además, existe la cuestión de si el procesamiento en tiempo real del audio de la sesión constituye una forma de grabación, lo que normalmente requeriría el consentimiento explícito del paciente según muchos códigos éticos profesionales. Los defensores argumentan que si el audio no se almacena permanentemente, no califica técnicamente como grabación, mientras que los críticos sostienen que el procesamiento temporal aún representa una captura y análisis de la comunicación que merece ser divulgada.

La próxima ola de uso de inteligencia artificial en terapia implica capturar la transmisión de video y analizar las expresiones faciales y mannerismos del paciente durante la sesión. Esta inteligencia artificial ambiental añade otra capa de complejidad ética al ya complicado panorama de la terapia aumentada por algoritmos.

El panorama regulatorio y la evolución de estándares profesionales

Los organismos reguladores y asociaciones profesionales se encuentran en una carrera contra el tiempo para actualizar estándares éticos que aborden específicamente el uso de inteligencia artificial en terapia. Mientras que algunos códigos existentes pueden interpretarse como aplicables a estas nuevas prácticas, muchos expertos argumentan que se necesitan directrices específicas que aborden las particularidades de la inteligencia artificial generativa en contextos clínicos.

La Asociación Americana de Psicología y otros cuerpos profesionales enfrentan el desafío de balancear el potencial beneficioso de estas herramientas con la protección de los derechos de los pacientes y la integridad de la profesión. Las preguntas clave giran en torno a requisitos de divulgación, estándares de competencia en el uso de inteligencia artificial, protocolos de seguridad de datos y límites en la delegación de juicio clínico a sistemas algorítmicos.

Proyección de adopción de inteligencia artificial en prácticas de terapia mental según análisis de tendencias actuales.

El futuro de la relación terapéutica: del dúo al trío

Los analistas predicen que estamos transitando de un modelo de relación terapéutica dual (terapeuta-paciente) hacia un modelo triádico (terapeuta-inteligencia artificial-paciente). Esta transformación fundamental redefine los roles y responsabilidades de cada participante en el proceso terapéutico. En este nuevo paradigma, la inteligencia artificial no es meramente una herramienta pasiva, sino un participante activo con influencia significativa en la dirección y contenido de la terapia.

Esta evolución plantea preguntas existenciales para la profesión: ¿Cómo mantienen los terapeutas su autoridad clínica cuando comparten el espacio terapéutico con sistemas que pueden procesar información a escalas sobrehumanas? ¿Qué constituye la esencia irreducible de la contribución humana en un contexto donde las funciones analíticas y de memoria pueden ser externalizadas efectivamente a algoritmos? Estas cuestiones probablemente definirán el debate profesional en los próximos años.

Recomendaciones para una integración ética

Los expertos en ética médica sugieren varios principios para guiar la integración responsable de inteligencia artificial en la práctica terapéutica. La transparencia absoluta con los pacientes emerge como un requisito fundamental, incluyendo divulgación completa sobre cómo se utiliza la inteligencia artificial, qué datos se procesan y qué salvaguardas de privacidad existen. El consentimiento informado específico para el uso de estas tecnologías debería convertirse en práctica estándar.

Además, los terapeutas deben mantener competencia primaria en las áreas donde utilizan inteligencia artificial como apoyo, evitando la dependencia que podría erosionar sus habilidades clínicas fundamentales. La inteligencia artificial debería conceptualizarse como un instrumento que amplifica rather than reemplaza el juicio clínico humano, con el terapeuta manteniendo responsabilidad última por todas las decisiones y intervenciones.

Escenarios futuros y consideraciones a largo plazo

Terapia híbrida adaptativa: Sistemas que ajustan dinámicamente su nivel de participación según la complejidad del caso y la experiencia del terapeuta

Certificación en competencia de inteligencia artificial: Credenciales profesionales específicas para el uso ético y efectivo de estas herramientas en contextos clínicos

Modelos de negocio transformados: Estructuras de tarifas que reflejan transparentemente el uso de inteligencia artificial y el valor añadido del terapeuta humano

Estándares de interoperabilidad: Protocolos que permitan el uso de inteligencia artificial mientras mantienen los datos del paciente dentro de ecosistemas seguros y privados

Conclusión: navegando la nueva frontera de la práctica clínica

La integración de inteligencia artificial generativa en sesiones de terapia en tiempo real representa una de las transformaciones más significativas en la práctica de la salud mental en décadas. Esta evolución tecnológica ofrece oportunidades genuinas para mejorar la calidad y eficacia de la atención terapéutica, pero también plantea riesgos profundos para la relación terapéutica, la privacidad del paciente y la integridad profesional.

El camino hacia adelante requiere un balance cuidadoso entre la adopción de innovaciones beneficiosas y la protección de los valores fundamentales que han definido históricamente la práctica terapéutica. Los terapeutas, pacientes, reguladores y desarrolladores de tecnología deben colaborar en establecer estándares éticos robustos que permitan aprovechar el potencial de la inteligencia artificial mientras salvaguardan la esencia humana del proceso de curación psicológica.

Como en toda revolución tecnológica, los primeros adoptantes trazan el camino que otros seguirán. La responsabilidad de estos pioneros es particularmente gravitante, ya que sus decisiones y prácticas probablemente influirán en el desarrollo de normas profesionales y expectativas públicas sobre el papel apropiado de la inteligencia artificial en los espacios más íntimos y vulnerables de la experiencia humana.

Referencias

Eliot, L. Mental Health Therapists Are Surprisingly Making Use Of Generative AI During Actual Client Therapy Sessions. Forbes.

American Psychological Association. Ethical Principles of Psychologists and Code of Conduct.

Illinois General Assembly. Mental Health AI Regulation Act.

Utah State Legislature. Artificial Intelligence in Behavioral Health Practice Guidelines.

Nevada Regulatory Board. Standards for Technology-Assisted Therapy.

Frankl, V. E. Man's Search for Meaning.

National Institute of Mental Health. Digital Mental Health Interventions.

Journal of Medical Ethics. AI in Psychotherapy: Ethical Considerations.

Recent Posts

Generated Image November 15, 2025 - 2_58AM

La “granja de portátiles”: el arma secreta de Corea del Norte

  Cinco ciudadanos estadounidenses se declararon culpables de operar ‘granjas de portátiles’ para blan
Read More
815fb62d-1f9f-41f9-8bb7-e8bbde4e5928

De archivador a investigador: la nueva era de NotebookLM

  NotebookLM deja de ser un simple anotador. Sus nuevas funciones de investigación automatizada y generación mult
Read More

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Sign In

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí