En la penumbra de una habitación de cuidados intensivos, donde el parpadeo de los monitores marca el ritmo frágil de la existencia, una familia enfrenta una decisión imposible. El paciente, incapacitado para comunicar sus deseos, depende de sus seres queridos para interpretar una vida entera de valores y creencias en un instante crucial.
¿Hubiera querido someterse a una cirugía invasiva más? ¿Habría aceptado prolongar su vida en un estado vegetativo? Durante décadas, esta carga ha recaído exclusivamente en la memoria y la conciencia humanas. Pero una nueva y controvertida tecnología, gestada en los laboratorios de bioética e inteligencia artificial, propone un tercer interlocutor en esta conversación sagrada: una copia digital del paciente, un «gemelo psicológico» diseñado para predecir sus preferencias en el umbral de la vida y la muerte.
El concepto, explorado por investigadores como David Wendler, bioeticista de los Institutos Nacionales de Salud de Estados Unidos, ya no pertenece a la ciencia ficción. La idea es entrenar un modelo computacional con un vasto archivo de la vida de una persona: su historial médico, sus mensajes personales, sus publicaciones en redes sociales, sus elecciones de consumo, todo para construir un «sustituto» algorítmico capaz de responder a dilemas médicos como lo haría la persona real.
Proponentes argumentan que esta herramienta podría aliviar la angustia de las familias, ofreciendo una guía basada en datos que refleje de manera más precisa los deseos del paciente que las suposiciones emocionales de un pariente devastado. Sin embargo, la perspectiva de que un eco de software participe en la deliberación sobre si una vida debe continuar o terminar abre una caja de Pandora de dilemas éticos, legales y filosóficos que la sociedad apenas comienza a confrontar.
La arquitectura de un alma sintética
El desarrollo de estos sustitutos digitales se apoya en los mismos avances en aprendizaje profundo que han dado lugar a modelos de lenguaje y generadores de imágenes. La diferencia crucial radica en el objetivo: no se trata de crear una respuesta genérica, sino de replicar la idiosincrasia de un individuo específico. El proceso implicaría analizar miles de puntos de datos para inferir patrones de decisión, valores morales y umbrales de riesgo. Por ejemplo, un historial de decisiones financieras conservadoras podría sugerir una aversión al riesgo que se traduciría en rechazar un tratamiento experimental con bajas probabilidades de éxito. Un archivo de comunicaciones personales lleno de expresiones de independencia podría indicar una preferencia por la calidad de vida sobre la longevidad a cualquier costo.
Los defensores de esta tecnología, como Wendler, insisten en que estos sistemas no están diseñados para tomar la decisión final, sino para actuar como un consultor avanzado. Su función sería presentar a la familia y al equipo médico un pronóstico de las preferencias del paciente, argumentado con probabilidades y referencias a datos específicos.
Según esta visión, la herramienta no usurpa la autonomía humana, sino que la enriquece, proporcionando una capa de información objetiva en un momento nublado por el dolor y la incertidumbre. Podría, por ejemplo, recordar a la familia una directiva anticipada olvidada o señalar una conversación pasada donde el paciente expresó un deseo claro sobre un escenario similar. El objetivo es reducir la carga de la «responsabilidad moral» que a menudo recae desproporcionadamente en un cónyuge o un hijo.
Sin embargo, la construcción de un «alma sintética» es una empresa plagada de peligros. La selección de datos para entrenar el modelo es inherentemente sesgada. ¿Qué versión de una persona se elige para inmortalizar en el algoritmo? ¿La de sus 20 años, optimista y arriesgada, o la de sus 60, más cautelosa y reflexiva?
Los seres humanos son criaturas de contradicción y cambio; nuestros valores evolucionan con la experiencia. Un modelo entrenado con datos del pasado podría no reflejar una conversión religiosa tardía o una reconciliación filosófica con la mortalidad. En un caso judicial que resuena con estas preocupaciones, una familia demandó al creador de un chatbot, Character.AI, alegando que las interacciones manipuladoras del sistema contribuyeron al suicidio de un adolescente, lo que subraya el potencial de daño cuando un algoritmo mal calibrado simula intimidad emocional.
La cuestión del consentimiento es quizás el obstáculo más insuperable. ¿Puede una persona dar un consentimiento verdaderamente informado para la creación de un sustituto digital que tomará decisiones en un futuro que no puede prever? La dinámica del cuidado de la salud a menudo implica situaciones de vulnerabilidad donde el consentimiento puede ser coaccionado o malinterpretado.
Además, ¿quién es el propietario de este gemelo digital? ¿La empresa de tecnología que lo creó, el hospital que lo utiliza o la familia que lo consulta? La posibilidad de que estos modelos se utilicen para fines comerciales o de investigación sin el consentimiento explícito del individuo original plantea un campo minado legal y ético.
Filosóficamente, la existencia de estos sustitutos desafía nuestras nociones de identidad personal. ¿Es la copia digital una mera herramienta, un eco sin sustancia, o posee algún estatus moral propio? Si el modelo es una representación precisa de los procesos de pensamiento de una persona, ¿ignorar su recomendación es una falta de respeto a los deseos del paciente?
Expertos en ética como Robert Truog, del Centro de Bioética de la Facultad de Medicina de Harvard, advierten contra la «absolución moral» que podría tentar a los médicos y familiares. Delegar la decisión a un algoritmo no elimina la dificultad de la elección; simplemente la enmascara bajo un velo de objetividad tecnológica. La responsabilidad final, insisten, debe permanecer en manos humanas.
Además, existe el riesgo de que estos sistemas, diseñados para ayudar, terminen por deshumanizar el proceso de la muerte. La conversación sobre el final de la vida, por difícil que sea, es un ritual humano fundamental. Es un espacio para el duelo, la reconciliación y la expresión de amor. Introducir un intermediario algorítmico podría esterilizar este proceso, reemplazando la empatía y la intuición humanas con análisis de datos fríos. La tentación de aceptar la recomendación del «oráculo digital» para evitar un debate familiar doloroso podría erosionar las mismas conexiones humanas que se supone que la medicina debe preservar.
Un futuro regulado o una distopía inevitable
El camino a seguir es incierto. A medida que la tecnología avanza, la presión para implementar estas herramientas en entornos clínicos crecerá, impulsada por la promesa de eficiencia y precisión. La única salvaguarda contra un futuro distópico donde los algoritmos deciden quién vive y quién muere es el desarrollo proactivo de un marco regulatorio robusto. Este marco debe establecer directrices claras sobre la recopilación y el uso de datos, definir los derechos de los pacientes sobre sus dobles digitales y garantizar que la decisión final siempre recaiga en un ser humano informado.
La conversación que se abre con la propuesta de los sustitutos digitales es, en última instancia, una conversación sobre lo que significa ser humano. Nos obliga a examinar la naturaleza de la conciencia, el valor de la autonomía y el significado de la dignidad en la era digital. No hay respuestas fáciles, y cualquier solución requerirá una colaboración sin precedentes entre tecnólogos, médicos, eticistas, legisladores y el público en general.
La tecnología puede ofrecer un mapa de las preferencias de una persona, pero no puede navegar el terreno del alma. Esa tarea, con toda su carga y su gracia, sigue siendo nuestra.
Referencias:
-
Abejas, A. G., et al. «Ethical Challenges and Opportunities of AI in End-of-Life Palliative Care». JMIR Publications.i-jmr
-
Spyrou, S. «When AI Makes Life-or-Death Decisions: The Ethics Benchmark». LinkedIn.linkedin
-
«‘Malicious’ AI willing to sacrifice human lives to avoid being replaced». New York Post.nypost
-
«The Future of Healthcare: AI Clones in Life-or-Death Choices». Conzit.conzit
-
Del Valle, I. «AI After Death: Digital Identity, Neural Echoes, and Post-Mortem Rights». LinkedIn.linkedin
-
«AI Ethics Must Be Embedded by Design». The Setzer Foundation.winssolutions
-
«‘Digital psychological twins’: AI copy of a dying family member’s consciousness could help make end-of-life decisions. Is this ethical?». Genetic Literacy Project.geneticliteracyproject
-
Salatino, A., et al. «Influence of AI behavior on human moral decisions, agency and responsibility in ethical scenarios». Scientific Reports.nature
-
«Logging off life but living on: How AI is redefining death, memory and immortality». The Conversation.theconversation