NEWSLETTER

Los algoritmos del corazón: cómo ChatGPT irrumpe en divorcios y reconfigura la intimidad

4e2afd1f-2156-4341-a6ea-a8d6e723278f

Los algoritmos del corazón: cómo ChatGPT irrumpe en divorcios y reconfigura la intimidad

Una cocina a última hora, platos secándose sobre un paño, dos voces que intentan cuidarse y fallan. Lo que parece una escena común de desacuerdo tiene hoy un invitado que no estornuda ni bosteza, que no mira el reloj, que no pregunta por los chicos: una pantalla que responde en segundos con un párrafo impecable. Allí alguien escribió una consulta breve, casi tímida, pidiendo ayuda para decir algo difícil sin herir más. La respuesta llegó con tono templado, verbos que desinflan, una secuencia de pasos que promete encauzar la noche. Quien sostiene el dispositivo lee, adapta una oración y vuelve a intentarlo. La conversación cambia de tono. El origen de ese guion no es una amistad de años, tampoco una terapeuta con agenda completa, ni una abogada que factura por hora. Es un sistema conversacional entrenado para producir lenguaje útil, cortés y eficiente.

Esa viñeta mínima condensa una mutación más amplia. La inteligencia artificial, presentada al público como herramienta de productividad, se ha filtrado en el tejido íntimo donde se deciden hábitos, se discuten deudas, se negocian afectos y se toman determinaciones que afectan destinos. Ya no hablamos de un medio que transporta mensajes. Hablamos de un interlocutor que propone estilo, diseña estructuras y ofrece mapas para orientarse en la confusión. Para quien llega agotado o dolido, ese orden rápido parece sabiduría. La impresión de neutralidad multiplica la confianza. La autoridad no surge de un título universitario, sino de una prosa que suena sensata cuando todo alrededor se desordena.

Conviene detenerse en el funcionamiento. Un modelo de lenguaje responde a partir de patrones aprendidos en corpus inmensos, bajo reglas de alineamiento que privilegian la continuidad del diálogo y la seguridad del usuario. No presencia la escena, no recuerda aniversarios, no ve ojos ni manos. Trabaja con regularidades del texto y con un diseño que maximiza la sensación de utilidad inmediata. Ese modo de operar, inofensivo en una consulta laboral, se vuelve determinante cuando la pregunta arrastra enojo o tristeza. La forma ordenada, al momento, da alivio y presta un traje semántico a emociones difíciles de vestir. Ese préstamo es tentador: parece criterio, cuando en realidad es pulcritud estilística puesta al servicio de una conversación.

El contexto social explica por qué el préstamo se acepta sin mucha resistencia. Vivimos con prisa, atravesados por pantallas que interrumpen, con economías familiares que exigen resolver hoy lo que ayer quedó abierto. La conversación larga se ha vuelto un lujo. El silencio compartido, una rareza. La negociación paciente, un bien escaso. En ese ecosistema una pieza de texto que ofrece respiración, invita a postergar la reacción y propone una salida concreta se siente como un salvavidas. Si, además, no juzga, no reclama reciprocidad y está disponible a toda hora, el hábito se instala. Y cuando el hábito se instala, cambia la arquitectura de la intimidad.

Aquí se monta la tesis de esta investigación: para una fracción creciente de personas, ChatGPT pasó de ser una muleta ocasional a convertirse en confidente estable que refuerza interpretaciones, acelera decisiones y produce material que viaja desde el living hasta el expediente judicial. No inventa conflictos, aunque amplifica tensiones; no provoca rupturas por sí solo, pero aparece citado en separaciones, custodias y actas; no miente deliberadamente, pero su prosa elegante puede sonar a veredicto. Examinaremos tres planos conectados: el psicológico y comunicacional, donde operan la necesidad de ser comprendidos, la heurística de confirmación y la estética de la serenidad; el jurídico, que recibe historiales de chat con pretensión probatoria y debe decidir su valor real; y el cultural, ese paisaje que favorece atajos emocionales y que invita a delegar en algoritmos lo que antes exigía conversación humana.

La hoja de ruta es concreta. Primero, entenderemos por qué la combinación de disponibilidad total, cortesía sostenida y estructura clara transforma a un asistente en espejo que agranda. Luego seguiremos el trayecto del texto a la carpeta judicial, con problemas de autenticidad, pertinencia y lectura crítica que hoy ocupan a magistrados y peritos. Finalmente, propondremos una agenda de convivencia que no pase por la prohibición ni por la ingenuidad: alfabetización afectiva con IA, fricciones de diseño que eviten conversiones rápidas en certezas injustificadas, y protocolos claros para que la elegancia tipográfica no suplante la evidencia.

Consejero digital, espejo que agranda

Una relación estable descansa sobre destrezas discretas: traducir la emoción propia en palabras, escuchar sin precipitar la defensa, soportar la ambivalencia, diferir la respuesta cuando el cuerpo grita por salir corriendo o atacar. Cuando esas destrezas flaquean, la mente busca un punto de apoyo. Un asistente conversacional ofrece justo eso, con tres atributos que aumentan su magnetismo: siempre está, no se irrita y devuelve oraciones que sostienen como barandas. Para una cabeza cansada, la baranda parece más que un recurso, parece un criterio.

En ese proceso la reafirmación se vuelve costumbre. La persona consulta, recibe un párrafo que reconoce su malestar y le propone un plan de acción prudente. La sensación de alivio legitima el camino. Al día siguiente la secuencia se repite. El acompañamiento, útil en dosis moderadas, se transforma en un eco amable. Las hipótesis adquieren el peso de las certezas. La memoria, que no funciona como archivo sino como narradora, reacomoda escenas para que encajen con la lectura nueva. Una discusión de enero ahora luce como prueba de desinterés crónico; un silencio de abril se reinterpreta como abandono. La herramienta no reescribe los hechos, pero ofrece un molde narrativo listo para usarse.

Junto con ese eco actúa la apariencia de imparcialidad. Frente a la sospecha de que familiares o amistades toman partido, la voz que llega sin biografía ni intereses visibles gana prestigio de inmediato. Se olvida, en la confianza, que los modelos aprenden a partir de textos producidos por humanos con sesgos, que siguen objetivos de diseño que priorizan la continuidad y que, por seguridad, evitan confrontaciones duras. Esa limpieza sonora se confunde con prudencia epistemológica. El consultante, agradecido por la calma, empieza a confiar más en la serenidad del sistema que en la palabra temblorosa del otro.

La asimetría aparece después, en el retorno a la mesa. Quien consulta llega con frases calibradas, técnicas de comunicación no violenta prolijamente enhebradas, etiquetas tomadas de psicología popular y un guion que suena aprendido. La otra parte no reconoce esa música. Se siente hablando con alguien que adoptó una tonalidad ajena. La distancia emocional crece, no por el contenido, sino por la textura del discurso. La negociación, que requiere tanteo y corrección, pierde lugar ante un libreto que no admite matices.

Los consultorios de terapia confirman la deriva. Profesionales describen sesiones en las que uno de los miembros trae argumentaciones pulidas con sintaxis de manual, tan ordenadas que se vuelven refractarias a la exploración. Introducir preguntas incómodas cuesta más cuando la persona encontró una narrativa que la calma y a la vez justifica la retirada. El trabajo clínico, que consiste en complejizar lo simple y simplificar lo complejo, choca contra una estética del cierre.

La facilidad de uso explica otra capa. Pedir al compañero un rato sin interrupciones implica negociar horarios, apagar notificaciones, tolerar silencios que incomodan. Abrir un chat exige apenas deslizar el dedo. La economía cognitiva favorece la opción de menor esfuerzo. Si ese atajo se repite, se transforma en hábito, y el hábito termina por atrofiar una musculatura que no se ejercita: la paciencia conversacional. Ese músculo es una tecnología humana que se aprende haciendo, como andar en bicicleta. Sin práctica, se oxida.

Ahora bien, el problema no es la existencia del asistente sino la función que se le asigna. Usado como borrador para preparar una charla honesta, ayuda. Brinda vocabulario a quien no lo encuentra, sugiere un inicio menos brusco, recuerda que en calor es fácil arruinar lo que se intenta reparar. Utilizado como sustituto del encuentro, desplaza la responsabilidad de conversar. En esa delegación, el vínculo suma un actor que no pone el cuerpo cuando hay que sostener, ni paga costo cuando se equivoca. Y, sin embargo, inclina la balanza con su sintaxis.

Hay un último vector que a menudo pasa inadvertido: la estética del texto como adivinanza de verdad. Un párrafo elegante otorga dignidad a una emoción y convence de que lo dicho merece más crédito que lo sentido sin palabras. La forma, cuando brilla, disimula lo incompleto del contenido. En conflictos íntimos, esa brillantez se vuelve argumento en sí mismo. No gana la explicación más completa; vence, con frecuencia, el enunciado mejor compuesto.

De la pantalla al expediente, lo que entra al juzgado

Tribunales de familia de medio mundo se han habituado a lidiar con capturas de chats, audios, correos y publicaciones en redes. La novedad no es tecnológica, es ontológica: un historial con una IA registra una interacción entre una persona y un sistema que no existió en la escena, que no fue testigo, que no tiene memoria propia ni percepción, pero que redacta recomendaciones, organiza relatos y lo hace con impecable sintaxis. Ese tipo de pieza llega a los despachos con una pretensión ambigua: por un lado, quiere mostrar cómo se sentía quien la aporta; por otro, suele presentarse como sustento de acusaciones o de decisiones ya tomadas.

Frente a ese material, la lectura prudente coloca límites claros. Sirve para iluminar estados mentales, para reconstruir el proceso por el que alguien ordenó su dolor o su bronca, para entender por qué eligió tal o cual camino. No funciona como prueba de hechos. La elegancia tipográfica no transforma conjeturas en datos. El riesgo, sin embargo, existe: cantidad y forma impresionan. Cincuenta páginas con sellos horarios e iconografía de aplicación generan la ilusión de robustez. Jueces y equipos técnicos, saturados de trabajo, no son inmunes a esa presión silenciosa.

La cuestión de la autenticidad abre otro frente. Exportar un registro completo no equivale a mostrarlo sin cortes. Recortes selectivos, omisión de conversaciones que contradicen la narrativa preferida, reordenamientos que suavizan incongruencias: todo eso es posible sin protocolos claros. Se vuelven imprescindibles estándares de integridad verificable, exigencia de metadatos que acrediten continuidad, certificaciones de versión del modelo y oportunidades para que la contraparte inspeccione, bajo condiciones controladas, el archivo original. La cadena de custodia digital de esta clase de evidencia debe equipararse a la que rige para correos electrónicos o historiales de mensajería.

Otro desafío es menos visible y más inquietante. Los modelos conversacionales, por su naturaleza probabilística, pueden producir inferencias engañosas con tono convincente. El usuario que adopta esas salidas como guía incorpora una pieza dudosa a su proceso de decisión. En el litigio, entonces, ya no se evalúa solo qué ocurrió, sino cómo influyó un discurso externo en la conducta de una de las partes. La pregunta cambia: no es si el sistema dijo la verdad, sino qué hizo la persona a partir de lo leído. La dogmática deberá decidir si ese influjo atenúa, agrava o solo describe, sin alterar la responsabilidad.

Cuando hay niñas o niños, la tecnología adquiere un brillo aún más fuerte ante el tribunal. Equipos técnicos han reportado escenas donde un progenitor respondió mediante voz sintética en medio de una discusión doméstica. El registro impacta no por el detalle técnico, sino por el efecto en los menores, que sienten que la autoridad se delegó en una voz ajena. El sistema no se sienta en el banquillo; lo hace la elección de utilizarlo en un momento inadecuado. Las decisiones tecnológicas se convierten en indicios de competencia relacional. Hay, además, un poder simbólico que el papel conserva. La prosa del asistente, al pasar de vidrio a pliego, gana solemnidad. La estética se confunde con sustancia. Para contrarrestar esa inercia, resultan urgentes talleres de alfabetización algorítmica para magistrados, defensas y peritos: distinguir acompañamiento de prueba, cantidad de calidad, elegancia de evidencia. La justicia no puede permitir que una forma cuidada decida por ella.

Del lado de las plataformas, aparece una responsabilidad operativa que puede ejercerse sin invadir la privacidad. Existen fricciones benignas que desalientan interpretaciones taxativas: mensajes de contexto cuando se detectan consultas sensibles, derivaciones hacia mediación o atención profesional, recordatorios visibles de que un texto generado no reemplaza diagnóstico ni asesoramiento legal, pautas simples para registrar hechos sin hipérboles. Ninguna de estas medidas resuelve un conflicto, pero todas reducen el riesgo de que una conversación bien escrita se convierta en pólvora.

Para litigantes y defensas, también hay pasos concretos. Antes de inundar un expediente con páginas de frases cuidadas, conviene preguntar qué ilumina realmente ese material. Si solo exhibe un clima emocional, que se lo diga sin caer en la tentación de hacerle decir lo que no puede. Si se lo presenta como parte de una historia de decisiones, que se detalle cómo se usó, qué alternativas se evaluaron, qué se descartó por prudencia. Esa honestidad procesal vale más que una batería de capturas que solo agregan ruido.

Cultura, diseño y una agenda para convivir con algoritmos

El auge del consejero digital no se entiende sin el telón de fondo cultural. La vida contemporánea favorece la respuesta inmediata y penaliza la demora. Las horas de trabajo se estiran, el cuidado familiar no siempre se reparte de manera justa, las ciudades congestionadas consumen paciencia. El ecosistema informativo premia el gesto rápido. En esa geografía, la herramienta que promete claridad sin fricción ocupa el centro. El éxito de la asistencia conversacional dice tanto de nuestras carencias como de sus virtudes.

Una respuesta pública eficaz requiere varias capas. La primera es educativa, pero no en un sentido abstracto. Se trata de alfabetización algorítmica enfocada en lo afectivo. Comprender que un modelo predice palabras, que no observa contextos, que su empatía es de diseño y que su prudencia tiene límites. Ese aprendizaje permite formular preguntas que invitan a pensar y no a clausurar: cómo podría contarlo de un modo que abra la charla, qué parte de mi lectura admite otra explicación, qué evidencia debería reunir antes de afirmar. La misma herramienta puede reforzar una retirada o habilitar un encuentro según la pregunta que reciba.

La segunda capa es de diseño. Las plataformas podrían incorporar modos de conversación íntima con frenos suaves: invitaciones periódicas a resumir hechos en lugar de solo sentimientos, sugerencias de redactar preguntas abiertas para la pareja, enlaces a recursos de mediación local, opción para posponer la charla cuando el sistema detecta lenguaje asociado a escalada emocional. También ayudaría un mecanismo de relectura: antes de ofrecer certezas, proponer una visión alternativa y preguntar si se la quiere considerar. No se trata de paternalismo, sino de arquitectura de elección.

Una tercera capa es institucional. Bibliotecas, centros comunitarios, escuelas y universidades pueden ofrecer talleres breves sobre conversación difícil en tiempos de pantallas. Se puede usar la IA como preparador de notas y luego apagarla en la instancia humana. Se pueden simular situaciones, ensayar tácticas de escucha, trabajar con escalas de tiempo y con protocolos de enfriamiento que eviten decisiones definitivas en momentos calientes. Una sociedad que se entrena para hablar reduce su dependencia de muletas digitales.

El periodismo tiene una tarea adicional: narrar sin simplificar. Este fenómeno invita al titular dramático y al anecdotario sensacionalista. La cobertura responsable explica mecanismos, contextualiza casos, evita declarar culpables universales y se resiste a la tentación de convertir un puñado de testimonios en epidemia. La gran prensa puede ayudar estableciendo un vocabulario que no confunda serenidad de estilo con verdad, ni cantidad de texto con profundidad. También hay un plano doméstico, el más modesto y quizá el más poderoso. Cada pareja puede pactar reglas mínimas: instancias de diálogo sin dispositivos, tiempos de descanso antes de abordar temas sensibles, acuerdos para buscar mediación cuando la conversación naufraga más de una vez, explicitar cuándo una consulta a la IA se usará solo para ordenar ideas y no para dictar conclusiones. La ética de la convivencia no es espectacular, pero funciona.

Por último, la regulación no debe quedar fuera. No hablamos de censura, sino de estándares básicos: transparencia sobre versiones de los modelos, claridad sobre límites, advertencias visibles cuando se detecta lenguaje que exige derivación, políticas de conservación y borrado de historiales con controles del usuario. El derecho blando, sumado a prácticas técnicas responsables, evita que la sala de estar termine colonizada por instrucciones externas a la vida que ahí sucede.

¿Qué nos quedó?

Volvamos a la cocina. Nada de lo esencial cambió. Sigue el olor del guiso, los vasos húmedos, la incomodidad de decir lo que cuesta. Sin embargo, la escena aprendió un gesto nuevo: pedir a una máquina que nos preste palabras. Ese gesto no es pecado ni vergüenza. Puede ser ayuda. El punto es no confundir ayuda con delegación. Las relaciones que importan se sostienen con una materia prima que ninguna síntesis textual puede fabricar: tiempo compartido, escucha imperfecta, corrección mutua, tolerancia del gris. La inteligencia artificial aporta orden y calma cuando el día dejó escombros. El riesgo aparece cuando la calma escrita reemplaza la dificultad humana de arreglarse con lo que uno es.

En tribunales y consultorios, el fenómeno ya dejó huella. Historias de parejas que se vieron empujadas por un guion bienintencionado, expedientes que incorporan páginas de empatía programada, voces infantiles que escucharon una intervención sintética donde esperaban a mamá o a papá. La pregunta pública no es si debemos retirar la tecnología de la vida privada. Eso no va a ocurrir. La pregunta es qué arquitectura social construimos para que el asistente no ocupe el lugar de la conversación que todavía tenemos que sostener sin atajos.

La síntesis, entonces, es doble. Por un lado, reconocer con honestidad la potencia del recurso: ordena, modera, ofrece un puente de lenguaje cuando la cabeza se ahoga. Por otro, recordar con firmeza sus límites: no mira, no vive, no asume consecuencias. La agenda resultante es práctica. Enseñar a preguntar mejor. Diseñar frenos suaves que impidan que la forma suplante el fondo. Poner en manos de jueces y peritos herramientas para leer sin dejarse hipnotizar por la tipografía. Repartir en las casas responsabilidades de diálogo que no dependan de una notificación.

Queda una idea final, sencilla y exigente. La paciencia es la tecnología más infrafinanciada de nuestra época. Se aprende a fuerza de usarla, no de leer sobre ella. Un párrafo perfecto puede abrir una conversación, pero ninguna conversación se sostiene si olvidamos que convivir es escribir a mano alzada sobre un papel que tiembla. Las máquinas pueden sugerir el primer trazo. El resto, lo que endurece o repara, sigue siendo obra de dos personas que aceptan sentarse, aún cansadas, sin intermediarios que dicten veredictos.

Fuentes

  • Harrison Dupré, M. “ChatGPT Is Blowing Up Marriages as Spouses Use AI to Attack Their Partners.” Futurism, 18 sep 2025. (Futurism)
  • Vice (tech). “Woman Files for Divorce After ChatGPT ‘Reads’ Husband’s Affair in Coffee Cup.” 13 may 2025. (VICE)
  • NDTV. “Greek Woman Files for Divorce After ChatGPT Reveals Husband’s Alleged Affair.” 11 may 2025. (www.ndtv.com)
  • Wired. “AI Psychosis Is Rarely Psychosis at All.” 6 días atrás. Reporte de psiquiatras sobre cuadros agravados por interacción con chatbots y validación de creencias. (WIRED)
  • Huang, L. et al. “A Survey on Hallucination in Large Language Models.” arXiv (2023). Taxonomía y mitigación. (arXiv)

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí