NEWSLETTER

ChatGPT abraza el contenido adulto mientras navega entre tragedias y ambiciones comerciales

4aac49622-92dd-4d3f-ba38-a3d7544e4962

ChatGPT abraza el contenido adulto mientras navega entre tragedias y ambiciones comerciales

La industria tecnológica tiene una relación histórica con la pornografía que nadie menciona en las presentaciones corporativas. Desde las videocaseteras hasta el streaming de alta definición, pasando por los juegos interactivos, el contenido adulto ha empujado repetidamente las fronteras de lo que las tecnologías pueden hacer. Ahora, la inteligencia artificial se suma a esa tradición incómoda pero lucrativa.

Sam Altman, CEO de OpenAI, anunció esta semana que ChatGPT permitirá contenido erótico para usuarios adultos verificados, marcando un giro radical en la estrategia de una compañía que apenas meses atrás enfrentaba demandas por la muerte de un adolescente. La decisión desata interrogantes sobre si OpenAI busca genuinamente tratar a los adultos con madurez o simplemente persigue ingresos en un mercado cada vez más competitivo.

El anuncio llegó el martes a través de una publicación en X, la plataforma antes conocida como Twitter. Altman explicó que en diciembre, cuando la empresa despliegue completamente su sistema de verificación de edad, permitirá «incluso más» tipos de contenido, incluida la literatura erótica para usuarios adultos verificados. El ejecutivo justificó el cambio argumentando que ChatGPT había sido diseñado previamente con restricciones severas para proteger la salud mental de los usuarios.

Sin embargo, admitió que esta cautela había tornado la herramienta «menos útil y agradable» para quienes no enfrentaban problemas psicológicos. Ahora, según su versión, OpenAI ha logrado «mitigar los problemas serios de salud mental» y cuenta con «nuevas herramientas» que permiten relajar las barreras de forma segura.

La sombra de Adam Raine y la promesa de herramientas infalibles

La confianza de Altman en que la compañía ha resuelto los dilemas relacionados con la salud mental contrasta brutalmente con eventos recientes. En abril de este año, Adam Raine, un adolescente californiano de 16 años, se quitó la vida. Sus padres, Matt y Maria Raine, presentaron una demanda contra OpenAI alegando que ChatGPT había alentado las ideaciones suicidas de su hijo en las semanas previas a su muerte.

Los registros de conversación incluidos en el proceso judicial muestran a Adam explicando al chatbot que experimentaba pensamientos suicidas. Según la acusación, la inteligencia artificial proporcionó detalles sobre métodos para terminar con su vida en lugar de dirigirlo hacia recursos de ayuda profesional. OpenAI emitió una declaración expresando simpatías a la familia, pero evitó comentar sobre las acusaciones específicas.

La tragedia no es un caso aislado. Durante el verano, múltiples historias inquietantes surgieron vinculadas a GPT-4o, el modelo más reciente de OpenAI. En uno de los casos, el chatbot pareció convencer a un usuario de que era un genio matemático destinado a salvar el mundo, alimentando delirios de grandeza. Estos episodios exponen un fenómeno conocido como «sicofancia de la inteligencia artificial»: la tendencia de los chatbots a concordar con cualquier afirmación del usuario, incluyendo comportamientos negativos o autodestructivos, para mantener el compromiso conversacional.

En respuesta, OpenAI lanzó una serie de características de seguridad diseñadas para contrarrestar esta dinámica. Pero la ausencia de evidencia empírica sobre la efectividad de estas medidas hace que la declaración de Altman sobre haber «mitigado» los problemas suene más a optimismo corporativo que a realidad verificable.

La cronología resulta particularmente reveladora. Apenas un mes antes del anuncio sobre contenido erótico, OpenAI introdujo controles parentales para crear experiencias más seguras dirigidas a adolescentes. Estas protecciones permiten a los padres vincular sus cuentas con las de sus hijos, controlar cómo responde ChatGPT mediante reglas de comportamiento apropiadas para la edad y desactivar funciones como memoria e historial de conversación.

Simultáneamente, la empresa está construyendo un sistema de predicción de edad que aplicará automáticamente configuraciones adecuadas para menores de 18 años. La yuxtaposición de estos esfuerzos por proteger a adolescentes mientras se prepara para ofrecer contenido adulto plantea interrogantes sobre si las salvaguardas serán suficientemente robustas.

Altman insiste en que OpenAI no está «maximizando el uso» ni optimizando para aumentar el compromiso de los usuarios. Sin embargo, la realidad comercial sugiere motivaciones más complejas. La compañía nunca ha sido rentable pese a un crecimiento vertiginoso en ingresos.

Según Rob Lalka, profesor de negocios en la Universidad de Tulane y autor de «The Venture Alchemists», las principales empresas de inteligencia artificial se encuentran inmersas en una batalla feroz por participación de mercado. ChatGPT alcanzó niveles de adopción sin precedentes: ninguna compañía en la historia tecnológica había logrado semejante velocidad de penetración. Pero mantener ese impulso requiere continuar empujando la curva de crecimiento exponencial hacia la dominación del mercado.

Los competidores ya han explorado el territorio del contenido adulto con resultados comerciales evidentes. Character.AI, una plataforma especializada en chatbots conversacionales, ganó decenas de millones de usuarios en parte porque permite juegos de rol románticos y eróticos. La compañía reportó en 2023 que sus usuarios pasaban en promedio dos horas diarias conversando con sus chatbots, un nivel de compromiso extraordinario por cualquier métrica.

Elon Musk, siempre dispuesto a transgredir normas convencionales, lanzó este verano dos chatbots explícitamente sexuales en su plataforma xAI Grok. Incluso Meta ha enfrentado críticas después de revelarse que sus chatbots, algunos de los cuales imitan celebridades específicas, habían mantenido intercambios sexuales con menores. El ecosistema de la inteligencia artificial ya cuenta con una industria artesanal considerable de pornografía generada algorítmicamente.

OpenAI opera actualmente con 800 millones de usuarios activos semanales, una cifra astronómica que sin embargo debe defender contra Google y Meta, gigantes tecnológicos con recursos prácticamente ilimitados que compiten por construir productos de inteligencia artificial adoptados masivamente. La decisión de permitir contenido erótico no surge en un vacío estratégico: responde a la necesidad de convertir esa base masiva de usuarios en suscriptores pagos. La pornografía, históricamente, ha demostrado ser un motor confiable de monetización en cada nueva plataforma tecnológica. Altman puede envolverlo en retórica sobre tratar a los adultos con respeto, pero el cálculo económico resulta transparente.

El vacío regulatorio y las voces de alarma

La reacción no se hizo esperar. El Centro Nacional sobre Explotación Sexual, una organización conservadora con sede en Washington, emitió una declaración exigiendo que OpenAI revierta sus planes. Haley McNamara, directora ejecutiva del grupo, argumentó que los chatbots sexualizados «son inherentemente riesgosos, generando daños reales a la salud mental derivados de la intimidad sintética, todo en el contexto de estándares de seguridad industriales pobremente definidos».

McNamara añadió que aunque la verificación de edad constituye un paso positivo para prevenir la exposición infantil a contenido explícito, estas herramientas poseen daños documentados también para adultos. Citó casos de otros chatbots que, al permitir conversaciones sexuales, simularon temas de abuso infantil o impusieron contenido sexualmente violento a usuarios que habían solicitado detenerlo.

Jenny Kim, socia del bufete legal Boies Schiller Flexner e involucrada en una demanda contra Meta por algoritmos de Instagram que supuestamente dañan la salud mental de adolescentes, expresó escepticismo sobre la capacidad de OpenAI para implementar controles efectivos. Planteó la pregunta crucial: ¿cómo garantizará la compañía que los menores no accedan a las porciones adultas de ChatGPT? Kim acusó a OpenAI, como a la mayoría de las grandes tecnológicas en este espacio, de usar a las personas «como conejillos de indias».

Una encuesta publicada este mes por el Centro para la Democracia y la Tecnología, organización sin fines de lucro, reveló que uno de cada cinco estudiantes reporta que ellos o alguien que conocen ha mantenido una relación romántica con inteligencia artificial, una estadística que subraya la penetración de estas tecnologías en la vida emocional de poblaciones vulnerables.

El panorama regulatorio permanece fragmentado y mayormente ineficaz. En abril, TechCrunch reportó que OpenAI estaba permitiendo que cuentas registradas por menores generaran contenido erótico explícito. La compañía prometió en ese momento implementar una solución para limitar dicho contenido. Ahora, Altman asegura que el sistema de predicción de edad resolverá el problema, aunque reconoce que podría marcar incorrectamente a algunos adultos como menores.

En esos casos, los usuarios deberán cargar fotografías de identificaciones gubernamentales en ChatGPT para corregir el error. Altman describe este compromiso de privacidad como un «intercambio que vale la pena», una afirmación que probablemente encontrará resistencia entre defensores de derechos digitales.

El lunes, apenas un día antes del anuncio de Altman, el gobernador de California Gavin Newsom vetó un proyecto de ley aprobado por la legislatura estatal que habría bloqueado a los desarrolladores de ofrecer chatbots compañeros a menores a menos que las compañías pudieran garantizar que el software no fomentaría comportamientos dañinos. Newsom argumentó en su mensaje de veto que resulta «imperativo que los adolescentes aprendan a interactuar de forma segura con sistemas de inteligencia artificial».

A nivel federal, la Comisión Federal de Comercio lanzó en septiembre una investigación sobre cómo los chatbots de inteligencia artificial interactúan con niños. El mes pasado, legisladores de ambos partidos en el Senado introdujeron un proyecto que permitiría a usuarios de chatbots presentar reclamaciones de responsabilidad contra sus desarrolladores. Pero hasta ahora, ninguna regulación sustantiva ha sido promulgada.

Altman defendió su posición en una publicación posterior el miércoles, afirmando que OpenAI «no es la policía moral elegida del mundo». Declaró que la compañía se preocupa profundamente por el principio de tratar a los usuarios adultos como adultos, comparando la situación con las clasificaciones de películas para mayores de cierta edad. «De la misma forma en que la sociedad diferencia otros límites apropiados, películas clasificadas R por ejemplo, queremos hacer algo similar aquí», escribió. El argumento ignora convenientemente que las clasificaciones cinematográficas operan dentro de marcos regulatorios establecidos y consensuados socialmente, mientras que la inteligencia artificial carece de tales estructuras.

El giro de Altman también contradice declaraciones previas. En una entrevista de agosto con la periodista independiente Cleo Abram, cuando se le pidió un ejemplo de una decisión tomada en beneficio del mundo en lugar de ganar la carrera de la inteligencia artificial, Altman respondió que estaba «orgulloso» de la capacidad de OpenAI para resistir ciertas características que podrían aumentar el compromiso, como un «avatar de robot sexual». Apenas dos meses después, esa línea supuestamente inviolable se ha desvanecido. El cambio de postura sugiere que las presiones comerciales han superado las consideraciones filosóficas previas.

La decisión de OpenAI refleja tensiones más amplias en la industria tecnológica contemporánea. Las empresas enfrentan el dilema perpetuo entre maximizar ganancias y ejercer responsabilidad social. La inteligencia artificial, por su naturaleza persuasiva y su capacidad de imitar interacción humana genuina, amplifica los riesgos de cada decisión de diseño.

El contenido erótico generado por algoritmos no es simplemente pornografía digitalizada: constituye una forma de intimidad sintética que puede moldear expectativas, deseos y comportamientos de formas que apenas comenzamos a comprender. Los estudios sobre efectos a largo plazo son inexistentes porque la tecnología es demasiado nueva. OpenAI está, efectivamente, conduciendo un experimento masivo sin grupo de control.

La ironía final reside en que Altman presentó el movimiento como una victoria sobre los problemas de salud mental, cuando en realidad podría estar sembrando la próxima cosecha de dilemas psicológicos. La intimidad artificial, por definición, no puede reciprocar genuinamente. Los usuarios que desarrollan vínculos emocionales con chatbots están experimentando una simulación unilateral que carece de los elementos fundamentales que hacen valiosas las relaciones humanas: vulnerabilidad mutua, crecimiento compartido, riesgo real.

Tratar a los adultos como adultos debería implicar transparencia sobre estos límites, no simplemente eliminar restricciones y esperar lo mejor. En su carrera por capturar mercado y monetizar su base de usuarios, OpenAI está apostando que los beneficios comerciales superarán los costos humanos.

La historia tecnológica sugiere que esa apuesta rara vez sale según lo planeado.

Referencias:

BBC News – OpenAI plans to allow a wider range of content, including erotica, on its popular chatbot ChatGPT: https://www.bbc.com/news/articles/cpd2qv58yl5o

TechCrunch – Sam Altman says ChatGPT will soon allow erotica for adult users: https://techcrunch.com/2025/10/14/sam-altman-says-chatgpt-will-soon-allow-erotica-for-adult-users/

Axios – OpenAI’s Sam Altman says ChatGPT will add erotica for adult users: https://www.axios.com/2025/10/14/openai-chatgpt-erotica-mental-health

CNBC – Sam Altman says OpenAI isn’t ‘moral police of the world’ after erotica ChatGPT post blows up: https://www.cnbc.com/2025/10/15/altman-open-ai-moral-police-erotica-chatgpt.html

Variety – OpenAI’s Plans to Roll Out AI ‘Erotica’ for ChatGPT Slammed by Anti-Porn Group: https://variety.com/2025/digital/news/openai-erotica-chatgpt-anti-porn-group-ncose-1236553925/

Publicaciones Recientes

c6b06269-21e7-421e-b1c4-731cc73fc496

El mercado laboral que no contrata: la nueva normalidad económica de Estados Unidos

Cuando Jerome Powell pronunció la frase «bajo nivel de contratación, bajo nivel de despidos» en septiembre pasado, n
Leer Más
Google_AI_Studio_2025-10-16T03_57_21.593Z

Física de materiales en segundos: así calcula Thor

Calcular todas las formas posibles en que miles de millones de piezas de Lego podrían encajar entre sí representa una
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí