Por Andrea Rivera, Periodista Especializada en Inteligencia Artificial y Ética Tecnológica, para Mundo IA
Aproximación inicial al análisis
Iniciamos el artículo con esta escena: una reunión por videollamada en una gran empresa, con directivos conectados desde varias ciudades y un director financiero liderando la sesión. Todo parece normal, hasta que luego se descubre que ese “ejecutivo” nunca estuvo realmente allí: era un deepfake, una simulación perfecta creada con inteligencia artificial para imitar su apariencia y voz. De hecho, durante aquella reunión en Hong Kong a inicios de 2024, un empleado siguió las instrucciones del falso directivo y transfirió 25 millones de dólares, sin sospechar nada porque todo (el rostro, los gestos, la voz, incluso la jerarquía corporativa) parecía auténtico.
Ahora veamos este otro episodio menos costoso para los crédulos: en marzo de 2023 circularon masivamente en redes sociales unas imágenes del papa Francisco vistiendo un abrigo de alta costura de la marca Balenciaga. Las fotografías eran sorprendentemente vívidas y pronto se convirtieron en un fenómeno viral reproducido por miles de usuarios. La línea entre realidad y ficción se desdibujó tanto que resultaba indistinguible qué era real y qué no, al punto de que era imposible rastrear cuál había sido la imagen original genuina entre tantas variaciones y memes. No pocos creyeron que el Papa realmente había adoptado ese look extravagante, cuando en verdad todo se originó como una broma: una imagen sintética generada por IA que logró engañar a multitudes haciéndose pasar por una fotografía real.
Estos ejemplos ilustran vívidamente un fenómeno creciente en nuestra época: la capacidad de las tecnologías de IA para producir simulaciones cada vez más verosímiles de personas, voces, textos, escenas e incluso entornos completos. Nos hallamos ante un punto de inflexión en el que ya no podemos dar por sentada la autenticidad de lo que vemos, escuchamos o leemos en entornos digitales.
Si tradicionalmente se decía que “ver para creer”, hoy habría que replantear el adagio: ver ya no garantiza creer, pues lo que se ve puede ser fabricado con asombrosa fidelidad.
En la última década, hemos pasado de los fotomontajes evidentes y las noticias falsas rudimentarias a algoritmos capaces de generar rostros humanos inexistentes indistinguibles de los reales, videos de figuras públicas hablando palabras que nunca pronunciaron, voces clonadas que suplantan identidades y artículos completos escritos por máquinas con impecable gramática. Esta avalancha de contenido sintético pone en jaque nociones fundamentales como la evidencia visual, la veracidad periodística o la confianza en la identidad personal.
Se trata de un desafío de múltiples aristas. Por un lado, está la dimensión tecnológica: avances como las redes neuronales generativas adversarias (GAN) y los modelos de lenguaje de última generación han posibilitado crear imágenes hiperrealistas y textos coherentes a partir de datos. Por otro lado, está la dimensión social y epistemológica: mantener la confianza en nuestras fuentes de información y en nuestros propios sentidos se vuelve cada vez más difícil cuando las falsificaciones digitales pueden ser “más reales que lo real”.
La inteligencia artificial ha dejado de ser solo una herramienta para automatizar tareas y se ha convertido en un agente capaz de redefinir nuestra percepción de la realidad.
Como señalan Javier Manzanera y otros autores, la IA está empezando a “reemplazar certezas sociales” que dábamos por garantizadas. Aquellas cosas que antes eran prueba suficiente (una fotografía, una grabación de audio, el testimonio visual de un hecho) ahora pueden ser simuladas con intenciones engañosas. Deepfakes que minan la confianza en lo que vemos, textos generados que difuminan la noción de autoría auténtica y responsabilidad, todos estos son síntomas de lo que podríamos llamar una crisis de lo auténtico en la era de la IA.
En este contexto, resulta necesario replantear qué entendemos por “lo real” y “lo verdadero” cuando cualquier evidencia puede ser falsificada digitalmente. Distinguir los hechos de las ficciones elaboradas se vuelve un desafío cotidiano. Asimismo, debemos considerar las implicaciones de vivir inmersos en este “universo algorítmico”, donde gran parte de la información y las experiencias son mediadas o incluso creadas por algoritmos.
El presente artículo busca abordar estas cuestiones, analizando de manera didáctica y en profundidad cómo la capacidad de la IA para generar textos, imágenes, videos y entornos sintéticos desafía nuestra relación con lo real, lo verdadero y lo falso.
A continuación, examinaremos las distintas facetas de este fenómeno, comenzando por la generación automática de textos, para luego adentrarnos en el terreno de las imágenes y videos sintéticos, las realidades virtuales y finalmente las repercusiones filosóficas, sociales y éticas de esta nueva realidad simulada.
Textos sintéticos y verdad: cuando la coherencia no garantiza veracidad
Uno de los campos donde la IA ha irrumpido con fuerza es en la generación de lenguaje. Herramientas como GPT-4, GPT-5 (la tecnología detrás de ChatGPT) y otros modelos de lenguaje avanzados pueden producir textos largos y articulados en cuestión de segundos, desde ensayos y noticias hasta poesías o código informático. A simple vista, los resultados son asombrosos: los textos generados suelen ser gramaticalmente correctos, coherentes en su estructura y a menudo difíciles de distinguir de los escritos por humanos. Esta fluidez ha llevado a muchos a maravillarse y a otros a inquietarse, pues las máquinas parecen haber aprendido a “escribir” con un estilo convincente. Sin embargo, coherencia no es sinónimo de verdad, como advierten los especialistas. Tendemos a creer verdadero un discurso cuanto más coherente y bien hilado se presente, y los modelos de IA justamente sobresalen en producir narrativas ordenadas y lógicamente aparentes. Esto puede llevarnos a confundir esa apariencia de solidez con la veracidad factual, un error de percepción que acarrea riesgos considerables. De hecho, un sistema como ChatGPT ha sido optimizado para generar texto elocuente y cohesionado, encadenando frases de manera ágil y dando una fascinante impresión de razonamiento, cuando en realidad no está comprendiendo lo que dice ni garantizando la exactitud de sus afirmaciones.
El problema principal radica en que estos modelos estadísticos de lenguaje carecen de un anclaje seguro en la realidad. Generan contenido nuevo recombinando probabilísticamente patrones aprendidos de ingentes cantidades de datos textuales. Si bien eso les permite, por ejemplo, explicar conceptos complejos o redactar informes con estilo formal, también los lleva a cometer errores con total convicción. Los investigadores han documentado numerosos casos de alucinaciones de estos sistemas: respuestas que suenan plausibles pero que son completamente falsas o inventadas.
Por ejemplo, se reportó que ChatGPT llegó a recomendar un libro que en realidad no existe, construyendo un título ficticio a partir de la mezcla de dos obras reales y atribuyéndolo a un autor inexistente. En otro caso, al resumir las ideas de dos pensadores, el modelo confundió quién había dicho qué, atribuyendo erróneamente opiniones del primero al segundo. Lo más preocupante es que tales errores suelen ser sutiles y difíciles de detectar para el lector desprevenido: solamente alguien con conocimiento previo del tema notaría que esas referencias son falsas. Esto significa que un texto generado por IA puede contener falsedades con apariencia de hechos, camufladas entre párrafos perfectamente escritos.
A diferencia del periodismo tradicional o de un ensayo académico, donde podemos verificar las fuentes citadas y la identidad del autor, en un texto sintético generado por IA no hay transparencia sobre el origen de la información. El propio funcionamiento de estos modelos es una “caja negra”: sus fuentes de entrenamiento son opacas. No sabemos de dónde ha sacado la información que utiliza para explicarnos las ideas principales del Tractatus Logico-Philosophicus de Wittgenstein o cómo funciona un coche eléctrico; no podemos verificarlas ni establecer si son de fiar.
El modelo de lenguaje puede exponer con detalle las ideas de una obra filosófica o el funcionamiento de un motor eléctrico, pero el lector no tiene forma de saber si esas explicaciones provienen de material fidedigno o si contienen errores arrastrados de sus datos de entrenamiento. Esta falta de rastro verificable dificulta enormemente la validación de la veracidad. En la práctica, usar textos de IA requiere un acto de fe o una verificación externa manual, porque el sistema no proporciona evidencias ni reconoce sus fuentes de forma directa.
Otro aspecto inquietante es cómo la generación automática de textos diluye la noción de autoría y responsabilidad. Si un artículo de opinión, un trabajo estudiantil o incluso una carta personal pueden ser producidos íntegramente por una IA, nos encontramos cuestionando quién es el autor “real” de esos contenidos y quién asume la responsabilidad por su mensaje.
Ya existen casos de estudiantes que utilizan ChatGPT para redactar ensayos académicos, de aspirantes a empleo que dejan que un algoritmo escriba sus cartas de presentación, o de comentaristas en redes sociales que se apoyan en bots para inundar foros con ciertos argumentos. La autenticidad de la voz humana en la escritura se pone en duda, pues ya no es claro si lo que leemos proviene de una persona real, con sus vivencias y criterios, o de una máquina que imita retóricamente a un humano. Además, surgen dilemas éticos e incluso legales sobre la propiedad intelectual de los textos generados por IA y la posible necesidad de transparentar cuándo un contenido ha sido creado con ayuda algorítmica.
Por si fuera poco, la capacidad de estos modelos para producir texto masivo y personalizado en segundos ha disparado alarmas sobre su potencial uso en campañas de desinformación. En teoría, una sola persona con un generador de lenguaje podría fabricar cientos de noticias falsas o mensajes engañosos adaptados a diferentes audiencias, saturando el ecosistema informativo con contenido dudoso.
OpenAI, la empresa creadora de ChatGPT, advertía inicialmente sobre este riesgo de que su herramienta se convirtiera en una “máquina de noticias falsas” a gran escala. Sin embargo, otros analistas matizan estas preocupaciones. Si bien es cierto que la coherencia intrínseca de modelos como ChatGPT los hace idóneos para escribir textos de aspecto convincente que podrían nutrir bulos o propaganda, también es verdad que los humanos han propagado desinformación desde mucho antes y lo siguen haciendo con notable eficacia.
En la mayoría de los casos de noticias falsas, el obstáculo principal no ha sido la falta de capacidad para redactarlas (suelen ser narrativas sencillas y repetitivas), sino la estrategia para difundirlas ampliamente. En ese sentido, la IA no representa todavía un salto cualitativo en la creatividad de la mentira, aunque sí podría suponer un salto cuantitativo en la cantidad y velocidad de generación de contenido falso. Incluso los críticos señalan que, tal como está implementado hoy, ChatGPT no aporta “nada novedoso en cuanto a la creatividad o el ingenio” de las fake news, más allá de agilizar su producción. No obstante, de integrarse estas herramientas en sistemas automatizados de distribución (por ejemplo, redes de cuentas falsas en redes sociales), el peligro radica en la facilidad con la que podrían inundar el discurso público con textos engañosos difícilmente atribuibles a un autor concreto.
La generación algorítmica de textos nos enfrenta a una paradoja inquietante: ahora cualquiera puede producir, con esfuerzo mínimo, documentos que parecen fiables y bien escritos, pero que pueden estar plagados de falsedades sutiles o imprecisiones. La palabra escrita, tradicional pilar de transmisión del conocimiento y la verdad, corre el riesgo de perder su aura de fiabilidad si no podemos discernir su procedencia o exactitud.
Este fenómeno nos obliga a refinar nuestras habilidades de lectura crítica y verificación de hechos, y quizás a desarrollar herramientas complementarias que detecten o certifiquen la autoría y la veracidad de los textos. De lo contrario, podríamos vernos inmersos en un diluvio de prosa elegante pero potencialmente engañosa, erosionando aún más la frontera entre la realidad y la simulación en el ámbito informativo.
Imágenes sintéticas: la fotografía deja de ser prueba
Desde la invención de la fotografía, la imagen visual ha servido como uno de los referentes de verdad más poderosos. El viejo adagio “una imagen vale más que mil palabras” reflejaba la confianza en que aquello capturado por una cámara tenía una conexión directa con la realidad. Sin embargo, esa confianza se está socavando rápidamente en la era de la IA. Si bien la manipulación de imágenes no es algo nuevo (desde hace décadas existen técnicas de retoque fotográfico y programas como Photoshop que permiten alterar fotografías), la aparición de algoritmos generativos está llevando la falsificación visual a otro nivel. Ya no se trata solo de mejorar o modificar fotos existentes, sino de crear desde cero imágenes completamente ficticias pero verosímiles, o de alterar radicalmente una escena de manera casi imperceptible. Como señalan los analistas, la tecnología de IA aplicada a imágenes, video y audio promete cambiar el equilibrio entre lo auténtico y lo falso, posibilitando la producción de contenido alterado o totalmente inventado que resulte más realista y más difícil de desmentir que nunca antes.
Un ejemplo ilustrativo es el sitio ThisPersonDoesNotExist.com, que utiliza una red neuronal generativa adversaria (GAN) para producir retratos fotográficos de personas que en realidad no existen. Cada vez que se recarga la página, aparece el rostro de un individuo con un nivel de detalle y realismo fotográfico impresionante, pero que ha sido sintetizado completamente por IA. Este experimento, creado por el ingeniero Philip Wang, demuestra cómo las mismas técnicas detrás de los deepfakes pueden generar con facilidad rostros ficticios indistinguibles de fotografías de personas reales.
Lo más significativo es que herramientas así están al alcance de cualquiera con el conocimiento adecuado: ya no hay grandes barreras de acceso más allá del aprendizaje, de modo que la creación de falsificaciones visuales hiperrealistas se ha democratizado.
El impacto de las imágenes sintéticas se ha dejado sentir en múltiples ámbitos. En las redes sociales hemos presenciado casos virales que van desde lo anecdótico hasta lo preocupante. Por un lado, está la vertiente lúdica: personajes históricos en situaciones exóticas, típicamente compartidos a modo de meme. Estas creaciones se difunden a toda velocidad y, en cuestión de horas, miles de personas pueden haberlas visto fuera de su contexto original, convirtiendo una broma en una aparente realidad. Como resultado, la línea entre lo real y lo fabricado se vuelve borrosa: cuando el contenido original llega mezclado con innumerables copias y variaciones, se vuelve imposible rastrear la fuente genuina y distinguirla del aluvión de simulacros. Esa avalancha digital puede anular el valor probatorio de la imagen original, pues cualquier fotografía puede verse rodeada de dudas sobre si fue manipulada o generada artificialmente.
Por otro lado, están los casos de sintéticos que han tenido consecuencias tangibles en el mundo real. Un incidente notable ocurrió en mayo de 2023, cuando circuló ampliamente en Twitter una imagen que mostraba una explosión cerca del edificio del Pentágono en Washington D.C. La foto, completamente falsa y al parecer generada por IA, fue compartida incluso por algunas cuentas verificadas, provocando momentos de pánico y llegando a impactar brevemente al mercado bursátil antes de que las autoridades desmintieran la existencia de tal explosión. Este episodio demostró que una imagen engañosa, presentada con suficiente apariencia de autenticidad, puede desencadenar reacciones inmediatas en la opinión pública y en sistemas sensibles (como la bolsa de valores) antes de que dé tiempo a verificarla. En palabras de un experto forense digital consultado tras el incidente, la imagen del Pentágono mostraba pequeños artefactos o inconsistencias (vallas deformes, contornos extraños) indicativos de síntesis por IA, pistas que delatan su falsedad. No obstante, esas señales técnicas pasan fácilmente inadvertidas para la mayoría de la gente, especialmente en medio de la rapidez de las redes sociales. Y conforme mejore la tecnología, esos defectos menores probablemente desaparecerán, haciendo cada vez más difícil distinguir una foto real de una fabricada.
El trasfondo de todo esto es que la sociedad ha tenido tradicionalmente una fe casi ciega en la evidencia visual. Solemos otorgar a las imágenes fotográficas un estatus privilegiado de verdad: vemos en ellas “pruebas” de que algo sucedió o existió tal cual se muestra.
Como reflexiona un analista cultural, durante mucho tiempo hemos conferido a la imagen la función de relatarnos lo mundano que acontece, de desvelarnos aquello que sucede más allá de nuestra observación directa, confiando en ella como un testigo fiel de la realidad. Pero ahora debemos recalibrar esa confianza. Si cualquier fotografía digital puede haber sido generada o alterada por algoritmos, ninguna imagen puede tomarse al pie de la letra sin un contexto que la respalde. Periódicos y medios informativos se ven obligados a implementar protocolos más rigurosos de verificación de fotos y vídeos enviados por fuentes no identificadas. En el terreno legal, surgen desafíos para la admisibilidad de material multimedia como prueba, ya que las partes pueden cuestionar con mayor facilidad su autenticidad alegando la posibilidad de deepfakes.
El fenómeno de los deepfakes merece mención especial dentro de este tema. Inicialmente, el término deepfake se popularizó en 2017-2018 para referir vídeos en los que se sustituye mediante IA el rostro de una persona por el de otra, con alto grado de realismo. Si bien los primeros casos llamaron la atención por usos deplorables (como la creación de pornografía no consensuada con caras de celebridades), pronto la técnica se extendió a otros ámbitos. Hoy es posible generar no solo vídeos sino también imágenes fijas adulteradas con la cara de prácticamente cualquier individuo, abriendo la puerta a falsificaciones de identidades visuales. Por ejemplo, se ha podido “resucitar” digitalmente a figuras del pasado para anuncios publicitarios o recrear escenas de películas reemplazando a unos actores por otros. Estas aplicaciones demuestran el potencial creativo y comercial de la tecnología, pero también subrayan la facilidad con la que la imagen personal de alguien puede ser reutilizada o simulada sin su consentimiento, erosionando el concepto mismo de autenticidad visual y de derecho a la propia imagen.
En definitiva, hemos entrado en una era en la que “ver para creer” deja de ser una regla fiable. La imagen digital ha perdido en gran medida su inocencia como reflejo transparente del mundo.
Ante este panorama, la sociedad necesita desarrollar nuevos hábitos y herramientas: desde la educación mediática que nos enseñe a desconfiar inicialmente de lo que vemos en pantalla hasta sistemas de autenticación (como marcas de agua digitales o metadatos verificables) que acompañen a fotos y vídeos para certificar su origen. De lo contrario, la proliferación de imágenes sintéticas amenaza con minar uno de los pilares de nuestra percepción: la idea de que ver algo con nuestros propios ojos (aunque sea a través de una cámara) nos proporciona certeza sobre su realidad.
Videos y voces sintéticas: la imitación perfecta
Las falsificaciones audiovisuales merecen un capítulo aparte debido a su poderoso efecto persuasivo. Un video en el que aparece una persona hablando con su voz y gestos característicos constituye, para nuestro cerebro, una prueba muy fuerte de autenticidad: es como “ver y oír con nuestros propios sentidos” a alguien. Por eso, las técnicas de IA que generan videos y audios sintéticos representan quizá la cúspide de la crisis de lo auténtico. No se trata solo de retocar una fotografía, sino de recrear la presencia dinámica de una persona. Imágenes en movimiento y sonido combinados pueden convencer de la realidad de un suceso que jamás ocurrió.
Los llamados deepfakes surgieron precisamente como la conjunción de ambos elementos: típicamente, un algoritmo reemplaza el rostro de una persona por el de otra en un video, al tiempo que puede simular su voz para que las palabras pronunciadas coincidan con la falsificación. En los últimos años hemos visto cómo esta tecnología pasó de foros clandestinos a la palestra pública. Ya en 2018 se empezaron a difundir ejemplos impresionantes, como vídeos de actores intercambiando sus papeles en películas famosas o clips donde el expresidente Barack Obama parecía decir cosas que en realidad nunca dijo (mediante la sincronización de su rostro con audio generado). Pocos años después, la accesibilidad de estas herramientas aumentó, y hoy existen aplicaciones y programas con interfaces sencillas que permiten a casi cualquiera con suficiente interés fabricar un deepfake de calidad moderada.
Las implicaciones de esto son profundas. En el terreno político y de la seguridad, por ejemplo, se han registrado intentos de usar deepfakes para desinformación. Durante la invasión rusa a Ucrania en 2022, circuló en redes un video manipulado en el que el presidente ucraniano Volodímir Zelenski aparecía pidiendo a sus soldados que depusieran las armas y se rindieran. Aunque la falsificación resultó técnicamente pobre y fue detectada rápidamente, el mero hecho de su existencia confirmó que esta tecnología ya se contempla como arma propagandística.
Podemos imaginar escenarios futuros en los que un video adulterado de un líder mundial haciendo declaraciones falsas pudiera provocar confusión masiva, pánico o incluso conflictos diplomáticos si la falsedad no se aclara a tiempo.
Más allá del ámbito político, los deepfakes audiovisuales plantean riesgos muy concretos a las personas comunes. Un área crítica es el fraude y la suplantación de identidad. Ya no se trata solo de que alguien use el video de otro sin permiso, sino de generar un video o audio en el que aparece otra persona real diciendo o haciendo cosas que jamás hizo.
Un caso particularmente emotivo es el de una madre en Estados Unidos que recibió una llamada supuestamente de su hija, quien llorando le decía haber tenido un accidente grave. La voz era inconfundiblemente la de su hija, con el mismo timbre y angustia genuina, así que la madre no dudó de que fuera ella y, desesperada por ayudarla, siguió las instrucciones de un falso abogado: en cuestión de horas entregó 15.000 dólares en efectivo a un emisario, creyendo que era para resolver los problemas legales de su hija. Todo resultó ser un engaño meticulosamente orquestado. La voz era sintética, clonada a partir de grabaciones reales de la joven, y la historia del atropello era inventada.
Este tipo de estafa está creciendo a nivel internacional a medida que las herramientas de clonación de voz se vuelven más sofisticadas y accesibles. Los expertos advierten que con apenas unos pocos segundos de audio de una persona obtenidos de internet es posible replicar su voz con asombrosa fidelidad, imitando no solo el tono sino también el ritmo, las pausas y las emociones del habla. En el caso mencionado, la madre confesó entre lágrimas: “Conozco el llanto de mi hija. Era ella. No podía dudarlo”. Confió por completo en lo que escuchaba, sin imaginar que ahora las emociones también pueden ser manipuladas por algoritmos.
Las estadísticas confirman que este nuevo tipo de fraude va en aumento. Un informe citado por expertos señala que solo en 2024 los casos reportados de estafas telefónicas con voces clonadas se triplicaron en países latinoamericanos como México, Brasil y Argentina. Las autoridades y empresas de ciberseguridad están tratando de ponerse al día: se recomienda establecer contraseñas o palabras clave familiares para verificar identidades en casos de emergencia, y sobre todo difundir la conciencia de que ya no basta oír la voz de alguien para estar seguro de que es esa persona.
Al igual que con las imágenes, tendremos que adoptar una dosis de escepticismo ante los contenidos audiovisuales: la prudencia de confirmar por vías adicionales (por ejemplo, devolviendo la llamada a un número conocido o haciendo preguntas de seguridad) antes de dar crédito o actuar en base a una comunicación sensible.
El avance de los videos y voces sintéticas nos enfrenta a un escenario digno de una novela de espionaje: vemos y escuchamos a alguien, pero quizá ese alguien no existe o no es quien creemos. Esto socava un pilar fundamental de la interacción humana, que es el reconocimiento confiable de la identidad del otro a través de su apariencia y su voz.
Si cualquier persona puede ser puesta en escena digitalmente para decir o hacer cualquier cosa, nuestras nociones de prueba audiovisual y de testimonio entran en crisis. Nos encaminamos a un futuro en el que necesitaremos desarrollar técnicas y protocolos de verificación de identidad más robustos, así como marcos legales que castiguen la suplantación digital maliciosa. Mientras tanto, la recomendación más inmediata es incrementar la alfabetización digital del público: comprender las posibilidades de estas falsificaciones para no caer fácilmente en engaños y exigir pruebas adicionales de autenticidad cuando algo visto o escuchado pueda ser generado por IA.
Entornos virtuales: simulaciones inmersivas y la realidad en cuestión
Más allá de casos concretos de imágenes, textos o videos, existe un fenómeno más amplio que podemos denominar el universo algorítmico: la tendencia a que cada vez más aspectos de nuestra vida transcurran en entornos generados o mediados por sistemas digitales. La idea de un entorno sintético abarca desde mundos virtuales inmersivos (realidad virtual, videojuegos, metaversos) hasta capas de información digital superpuestas sobre el mundo físico (realidad aumentada). A medida que estas tecnologías avanzan, difuminan la distinción entre experiencia directa y experiencia simulada. Podemos interactuar con amigos mediante avatares en un espacio virtual compartido, visitar representaciones digitales de lugares lejanos, o incluso crear entornos enteros con leyes de la física y paisajes imaginarios. La cuestión es cómo afecta esto nuestro sentido de la realidad y de la autenticidad.
En la actualidad, la mayoría de las personas aún percibimos claramente la diferencia entre “estar en el mundo real” y “estar en un mundo virtual”. La realidad virtual, por muy inmersiva que sea, se reconoce como una experiencia artificial y separada del diario vivir. De hecho, la hipótesis de la simulación formulada por algunos filósofos (como Nick Bostrom) plantea justamente un contraste: en una simulación total sería imposible distinguir la realidad simulada de la verdadera, mientras que la realidad virtual actual es fácilmente diferenciable de la experiencia ordinaria. Hasta ahora, cuando nos quitamos las gafas de VR o cerramos el juego de computadora, regresamos al “mundo real” conscientes de que lo otro era un escenario digital. Pero conforme la tecnología avance, esa línea divisoria podría volverse menos clara.
Los futuros entornos virtuales podrían llegar a estimular nuestros sentidos con tal fidelidad (mediante gráficos ultra-realistas, sonido espacial, hápticos que dan sensación táctil, etc.) que nuestro cuerpo y mente respondan a ellos de forma casi idéntica a como lo harían en la realidad física.
Este fenómeno se relaciona con el concepto de hiperrealidad propuesto por Jean Baudrillard. Este teórico señaló que en la era contemporánea los simulacros dejan de ser meras copias ilusorias con respecto a una referencia verdadera, sino que se expresan a través de una ontología constituyente: crean la propia realidad, las formas de hacer, ver y pensar. En otras palabras, las simulaciones crean su propia realidad, con sus propias reglas y consecuencias, que pueden influir sobre la realidad convencional.
Pensemos en la economía virtual que existe dentro de algunos videojuegos masivos en línea, donde objetos intangibles (como una espada virtual o una parcela de tierra digital en un metaverso) adquieren valor real de mercado y son comprados o vendidos con dinero “de verdad”. Para los participantes, poseer ese bien digital puede ser tan significativo como poseer un objeto físico, siempre y cuando el entorno virtual donde tiene uso siga existiendo. De modo similar, relaciones sociales forjadas en un mundo virtual (amistades, comunidades, incluso romances) pueden tener la misma autenticidad emocional que las formadas cara a cara. Así pues, lo virtual deja de ser un simple juego o una ilusión pasajera y se integra en la trama de nuestra realidad humana.
La “crisis de lo auténtico” en este contexto adopta matices sutiles. No se trata tanto de que lo virtual nos engañe haciéndonos pasar una falsificación por algo real (como en el caso de las fake news o los deepfakes), sino de que lo virtual compite con lo real en importancia y significado. Surge la cuestión de si una vivencia en realidad virtual puede considerarse auténtica en sentido pleno. Por ejemplo, si en un entorno simulado alguien escala una montaña gigantesca o viaja a una ciudad imaginaria, ¿esa experiencia cuenta como “real” en su biografía personal? Desde un punto de vista fisiológico, las sensaciones ocurren en su mente; desde el punto de vista convencional, no ha salido de su habitación. La respuesta podría depender de cómo evolucione nuestra cultura: es posible que las futuras generaciones concedan legitimidad a las experiencias virtuales y las incorporen a su identidad sin ese sentimiento de “esto no fue real” que hoy podríamos tener los mayores.
No es casualidad que la hipótesis de que vivimos en una simulación computacional esté ganando atención en la cultura popular. Personalidades como Elon Musk han especulado que las probabilidades de que nuestro universo “base” sea auténtico podrían ser mínimas, asumiendo que civilizaciones avanzadas crearán innumerables simulaciones. Aunque esta conjetura sigue en el terreno de la filosofía y la ciencia-ficción, su difusión refleja una inquietud de nuestra época: la sensación de que la frontera entre realidad y simulación se ha vuelto tenue, y podría desvanecerse por completo.
En un plano más práctico, la proliferación de entornos sintéticos nos plantea desafíos éticos y existenciales. Es posible que llegue el momento en que algunas personas prefieran permanentemente la vida en un mundo virtual a la vida en el mundo físico.
Cabe preguntarse si debemos tratar los acontecimientos en el ciberespacio con la misma seriedad que los del espacio “real”. Ya hoy, delitos cometidos en entornos digitales (como acoso en línea, robos de bienes virtuales o filtración de datos personales) tienen impactos reales en las vidas de las víctimas. A medida que pasemos más tiempo en espacios simulados, las normas sociales y legales tendrán que adaptarse para extender el concepto de autenticidad y responsabilidad a esos ámbitos.
Los entornos virtuales inmersivos representan la manifestación más amplia de la dualidad simulación/realidad que venimos analizando. Nos obligan a reconsiderar qué es real: si lo sentimos, si nos afecta, tal vez ya no importe que ocurra en un plano digital en lugar de en el material.
Quizá debamos aceptar que la “realidad” no es única, sino un espectro que incluye experiencias físicas directas y experiencias virtuales con significado propio. Esto no implica renunciar a distinguir entre hechos verificables y ficción, pero sí reconocer que una parte creciente de nuestra vida transcurre en construcciones algorítmicas. El desafío será mantener nuestro equilibrio psicológico y social en un mundo donde coexisten múltiples realidades, asegurándonos de no perder de vista lo que nos hace humanos en medio de tanta simulación.
La crisis de lo auténtico: incertidumbre y desconfianza
Todos los ejemplos y análisis presentados convergen en una conclusión preocupante: estamos entrando en una etapa de incertidumbre radical sobre la autenticidad de la información y las experiencias. En otras épocas, las personas podían discrepar sobre opiniones, pero al menos compartían un acuerdo básico sobre qué evidencias eran reales (una fotografía, una grabación, un documento oficial). Hoy, ese consenso se desvanece. Cada vez que aparece una noticia impactante, surge la duda: ¿será verdad o estará generada por IA? Cada video viral se mira con sospecha de montaje, cada declaración de audio puede tacharse de “fake”. Esta erosión de la confianza en los sentidos y en los medios de comunicación constituye en sí misma la “crisis de lo auténtico”.
Una de las consecuencias más insidiosas es lo que los expertos han llamado el “dividendo del mentiroso”. A medida que el público se familiariza con la idea de que existen deepfakes y falsificaciones muy convincentes, irónicamente los individuos deshonestos se benefician. Quien quiera engañar o eludir responsabilidad puede simplemente alegar que las pruebas en su contra son falsas, sembrando duda aunque sean genuinas. Imaginemos una grabación real que incrimina a un político corrupto: si la ciudadanía sabe que “hay tecnología para falsificarla”, ese político tendrá más margen para clamar que es un montaje y salir impune. En términos simples, cuando las personas dudan de todo, la verdad sufre y el mentiroso sale ganando. Como señalan Chesney y Citron, un público escéptico estará dispuesto a dudar de la autenticidad de las pruebas reales en audio y vídeo. Ese escepticismo puede invocarse tanto contra el contenido auténtico como contra el adulterado. Así, la existencia misma de simulaciones sofisticadas sirve de coartada para negar la realidad incómoda.
Este clima de sospecha permanente tiene efectos sistémicos. Filósofos políticos y sociólogos han enfatizado que la confianza es el pegamento invisible que permite la vida social y las instituciones (recordemos las ideas de Hobbes, Locke, Simmel citadas antes). Si nada de lo que vemos u oímos merece crédito absoluto, la cooperación y el contrato social se resienten.
En palabras de un análisis reciente, la IA supone una amenaza estructural a la confianza moderna, pues aquello que antes eran certezas (la voz de un líder, una foto como evidencia, una firma digital) ahora pueden ser simulaciones. Este quiebre de la “expectativa colectiva de verdad” puede agrietar los fundamentos mismos de la convivencia.
No es de extrañar, entonces, que algunos analistas vinculen esta crisis de lo auténtico con el auge del autoritarismo. Cuando la gente deja de creer en la información y reina la confusión, es más fácil que prosperen los discursos demagógicos. De acuerdo con los anteriormente citados Chesney y Citron, la decadencia de la verdad y la decadencia de la confianza crean, en consecuencia, un espacio más grande para el autoritarismo. Los regímenes autoritarios y los líderes con tendencias autoritarias se benefician cuando las verdades objetivas pierden su fuerza. Si el público pierde la fe en lo que escucha y ve y la verdad se convierte en una cuestión de opinión, el poder fluye hacia quien tiene las opiniones más destacadas, dando poder a las autoridades en este camino.
En última instancia, si ya no confiamos en nada, “gana el lobo y estamos todos perdidos” (retomando la moraleja de la fábula), pues prevalece el miedo y la manipulación sobre la transparencia y el entendimiento racional.
Frente a este panorama, la humanidad se enfrenta a un enorme desafío: reconstruir la noción de verdad y confianza en la era de la IA. No podemos darnos por vencidos y resignarnos a un cinismo absoluto. Sin alguna noción compartida de realidad, la sociedad se fractura en tribus informativas, cada cual creyendo solo lo que le apetece (o lo que su filtro algorítmico le muestra).
La crisis de lo auténtico es, en el fondo, una crisis epistemológica: nos obliga a replantearnos cómo sabemos lo que sabemos y en quién o qué podemos confiar. Será necesario un esfuerzo colectivo, que involucra tanto cambios tecnológicos como culturales, para mitigar estos riesgos. A continuación, exploraremos algunas de las respuestas que se están proponiendo, desde la tecnología, la educación y la regulación, para navegar en este nuevo mundo de realidades inciertas.
Hacia la verificación y la resiliencia: respuestas ante la simulación
La magnitud de los retos descritos ha movilizado a distintos sectores (tecnológico, académico, gubernamental) para buscar soluciones que nos permitan convivir con la IA generativa sin sucumbir al caos informativo. Estas respuestas pueden agruparse en tres ejes principales: tecnológicos, regulatorios y educativos.
Soluciones tecnológicas. Una línea de trabajo se centra en crear métodos para autenticar el contenido digital y detectar falsificaciones. Un enfoque prometedor es incorporar marcas de agua o metadatos verificables en los materiales generados por IA, de modo que su origen y autenticidad puedan comprobarse. Por ejemplo, una iniciativa liderada por Adobe, Microsoft, BBC y otras organizaciones ha dado lugar a un estándar abierto llamado C2PA (Coalition for Content Provenance and Authenticity). Este sistema permite adjuntar a cada foto, video o audio información detallada sobre su procedencia (qué dispositivo lo capturó, en qué momento) y su historial de ediciones, todo ello protegido con criptografía (hashes y firmas digitales) para impedir su manipulación. Si una imagen ha pasado por Photoshop, por ejemplo, quedaría constancia certificada de los pasos de edición realizados. La visión tras este estándar es que en el futuro los usuarios puedan verificar fácilmente la “hoja de vida” de un contenido: distinguir si es una foto directa de cámara o si ha sido alterada, y por quién. Herramientas así podrían devolver cierta confianza a los contenidos visuales y audiovisuales, análoga a la verificación de identidad en documentos.
Grandes empresas tecnológicas ya han empezado a adoptar estas medidas. Cámaras profesionales de marcas como Sony o Leica incorporan funciones de firma digital al capturar imágenes, y los editores de Adobe (Photoshop, Lightroom) permiten guardar las credenciales de contenido durante el procesamiento. Sin embargo, la adopción plena enfrenta obstáculos. Existen millones de dispositivos antiguos que no soportan estas firmas, y no todos los fabricantes se han sumado aún (Nikon o Canon han afirmado que incorporarán el estándar, pero no lo han hecho todavía, y los smartphones, que son la cámara más usada por la mayoría de usuarios, no lo incorporan tampoco, con Apple y Google guardando silencio al respecto). Asimismo, para que el sistema funcione, las plataformas en internet (redes sociales, portales de noticias, etc.) tendrían que mostrar al usuario esos metadatos certificados, algo que, por ahora, muchos no hacen. Mientras ese ecosistema de confianza se construye, los investigadores también desarrollan detectores de deepfakes basados en IA, entrenados para reconocer artefactos sutiles en imágenes o inconsistencias en el habla de un audio. Estos detectores han tenido cierto éxito (por ejemplo, identificando irregularidades en la textura de la piel o en el parpadeo de ojos de videos adulterados), pero entran en una carrera armamentística: conforme mejora la generación, debe refinarse la detección, y ninguno puede dar garantías absolutas. Aun así, siguen siendo una pieza útil del arsenal anti-desinformación.
Respuestas legales y normativas. Conscientes del riesgo, varios gobiernos han comenzado a legislar sobre los contenidos sintéticos. China puso en vigor en 2023 una normativa pionera que obliga a que todo contenido generado por IA lo indique explícitamente, ya sea mediante una marca de agua visible o un aviso adjunto. La norma china también prohíbe el uso de deepfakes para difamar, engañar o presentar noticias falsas que alteren el orden público. En Europa, el borrador de la Ley de Inteligencia Artificial incluye disposiciones para exigir transparencia en medios sintéticos: por ejemplo, si una imagen o video ha sido producido con IA, deberá estar claramente etiquetado como tal. En Estados Unidos, algunos estados como California aprobaron leyes que penalizan los deepfakes maliciosos (por ejemplo, los orientados a desprestigiar candidatos antes de elecciones). Estas medidas buscan disuadir los usos más dañinos y, sobre todo, establecer que la falsificación deliberada de la realidad con intención de fraude o daño es una conducta ilegal. Por supuesto, la aplicación de estas leyes no es trivial, identificar al autor de un deepfake anónimo en internet puede ser difícil, pero al menos marcan un compromiso institucional por enfrentar el problema.
Otra vertiente regulatoria es el impulso a la autorregulación y acuerdos en la industria tecnológica. Empresas líderes de IA han anunciado que incorporarán capas de seguridad: por ejemplo, OpenAI investigó métodos para incluir marcas invisibles en el texto generado por ChatGPT que faciliten a detectores automáticos distinguirlo de texto humano. Plataformas como Facebook, YouTube o TikTok han desarrollado políticas para prohibir o etiquetar contenidos manipulados en ciertos contextos (especialmente si implican figuras políticas). No obstante, queda un largo camino para un consenso global. Al igual que ocurre con la ciberseguridad, se vislumbra la necesidad de tratados internacionales que aborden la amenaza de la desinformación por IA, pues el problema trasciende fronteras.
Refuerzo educativo y cultural. Quizás la respuesta más crucial, y al mismo tiempo la más lenta, es la de la educación mediática. En última instancia, ningún sello digital o ley podrá sustituir al juicio crítico de los ciudadanos. Si adoptamos una actitud más reflexiva ante la información (verificando fuentes, consultando medios confiables, dudando sanamente de lo que vemos en internet hasta confirmación), reduciremos drásticamente el impacto de las falsedades. Distintas organizaciones abogan por incorporar estos temas en la educación formal: enseñar desde edades tempranas cómo identificar desinformación, cómo funcionan los deepfakes y por qué no debemos compartir contenido no verificado por muy sensacional que parezca. De igual forma, se llama a capacitar a periodistas, funcionarios y profesionales en técnicas de verificación digital (fact-checking, búsqueda inversa de imágenes, etc.), para que actúen como filtros de calidad en sus ámbitos.
En paralelo, proyectos como agencias de verificación independientes han proliferado (por ejemplo, servicios de fact-checking adjuntos a periódicos o iniciativas colaborativas en línea para desmentir bulos). Estas iniciativas aportan claridad en casos dudosos, aunque enfrentan el dilema de la velocidad: muchas veces la falsedad viaja más rápido que la corrección. Además, deben cuidarse de no perder credibilidad ellas mismas en un entorno polarizado, donde a veces se acusa a los verificadores de sesgo. Aún así, son piezas importantes de la respuesta social.
Vale la pena señalar que ninguna solución es milagrosa por sí sola. Como apunta el analista Enrique Dans, aun si logramos desplegar herramientas robustas de autenticación de contenido, persistirá el hecho de que muchos creerán lo que quieran creer, haciendo caso omiso de las evidencias aunque estén “fehacientemente y criptográficamente comprobadas”.
Al fin y al cabo, el factor humano (nuestras inclinaciones, prejuicios y emociones) seguirá jugando un papel central en qué consideramos verdadero. Por eso, la alfabetización digital y el fomento del pensamiento crítico resultan indispensables: debemos cultivar en la población los reflejos para preguntar “¿qué tan confiable es esto?” antes de aceptar y difundir cualquier contenido. En cierto modo, la crisis actual puede servir para despertar una conciencia mayor sobre cómo consumimos información.
Lejos de ser el fin de la verdad, este período de turbulencia puede conducirnos a una sociedad más resiliente y sofisticada en su relación con la información. La combinación de mejores herramientas (tanto para crear como para verificar contenido), marcos legales actualizados y una ciudadanía más preparada, ofrece la esperanza de que sabremos adaptarnos. La autenticidad quizás ya no vendrá dada por la ingenua impresión superficial (“si lo veo, es real”), sino por un proceso activo de validación en el que todos tendremos que participar.
Repaso final
La era de la inteligencia artificial generativa nos confronta con dilemas que parecen sacados de la ciencia-ficción: no podemos fiarnos completamente de nuestros ojos ni de nuestros oídos en el ámbito digital, ni siquiera de la palabra escrita. Textos, imágenes, videos y entornos sintéticos se entrelazan con la realidad cotidiana, obligándonos a replantear qué entendemos por verdad y por experiencia genuina. Hemos visto cómo la IA puede, con la misma facilidad, iluminar la creatividad humana, abriendo mundos virtuales y posibilitando nuevas expresiones artísticas, o sumirnos en la confusión, demoliendo la confianza en las pruebas y la información.
Sin duda, nos encontramos ante una crisis de lo auténtico. Pero como en toda crisis, también hay una oportunidad de transformación. La humanidad ha superado antes revoluciones mediáticas y tecnológicas (la invención de la imprenta, la fotografía trucada, la manipulación digital inicial) adaptando sus instituciones y sus prácticas culturales. Esta vez no será diferente en el objetivo final, aunque sí en la escala y la urgencia. Estamos llamados a construir una relación más madura con la tecnología: en vez de aceptar a ciegas lo que nos muestra una pantalla, desarrollar un sano equilibrio de ingenio humano y asistencia técnica para discernir la realidad.
Es posible que en el futuro digamos que lo real no desapareció, sino que evolucionó junto con nosotros. Que aprendimos a vivir en un universo algorítmico sin perder nuestro sentido de identidad ni de verdad, usando la IA como aliada y no como amenaza. Para lograrlo, habremos redefinido lo auténtico no como una cualidad sencilla y evidente, sino como un atributo que se demuestra y se consensúa con ayuda de múltiples herramientas y voluntades. Quizás entonces miremos hacia atrás a estos años tumultuosos como a una época de aprendizaje colectivo, en la que la necesidad de preservar la confianza nos hizo innovar en todos los frentes: tecnológico, legal y social.
La auténtica realidad de la era de la IA no será aquella libre de simulaciones, sino aquella en la que sepamos convivir con ellas sin extraviarnos. Nos espera un desafío enorme, pero también la posibilidad de enriquecer nuestra comprensión de la verdad. En última instancia, lo auténtico no desaparecerá mientras sigamos valorándolo y buscándolo activamente, con espíritu crítico, con colaboración y con la inventiva que siempre ha definido a nuestra especie frente a lo desconocido.
Referencias
- Casacuberta, D. & Guersenzvaig, A. (2022). Las falacias del encantamiento con la inteligencia artificial de ChatGPT. Agencia SINC. Disponible en: https://www.agenciasinc.es/Noticias/Las-falacias-del-encantamiento-con-la-inteligencia-artificial-de-ChatGPT.
- Manzanera, J., Garcí Iñigo, & Abarca, A. (2025). ¿Se ha desmoronado la confianza en la era de la inteligencia artificial? Wired (edición en español). Disponible en: https://es.wired.com/articulos/se-ha-destruido-la-confianza-en-la-era-de-la-inteligencia-artificial.
- CCCB Lab (2023). ¡Que viene el lobo! La alarma por la desinformación y el dividendo del mentiroso. Disponible en: https://lab.cccb.org/es/que-viene-el-lobo-la-alarma-por-la-desinformacion-y-el-dividendo-del-mentiroso/.
- Kardoudi, O. (2023). Una explosión en el Pentágono creada por inteligencia artificial causa pánico en redes. El Confidencial. Disponible en: https://www.elconfidencial.com/tecnologia/novaceno/2023-05-23/pentagono-fake-inteligencia-arficial_3634851/.
- Urrea, D. I. (2025). “Mamá, ayúdame”: así funciona la nueva estafa con voz clonada por IA; le quitaron más de 57 millones de pesos en minutos. Enter.co. Disponible en: https://www.enter.co/empresas/seguridad/mama-ayudame-asi-funciona-la-nueva-estafa-con-voz-clonada-por-ia-le-quitaron-mas-de-57-millones-de-pesos-en-minutos/.
- Sanz, S. (2023). El arte de la mentira: Inteligencia Artificial y simulacro. EXIT Media. Disponible en: https://exitmedia.net/brotes-verdes/el-arte-de-la-mentira-inteligencia-artificial-y-simulacro/.
- Dans, E. (2024). Autenticando criptográficamente el contenido para evitar noticias falsas. Blog personal (Medium). Disponible en: https://www.enriquedans.com/2024/08/autenticando-criptograficamente-el-contenido-para-evitar-noticias-falsas.html.
- Wikipedia (2023). Hipótesis de simulación. Disponible en: https://es.wikipedia.org/wiki/Hip%C3%B3tesis_de_simulaci%C3%B3n.
- Xinhua (2023). China pone en vigor nueva regulación para el contenido generado por IA. (Noticia reproducida en hoy.com.py). Disponible en: https://www.hoy.com.py/tecnologia/china-pone-en-vigor-nueva-regulacion-para-el-contenido-generado-por-ia.