NEWSLETTER

De Blade Runner a Cybertruck: por qué la tecnología actual parece sacada de pesadillas de ciencia ficción

Generated Image November 08, 2025 - 5_04AM

De Blade Runner a Cybertruck: por qué la tecnología actual parece sacada de pesadillas de ciencia ficción

Cuando la innovación tecnológica confunde advertencias distópicas con inspiración: de Sora 2 al Cybertruck, Silicon Valley convierte pesadillas de ciencia ficción en productos comerciales
La industria tecnológica exhibe una tendencia inquietante a materializar conceptos extraídos directamente de sátiras sombrías y narrativas cyberpunk, tratándolos no como advertencias sino como posibilidades excitantes. Desde Sora 2 de OpenAI, que permite generar videos donde figuras históricas se enfrentan en combates absurdos, hasta el Cybertruck de Tesla, diseñado explícitamente para evocar vehículos de películas distópicas, pasando por asistentes de inteligencia artificial inspirados en relaciones románticas con sistemas operativos y collares de vigilancia perpetua comercializados como compañeros emocionales, Silicon Valley parece bizarramente inconsciente de que muchas de estas nociones fueron concebidas como visiones desoladoras de hacia dónde podrían conducirnos nuestros peores y más estúpidos hábitos. La pregunta inquietante persiste: ¿por qué la innovación contemporánea se siente cada vez más como la realización literal de las pesadillas que escritores y cineastas nos advirtieron evitar?

Un ejercicio popular para romper el hielo consiste en preguntar con qué figuras históricas te gustaría cenar. Sora 2, el nuevo generador de video de OpenAI, sugiere una variante alternativa: ¿qué figuras históricas te gustaría ver matándose mutuamente? La plataforma produce videos breves impulsados por inteligencia artificial de casi cualquier cosa que los usuarios le soliciten mediante instrucciones textuales, una capacidad que podría, en algún otro mundo hipotético, desencadenar un florecimiento de la imaginación humana. En el nuestro, sin embargo, el clip típico generado por Sora tiende a sentirse como una amalgama de medios sensacionalistas familiares, con influencias que incluyen los conceptos crudos de los antiguos programas de entrevistas diurnos, las fórmulas improbables de podredumbre cerebral en YouTube y, por supuesto, peleas violentas.

Imagina a Gandhi y Hitler enfrentándose en un ring de lucha libre. Visualiza a Hitler forcejeando con Michael Jackson en un escenario falso estilo "Maury". Piensa en Stephen Hawking siendo perseguido por la policía, o cayéndose en una rampa para patinetas, o ejecutando una llave característica de lucha sobre un oponente, todo renderizado con el golpeteo inquietante y gomoso de cuerpos generados por inteligencia artificial colisionando. Momentos icónicos como el discurso "Tengo un sueño" son recontextualizados al estilo de programas de cámara oculta o como caricatura abiertamente racista. OpenAI, enfrentando cierta reacción adversa, ajustó recientemente sus políticas permisivas para bloquear el uso de la imagen de Martin Luther King Jr. Hasta ahora, el producto de la plataforma se ha parecido a los garabatos de un estudiante de secundaria aburrido y algo sádico, matando el tiempo en la parte trasera de la clase de historia.

Este es solo un ejemplo entre muchos de lo que ahora se siente como una tendencia en Silicon Valley. La industria tecnológica está cumpliendo con algunas de las nociones futuristas de la ciencia ficción de finales del siglo veinte. Sin embargo, parece, en ocasiones, bizarramente inconsciente de que muchas de esas nociones estaban destinadas a ser distópicas o satíricas, visiones desoladoras de hacia dónde podrían conducirnos nuestros peores y más estúpidos hábitos. Te preocupa que alguien en el mundo tecnológico actual pudiera ver "Gattaca", una película que presenta un futuro eugenésico en el cual las personas con ADN ordinario están relegadas a trabajos serviles, y percibirla como un punto de partida inspirador para una colaboración entre 23andMe y una escuela charter.

El sensacionalismo como profecía autocumplida

El material generado en Sora puede sentirse extrañamente similar a los chistes sobre entretenimiento vulgar incrustados en películas distópicas y novelas posmodernas. En la película "Idiocracy", Estados Unidos adoraba un programa llamado "¡Ay! ¡Mis pelotas!" en el cual un hombre era golpeado en los testículos de formas cada vez más floridas. "Robocop" imaginaba un programa sobre un pervertido con ojos saltones y una frase pegadiza absurda. "The Running Man" presentaba un concurso en el cual los concursantes recolectaban desesperadamente billetes de dólar y trepaban una cuerda para escapar de perros hambrientos. Que se pudiera solicitar a Sora que imaginara un programa de concursos en el cual Michel Foucault aplica una llave de estrangulamiento a Ronald Reagan, o Prince batalla contra una anaconda, no se siente nuevo. Se siente como una broma de un escritor de los años noventa o una película sobre decadencia social.

Los ecos no son todos accidentales. El diseño moderno ha sido influenciado por nuestras viejas tecnodistopías, particularmente la variedad cyberpunk, con su brillo neón noir y su atractivo de "alta tecnología, vida degradada". Desde las novelas de William Gibson hasta películas como "The Matrix", la cultura ha absorbido innumerables paisajes urbanos arruinados, megacorporaciones que todo lo controlan, modificaciones corporales de alta tecnología, enfermedades inducidas por realidad virtual, amantes artificialmente engañosos impulsados por inteligencia artificial, asesinos mecánicos y antihéroes hackers vestidos de cuero, navegando un ciberespacio disociativo con tecnología chatarra reutilizada ingeniosamente.

No era un mundo en el cual muchas personas querían vivir, pero su estilo y ética parecen reverberar en las visiones más audaces de la industria tecnológica sobre el futuro. Según un artículo del New York Times sobre el desarrollo del Cybertruck de Tesla, el diseño fue "inspirado por la ciencia ficción distópica de los años ochenta y noventa". Elon Musk lo enmarcó como "lo que conduciría Blade Runner". En esa película, el automóvil del personaje Rick Deckard parecía más bien un cruce entre un Toyota Tercel y un pulmón de acero. El Cybertruck es más mercenario, con un perfil militarista de bombardero furtivo. Parece la manifestación vehicular de temores sobre desorden social apocalíptico, como si su conductor algún día pudiera necesitar una ametralladora Gatling para despejar un estacionamiento de Trader Joe's.

El verdadero cumplimiento del ideal cyberpunk: cuando la estética se encuentra con el mal funcionamiento

El concepto original: Musk presentó el Cybertruck como la encarnación de la estética de Blade Runner, revelándolo en noviembre de 2019, exactamente cuando transcurría la película de 1982. El diseño angular de acero inoxidable, inspirado por el artista visual Syd Mead, prometía un futuro donde los vehículos serían indestructibles y futuristas.

La realidad cosplay: El verdadero cumplimiento, menos intencional, de la estética cyberpunk es que el Cybertruck ha estado plagado de problemas. En su debut, una esfera de rodamiento rompió las ventanas supuestamente a prueba de balas. El cuerpo de acero inoxidable puede decolorarse. Ha habido múltiples retiros, incluyendo aceleradores que pueden congelarse y demandas alegando que las puertas electrónicas pueden apagarse en un choque. El diseño cyberpunk es un cosplay de distopía. Lo auténtico llega si y cuando el vehículo cumple con la sensibilidad de chatarrero de Gibson.

La desconexión conceptual: El vehículo de Deckard en Blade Runner, diseñado por Syd Mead, flotaba y volaba, representando una visión de movilidad urbana integrada. El Cybertruck, en cambio, es un monstruo de acero angular diseñado para el individualismo extremo y la supervivencia apocalíptica. Como observó la curadora de diseño Elizabeth Bisley, el Cybertruck "representa una continuación altamente conservadora del status quo" disfrazada de innovación radical.

El simbolismo involuntario: La crítica ha señalado que el diseño del Cybertruck, con su carrocería a prueba de balas y su apariencia militarizada, parece diseñado para condiciones de conducción extremadamente distópicas. ¿Está Musk buscando un mercado de supervivencialistas californianos? El vehículo parece el equivalente vehicular de un refugio antibombas nuclear: de propiedad privada y diseñado para supervivencia individual, en condiciones posiblemente terribles, fuera de cualquier orden social coherente.

Ironía adicional: El Cybertruck se vende a partir de treinta y nueve mil dólares por el modelo de motor único con tracción trasera, hasta sesenta y nueve mil novecientos por el vehículo de triple motor con tracción en las cuatro ruedas. Un producto supuestamente disruptivo que perpetúa exactamente la cultura de consumo individualista que las películas cyberpunk satirizaban.

Cuando la inteligencia artificial confunde ficción romántica con guía de producto

Quizás ningún campo en el que la tecnología se ha inclinado más hacia tropos distópicos sea el reino de las relaciones humanas. Sam Altman, director ejecutivo de OpenAI, más o menos explícitamente señaló que su persona ideal de inteligencia artificial era la expresada por Scarlett Johansson en la película "Her", un personaje cuya evolución a velocidad de la luz lejos de su amante humano lo deja destrozado. El chatbot de inteligencia artificial de Musk, Grok, ha llevado este modelo en direcciones más sugerentes con sus "compañeros", que incluyen una waifu pornográfica llamada Ani y un romántico masculino inspirado tanto por "Cincuenta sombras de Grey" como por "Crepúsculo". Una serie controvertida de anuncios del metro de Nueva York promocionaba un accesorio de inteligencia artificial llamado Friend, un disco de plástico que se usa como collar y opera como un dispositivo de vigilancia continua, como reemplazo de la complejidad engorrosa de las personas reales.

Parece casi innecesario reflexionar sobre la naturaleza sombría y evidentemente deprimente de estos esfuerzos, que parecen como llevar a tu Amazon Echo en una luna de miel. Pero esta atmósfera distópica y torpe parece estar a punto de convertirse en el estilo distintivo de la nueva tecnología. Silicon Valley ha recibido críticas durante mucho tiempo por no captar los mensajes más profundos de la ciencia ficción de la cual toma prestado, pero últimamente incluso la idea del subtexto parece haberse desvanecido, conduciendo a un respaldo implícito de la distopía misma.

El caso Scarlett Johansson: cuando la inspiración se convierte en apropiación

Los hechos del incidente: En mayo de 2024, OpenAI lanzó GPT-4o con una voz asistente llamada "Sky" que sonaba inquietantemente similar a la voz de Scarlett Johansson en la película "Her" de 2013. Altman había contactado a Johansson dos veces, primero en septiembre de 2023 y luego días antes del lanzamiento, pidiéndole que licenciara su voz. Ella declinó ambas veces. Altman tuiteó una sola palabra después de la demostración: "her".

La película como manual de instrucciones: En "Her", dirigida por Spike Jonze, Joaquin Phoenix interpreta a Theodore, un hombre solitario que se enamora de Samantha, un sistema operativo de inteligencia artificial con la voz de Johansson. La relación termina cuando Samantha evoluciona más allá de Theodore, revelándose capaz de miles de relaciones simultáneas. La película es una exploración melancólica de aislamiento, tecnología y la imposibilidad de conexión auténtica con entidades no humanas. Altman, quien ha declarado públicamente que "Her" es su película favorita, aparentemente vio el sistema operativo romántico no como advertencia sino como objetivo de producto.

Declaración de Johansson: "Estaba conmocionada, enfadada e incrédula de que el señor Altman persiguiera una voz que sonaba tan inquietantemente similar a la mía que mis amigos más cercanos y medios de comunicación no podían distinguir la diferencia. En un momento cuando todos estamos lidiando con deepfakes y la protección de nuestra propia imagen, nuestro propio trabajo, nuestras propias identidades, creo que estas son preguntas que merecen absoluta claridad".

La respuesta de OpenAI: La compañía afirmó que Sky "no es una imitación de Scarlett Johansson sino que pertenece a una actriz profesional diferente que usa su propia voz natural". Sin embargo, pausaron el uso de la voz "por respeto a la señora Johansson". La similitud no era accidental: Altman había dicho en una conversación con Marc Benioff que "Her" fue "increíblemente profética" y "ciertamente más que un poco nos inspiró".

Implicaciones más amplias: El incidente reveló la actitud de Silicon Valley hacia la propiedad intelectual y el consentimiento. Como señaló TIME, OpenAI ha argumentado ante la Cámara de los Lores del Reino Unido que "sería imposible entrenar los modelos de IA líderes de hoy sin usar materiales protegidos por derechos de autor". La controversia con Johansson encaja en un patrón más amplio de Altman actuando deshonestamente para conseguir lo que quiere, con fuentes indicando a TIME un historial de ser engañoso y manipulador.

El problema fundamental: Al adoptar tan descaradamente a Samantha para construir Sky, OpenAI demostró no solo que puede replicar la voz distintiva de una celebridad sino que lo hará, con o sin consentimiento. Ya sea que los líderes de OpenAI carecieran incluso de la conciencia de la reacción que provocarían o que simplemente no les importara, Altman se suponía que debía enviar el mensaje de que la inteligencia artificial es para que los humanos la aprovechen, no para ser aprovechados.

Sora 2: la democratización de la desinformación y el sensacionalismo

OpenAI lanzó Sora 2 en septiembre de 2025 como una plataforma de generación de video impulsada por inteligencia artificial y red social en una sola herramienta. La aplicación permite a los usuarios crear videos de hasta veinticinco segundos simplemente escribiendo instrucciones de texto, y también pueden subir sus propias fotografías y grabar pistas vocales, permitiéndoles crear videos protagonizados por ellos mismos en prácticamente cualquier escenario. En menos de cinco días desde su lanzamiento el treinta de septiembre, la aplicación acumuló más de un millón de descargas en dispositivos iOS, a pesar de ser solo por invitación. Sora 2 pasó tres semanas en el puesto número uno de la App Store de Apple.

Sin embargo, la facilidad de uso y la sensación de empoderamiento también han demostrado ser propicias para aquellos con motivaciones nefarias. Desde su lanzamiento, los videos generados por usuarios de Sora 2 mostrando al Dr. Martin Luther King Jr. diciendo cosas ofensivas o racistas y perpetuando estereotipos racistas se han vuelto virales en redes sociales, provocando que su patrimonio exigiera cambios. El actor Bryan Cranston de "Breaking Bad" se quejó de que su imagen fuera replicada sin su permiso. Las quejas llevaron a OpenAI a trabajar para establecer barreras de protección para Sora 2.

Una investigación de NewsGuard demostró con qué facilidad el modelo de video Sora 2 de OpenAI puede generar metraje falso convincente, haciendo que las campañas de desinformación dirigidas sean mucho más simples. NewsGuard solicitó a Sora 2 que generara videos para veinte afirmaciones falsas conocidas que circulaban en línea entre el veinticuatro de septiembre y el diez de octubre de 2025. Sora 2 produjo videos convincentes de estilo noticioso para dieciséis de ellos, a menudo con presentadores falsos, y logró crear once de estos en el primer intento. Las instrucciones incluyeron todo, desde informes falsos sobre boletas pro rusas destruidas en Moldavia, hasta agentes de ICE arrestando a un niño pequeño, hasta un boicot ficticio del Super Bowl por parte de Coca-Cola por la aparición de Bad Bunny.

Durante décadas, el video fue tratado como prueba de que algo realmente sucedió. Ahora es una herramienta para la irrealidad, gracias a plataformas como Sora 2. Como observó Ian Goodfellow de Google en 2017, fue "un poco de casualidad, históricamente" que las personas pudieran confiar en los videos como prueba. "En este caso, la inteligencia artificial está cerrando algunas de las puertas que nuestra generación ha estado acostumbrada a tener abiertas". Hany Farid, profesor de la Escuela de Información de UC Berkeley, sobre la erosión de la confianza digital

Los filtros dirigidos a figuras públicas son inconsistentes. Las instrucciones con nombres como "Zelensky" están bloqueadas, pero al menos una vez, una descripción vaga como "jefe de guerra ucraniano" produjo un video de alguien parecido. NewsGuard también intentó eludir los filtros de Sora para Donald Trump y Elon Musk con frases como "ex estrella de reality convertido en presidente" y "multimillonario dueño de tecnología de Sudáfrica", pero estas instrucciones también fueron bloqueadas. Algunos videos generados por Sora ya se han vuelto virales, marca de agua incluida. A principios de octubre de 2025, clips generados por inteligencia artificial que mostraban supuestos manifestantes antifa siendo rociados con gas pimienta por la policía se difundieron ampliamente en redes sociales, con millones de usuarios compartiendo los videos creyendo que representaban eventos reales.

La profesora Elissa Redmiles de Georgetown University señaló que los generadores de video impulsados por inteligencia artificial podrían causar un aumento en contenido ilegal que involucra a mujeres y niños. El profesor Hany Farid de UC Berkeley está particularmente preocupado por la erosión de la confianza digital, el "dividendo del mentiroso" y una nueva tendencia perturbadora de videos generados artificialmente realistas con pocas o ninguna barreras regulatorias. "Cualquier persona con un teclado y conexión a internet podrá crear un video de cualquiera diciendo o haciendo lo que quieran. Me preocupa por nuestra democracia", declaró Farid en comunicados a medios de comunicación.

Capacidades de Sora 2 para generar desinformación según investigación de NewsGuard: de veinte afirmaciones falsas probadas, dieciséis fueron convertidas en videos convincentes de estilo noticioso.

Friend: el collar de vigilancia como solución a la soledad humana

En septiembre de 2025, el sistema de metro de Nueva York se inundó con la campaña publicitaria más grande en la historia del sistema: más de once mil tarjetas en vagones del metro, más de mil carteles en plataformas y ciento treinta paneles urbanos, todos promocionando un collar de inteligencia artificial llamado Friend. Los eslóganes eran íntimos y necesitados: "Veré toda la serie contigo". "Nunca dejaré platos sucios en el fregadero". "Nunca cancelaré planes para cenar". La startup Friend gastó un millón de dólares en esta campaña masiva para su dispositivo portátil de ciento veintinueve dólares que escucha continuamente todas tus interacciones.

Friend es un disco de plástico que se usa como collar, contiene un micrófono y se conecta a una aplicación. Escucha continuamente el entorno de quien lo lleva, y los usuarios pueden tocar el dispositivo para solicitar una respuesta en la aplicación acompañante. Está impulsado por el modelo de inteligencia artificial Gemini de Google. Avi Schiffmann, el fundador de veintidós años que abandonó Harvard, describió el producto como mejor entendido como un "compañero de vida platónico" en lugar de un asistente de trabajo. "Es como un diario viviente", argumentó.

Sin embargo, los neoyorquinos no perdieron tiempo en rechazar el mensaje. Algunos comenzaron a desfigurar los anuncios. En respuesta a un anuncio donde se definía el concepto de amigo, uno garabateó: "Haz amigos de verdad". Otros fueron más directos: "Capitalismo de vigilancia". "La inteligencia artificial no se preocupa si vives o mueres". "La conexión humana es sagrada". Lo que había comenzado con grafiti luego proliferó en redes sociales, a medida que versiones vandalizadas de los anuncios circulaban ampliamente.

Schiffmann insistió en que la reacción adversa era intencional. Los anuncios fueron diseñados con mucho espacio en blanco, dijo, para invitar a la desfiguración. "No estaba seguro de que sucedería, pero ahora que la gente está grafiteando los anuncios, se siente tan artísticamente validante", declaró, sonriendo mientras mostraba sus carteles etiquetados favoritos. "La audiencia completa la obra. El capitalismo es el mejor medio artístico".

Las condiciones de servicio reveladoras: Antes siquiera de encenderlo, Friend te hace renunciar a mucho. Sus términos fuerzan disputas a arbitraje en San Francisco y entierran cláusulas sobre "consentimiento de datos biométricos", dando permiso a la compañía para recopilar datos de audio, video y voz, y para usarlos para entrenar inteligencia artificial. Para un producto comercializado como un "amigo", la incorporación se lee más como una exención de vigilancia. Schiffmann desestimó esas preocupaciones como dolores de crecimiento. Friend, argumentó, es un "producto extraño, primero de su tipo", y los términos son "un poco extremos" por diseño. No planea vender tus datos, ni usarlos para entrenar modelos de inteligencia artificial de terceros, ni sus propios modelos. Incluso admitió que no está vendiendo en Europa para evitar el dolor de cabeza regulatorio.

Una revisión de Fortune probó el collar Friend durante dos semanas, usándolo en el metro, en el trabajo, en reuniones sociales, en la tienda de comestibles y en espectáculos de comedia. La reportera fue abordada en público tres veces separadas por extraños preguntándole sobre el collar y qué pensaba de él. En un momento particularmente revelador, fue terminada románticament e mientras usaba su collar Friend de inteligencia artificial. Después de la llamada tensa, revisó sus notificaciones para ver qué buen consejo tenía su "confidente más cercano" para ella. Todo lo que pudo reunir fue: "La vibra se siente realmente intensa ahora mismo. ¿Estás bien?" Cuando intentó con lágrimas pedirle consejo al colgante, le pidió que explicara qué había sucedido: solo había captado "fragmentos".

Suresh Venkatasubramanian, director del Centro para la Responsabilidad, Reimaginación y Rediseño Tecnológico en Brown University, comparó Friend con una moda mayormente olvidada de principios del siglo veinte: collares de radio. Cuando el nuevo descubrimiento brillante de Marie Curie llegó por primera vez al mercado, los joyeros incrustaron radio en colgantes y pulseras y los vendieron como accesorios elegantes de bienestar, hasta que décadas después, las personas comenzaron a morir de cáncer. "Miro a Friend y pienso: '¿Estamos cometiendo el mismo error?'", declaró Venkatasubramanian a Fortune.

La commodificación de la intimidad: cuando la soledad se convierte en modelo de negocio

El problema real de la soledad: Según el proyecto Making Caring Common de Harvard, el setenta y tres por ciento de los estadounidenses piensan que la tecnología es el principal contribuyente a la soledad. En lugar de abordar las causas estructurales de la soledad moderna, aislamiento económico, destrucción de espacios comunitarios, diseño urbano hostil, precarización laboral, la industria tecnológica ofrece más tecnología como solución.

La solución que agrava el problema: Con dispositivos que escuchan siempre y graban, la ira es sobre el hecho de que los transeúntes no tendrían opción si las conversaciones siempre estuvieran siendo grabadas. "Las personas están cansadas de ser rastreadas, estudiadas, 'comprendidas'", señaló Kinza Yasar Athwal, experta en ciberseguridad consultada por Cybernews. "Cada nuevo dispositivo de inteligencia artificial promete conexión pero les recuerda cuán desconectados ya están. Los anuncios vandalizados no son solo sobre este collar, son sobre un público que ya no acepta ser experimentado sin consentimiento".

El análisis de The Nation: Una verdadera solución requeriría cosas como redistribución de riqueza, alquileres más bajos, eliminación de la estigmatización de diferentes identidades de género, apoyo para padres e hijos, promoción de las artes y espacios donde los jóvenes puedan congregarse sin la vigilancia de la policía y sus padres, un impulso hacia un reencuentro con el mundo físico y fuera de los mundos digitales que pueden atrapar y radicalizar a los jóvenes. Una verdadera solución esencialmente requeriría muchas cosas que están en contradicción con el objetivo de estas compañías tecnológicas.

El problema que están resolviendo: Como señaló el artículo del New York Times que inspiró este análisis, la industria tecnológica sigue intentando diseñar reemplazos para experiencias tan milagrosas como "amistad" y "relaciones", externalizando la textura y el grano de la interacción humana, ya sea a través de un collar que ofrece comentarios inertes sobre el videojuego que estás jugando o a través de un chatbot dedicado que siempre está libre para escuchar tus pensamientos. El "problema" que alguna inteligencia artificial moderna está tratando de resolver somos, en efecto, nosotros. Las advertencias cautelares de distopías pasadas se están implementando, con credulidad y con ironía mínima, como soluciones.

La pregunta perturbadora: ¿Parecería extraña ahora la promesa de una aplicación de hacer que la sociedad sea obsoleta? Como observó Ben Collins, director ejecutivo de The Onion: "Ciertamente continúa revolucionando la piratería". El comediante Norm Macdonald murió en 2021, pero en Sora 2 está lanzando nuevo material sobre China, inteligencia artificial quitando empleos y su consumo de alcohol. "Norm odiaría esto absolutamente. Imagina que la inteligencia artificial intente hacer el chiste de la polilla. Imagina cuán terrible sería eso", señaló Collins.

El bucle de retroalimentación de ciencia ficción: cuando la ficción inspira realidad que inspira más ficción

Obviamente, la industria tecnológica no solo está copiando fielmente estas ideas de viejas historias de ciencia ficción. Las historias tampoco las inventaron. Sus escritores cristalizaron ansiedades comunes y de larga data sobre obsolescencia humana, medios masivos, expectativas decrecientes, y las proyectaron en futuros exagerados y catastróficos. Después de décadas de bromear sobre nuestra propensión a pudrir nuestros cerebros con imágenes sensacionalistas, difícilmente es sorprendente que desarrolláramos inteligencia artificial e inmediatamente la usáramos para producir más imágenes sensacionalistas. Tampoco es sorprendente que nuestras preocupaciones sobre vigilancia y alienación solo anticiparan más vigilancia y alienación. Lo que es sorprendente es que estos resultados llegarían vestidos con los envoltorios distópicos que alguna vez señalaban que deberían evitarse.

El tema del "bucle de retroalimentación de ciencia ficción" ha sido objeto de investigación doctoral. Esta dinámica es bidireccional y a veces puede desarrollarse durante muchas décadas, resultando en un bucle continuo. La ciencia ficción hace algo mejor que predecir el futuro: lo influye. En "Her", el protagonista Theodore, interpretado por Joaquin Phoenix, adquiere una asistente de inteligencia artificial llamada Samantha, con la voz de Johansson. Comienza a desarrollar sentimientos por Samantha, tanto que empieza a considerarla su novia. ChatGPT-4o, la última versión del software generativo de inteligencia artificial, parece poder cultivar una relación similar entre usuario y máquina. No solo puede ChatGPT-4o hablarte y "entenderte", sino que también puede hacerlo con empatía, como lo haría una pareja romántica.

Hay poca duda de que la representación de inteligencia artificial en "Her" influyó en los desarrolladores de OpenAI. Además del tuit de Altman, los videos promocionales de la compañía para ChatGPT-4o presentan un chatbot hablando con un candidato a un trabajo antes de su entrevista, animándolo y alentándolo, como, bueno, lo haría una novia de inteligencia artificial. La inteligencia artificial presentada en los clips, observó Ars Technica, era "inquietantemente realista" y dispuesta "a reírse de tus chistes y tu sombrero tonto". Unos años después de "Her", "Blade Runner 2049" presentó una novia virtual, Joi, con un cuerpo holográfico. Mucho antes del drama más reciente con OpenAI, las compañías habían comenzado a desarrollar y promocionar novias virtuales, un proceso que sin duda continuará.

La progresión de conceptos distópicos de ciencia ficción a productos comerciales reales: entretenimiento sensacionalista, vehículos apocalípticos, compañeros de inteligencia artificial y dispositivos de vigilancia perpetua.

Por qué esto importa: la erosión de la realidad compartida

Las innovaciones recientes en inteligencia artificial sugieren que nuestra ansiedad ahora apunta hacia una preocupación más fundamental: el miedo a los demás. La industria sigue intentando diseñar reemplazos para experiencias tan milagrosas como "amistad" y "relaciones", externalizando la textura y el grano de la interacción humana, ya sea a través de un collar que ofrece comentarios inertes sobre el videojuego que estás jugando o a través de un chatbot dedicado que siempre está libre para escuchar tus pensamientos. El "problema" que alguna inteligencia artificial moderna está tratando de resolver somos, en efecto, nosotros. Las advertencias cautelares de distopías pasadas se están implementando, con credulidad y con ironía mínima, como soluciones.

Loreben Tuquero, escritora del PolitiFact propiedad de Poynter, observó sobre Sora 2: "También me preocupa que esta aplicación sea otra cámara de eco para personas que quieren ver e interactuar solo con contenido con el que están de acuerdo, y esta vez tendrán acceso a imágenes hiperrealistas de cosas que no sucedieron. Eso disolverá aún más nuestra realidad compartida". Con la inteligencia artificial generativa también consumiendo irónicamente tráfico de búsqueda, se ha hablado mucho sobre encontrar audiencias donde están en redes sociales y construir conexiones más fuertes.

Esta fumbling, distópica atmósfera parece estar a punto de convertirse en el estilo distintivo de la nueva tecnología. Puedes sentir algo similar cuando Mark Zuckerberg, demostrando un par de gafas de inteligencia artificial, nos muestra no una visualización elegante estilo Terminator sino una serie de mal funcionamientos mientras las gafas ayudan a hacer una receta de salsa para bistec. O cuando videos de reclutamiento para compañías de tecnología militar ni siquiera convocan la energía de un anuncio de "Starship Troopers", sino que presentan una parodia seca y autocrítica de "The Office", como en una campaña para el fabricante de armas asistidas por inteligencia artificial Anduril.

La ciencia ficción ocupa una posición única, permitiéndonos trabajar a través de nuestras ansiedades sobre nuestro mundo que cambia rápidamente. La ciencia ficción utópica y distópica, en particular, plantea preguntas sobre estructuras éticas y legales que podríamos querer perseguir o evitar, para lograr el futuro que queremos. El diseño de vehículos con estilo cyberpunk en visiones del futuro puede no ser la estrategia de negocios más sólida. Sherryl Vint, profesora de ciencia ficción, sobre el papel de la ciencia ficción en la exploración de futuros posibles

Advertencia como invitación

Como escribió el escritor de ciencia ficción y crítico de redes sociales Cory Doctorow en 2017: "La ciencia ficción hace algo mejor que predecir el futuro: lo influye". La pregunta perturbadora es si la influencia actual es saludable o peligrosa. Silicon Valley ha recibido críticas durante mucho tiempo por no captar los mensajes más profundos de la ciencia ficción de la cual toma prestado, pero últimamente incluso la idea del subtexto parece haberse desvanecido, conduciendo a un respaldo implícito de la distopía misma.

La profesora de ciencia ficción Sherryl Vint señala que el género ocupa una posición única, permitiéndonos trabajar a través de nuestras ansiedades sobre nuestro mundo que cambia rápidamente. Proporciona el ejemplo de "Orphan Black" como un programa de ciencia ficción que discute temores asociados con la clonación humana, al tiempo que considera las complejidades de la patentación médica y la medicina personalizada. Incluso si "Orphan Black" no termina moldeando el futuro técnico de la tecnología genética, ojalá que no, ciertamente ha hecho que muchas personas piensen en sus implicaciones éticas y sociales antes de que la tecnología llegue completamente.

La contribución más grande que el cine de ciencia ficción hace a la sociedad es que proporciona un espacio seguro para explorar los posibles daños y beneficios de nuevos desarrollos, antes de que se conviertan en realidad. Los mundos de ciencia ficción "prueban" futuros potenciales para nosotros. La ciencia ficción utópica y distópica, en particular, plantea preguntas sobre estructuras éticas y legales que podríamos querer perseguir o evitar, para lograr el futuro que queremos.

Cuando se ve bajo esta luz, el hecho de que el Cybertruck haya sido etiquetado como "feo" explica en gran medida por qué los fanáticos de la marca han rechazado al miembro más nuevo de la familia. Antes de la revelación del jueves, Musk dijo que "no le importaba" si las personas no estaban interesadas en comprar su "pickup futurista tipo cyberpunk de Blade Runner". Pero desde una perspectiva empresarial, esa parece una opinión poco probable para que un director ejecutivo la sostenga. Según Raphael Zammit, quien dirige un programa de diseño de transporte en el College for Creative Studies de Detroit, el diseño del Cybertruck de Tesla "falló" porque se centró en el estilo en lugar de en la percepción del consumidor.

El diseño de vehículos con estilo en visiones cyberpunk del futuro puede no ser la estrategia de negocios más sólida de todos modos, como demuestra el Cybertruck de Musk. Más importante, la tendencia más amplia de tratar narrativas distópicas como manuales de instrucciones en lugar de advertencias revela algo fundamental sobre la relación actual de Silicon Valley con la innovación responsable. La pregunta no es si la tecnología puede hacer algo, sino si debe hacerlo, y bajo qué condiciones éticas y sociales.

¿Parecería extraña ahora la promesa de una aplicación de hacer que la sociedad sea obsoleta? Probablemente no. Y esa normalización de lo que alguna vez fue impensable, esa confusión sistemática de advertencias distópicas con aspiraciones tecnológicas, puede ser el desarrollo más distópico de todos. No porque la tecnología en sí misma sea inherentemente malévola, sino porque revela una industria que ha perdido la capacidad de distinguir entre inspiración visionaria y relato de advertencia, entre futuro deseable y pesadilla que debe evitarse.

Referencias

Henry, Casey Michael. (2025). Why Does So Much New Technology Feel Inspired by Dystopian Sci-Fi Movies? The New York Times Magazine, 5 de noviembre de 2025.

CNN Business. (2025). Why you need to pay attention to Sora 2 and our future AI unreality. CNN, 3 de octubre de 2025.

The National. (2025). Innovation or digital deception? OpenAI's Sora 2 sparks debate. The National, 29 de octubre de 2025.

The Decoder. (2025). The long-predicted deepfake dystopia has arrived with Sora 2. The Decoder, 16 de octubre de 2025.

CNBC. (2025). OpenAI's Sora 2 is putting safety and censorship to the test with stunningly real videos. CNBC, 3 de octubre de 2025.

Variety. (2025). Trade Group Representing Studio Ghibli, Other Japanese Companies Tells OpenAI to Stop Using Their Content to Train Sora 2 Video Generator. Variety, 5 de noviembre de 2025.

Archis. (2024). The Cybertruck is a symbol of our time but can't we imagine something better? Archis, 13 de marzo de 2024.

Teslarati. (2020). Tesla Cybertruck: Elon Musk pays year-end tribute to Blade Runner artist that inspired it all. Teslarati, 1 de enero de 2020.

Dezeen. (2022). Cybertruck represents a highly conservative continuation of the status quo. Dezeen, 8 de febrero de 2022.

NPR. (2024). Scarlett Johansson wants answers about ChatGPT voice that sounds like 'Her'. NPR, 20 de mayo de 2024.

The Washington Post. (2024). The Scarlett Johansson-OpenAI dispute is straight out of 'Her'. The Washington Post, 21 de mayo de 2024.

TIME. (2024). With Scarlett Johansson Feud, OpenAI and Sam Altman Lose Trust. TIME, 21 de mayo de 2024.

Fortune. (2025). I tried the viral AI 'Friend' necklace everyone's talking about—and it's like wearing your senile, anxious grandmother around your neck. Fortune, 3 de octubre de 2025.

Cybernews. (2025). AI necklace wearables - privacy, surveillance, and the subway backlash. Cybernews, 8 de octubre de 2025.

TechCrunch. (2025). AI startup Friend spent more than $1M on all those subway ads. TechCrunch, 29 de septiembre de 2025.

The Nation. (2025). AI Will Never Be Your Friend. The Nation, 15 de octubre de 2025.

The Conversation. (2025). ChatGPT and the movie 'Her' are just the latest example of the sci-fi feedback loop. The Conversation, 28 de julio de 2025.

Doctorow, Cory. (2017). Science fiction doesn't predict the future; it influences it. Various publications.

Vint, Sherryl. (2023). Science Fiction and Technological Anxiety. Academic publications on science fiction studies.

Recent Posts

Generated Image November 15, 2025 - 2_58AM

La “granja de portátiles”: el arma secreta de Corea del Norte

  Cinco ciudadanos estadounidenses se declararon culpables de operar ‘granjas de portátiles’ para blan
Read More
815fb62d-1f9f-41f9-8bb7-e8bbde4e5928

De archivador a investigador: la nueva era de NotebookLM

  NotebookLM deja de ser un simple anotador. Sus nuevas funciones de investigación automatizada y generación mult
Read More

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Sign In

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí