NEWSLETTER

De premios Nobel a la realeza: el frente anti-superinteligencia

Google_AI_Studio_2025-10-23T07710_08.692Z

De premios Nobel a la realeza: el frente anti-superinteligencia

En una era definida por la aceleración tecnológica vertiginosa, una coalición improbable y extraordinariamente variopinta ha emergido para tirar del freno de emergencia. Más de 700 voces, que van desde premios Nobel y los llamados «padrinos» de la computación moderna hasta celebridades globales, líderes religiosos y estrategas políticos, han firmado una carta abierta con una demanda tan simple en su formulación como profunda en sus implicaciones: prohibir el desarrollo de la superinteligencia artificial. Ni más ni menos.

La misiva, coordinada por el Future of Life Institute (FLI), no pide una pausa temporal ni una reflexión casual; exige una detención total hasta que exista un consenso científico amplio sobre su seguridad y un respaldo público inequívoco para su creación. Este frente unido, que incluye nombres como el cofundador de Apple, Steve Wozniak; el asesor papal Paolo Benanti; e incluso Harry y Meghan, los duques de Sussex, representa quizás la advertencia más solemne hasta la fecha sobre una tecnología que podría redefinir el poder y el control en el planeta.

La carta es un documento de una brevedad casi telegráfica, una decisión deliberada para atraer a un espectro ideológico lo más amplio posible. Su mensaje central advierte contra la creación de sistemas que puedan superar el rendimiento humano en todas las tareas útiles, un umbral que, una vez cruzado, podría dejar el destino de la humanidad en manos de entidades no humanas cuyo comportamiento es, por definición, impredecible.

La iniciativa es la sucesora de un intento anterior del FLI en 2023, que pedía una moratoria de seis meses y que, a pesar de su amplia circulación, no logró su objetivo. Ahora, con un enfoque más específico y una urgencia intensificada, los organizadores buscan cristalizar una preocupación latente en un movimiento global antes de que, según ellos, sea demasiado tarde.

El cronómetro de la singularidad

La urgencia que impregna la campaña se basa en una presunta evaluación alarmante del ritmo de progreso. Anthony Aguirre, director ejecutivo del FLI, advierte que el advenimiento de una superinteligencia podría estar a tan solo uno o dos años de distancia. «El tiempo se está agotando», afirmó en una entrevista, subrayando que la única fuerza capaz de desviar la trayectoria actual de las grandes corporaciones tecnológicas es una «toma de conciencia generalizada en todos los niveles de la sociedad de que esto no es realmente lo que queremos».

El mensaje del Príncipe Harry, Duque de Sussex, quiere también apoyar a esta postura su punto de vista: «El verdadero test del progreso no será cuán rápido nos movemos, sino cuán sabiamente guiamos. No hay una segunda oportunidad». Y cabe preguntarnos si un miembro de una figura institucional no democrática, como lo es un miembro de la realeza, tiene una voz legitima para ser alzada en nombre de mayorías.

Aunque esta percepción parece encontrar un eco en la opinión pública. O por lo menos en una encuesta publicada junto a la carta reveló que asegura que el 64% de los estadounidenses cree que el desarrollo de esta tecnología debería detenerse hasta que sea demostrablemente segura y controlable, mientras que apenas un 5% apoya su desarrollo a la máxima velocidad posible.

Y los signatarios hayan en esta brecha entre lo que estiman que es la ambición de un puñado de empresas y el sentir mayoritario es el núcleo de la argumentación de la campaña. «Son un pequeño número de compañías muy ricas las que están construyendo esto, y un número muy, muy grande de personas las que preferirían tomar un camino diferente», como señala Aguirre.

Algunas figuras populares como Joseph Gordon-Levitt y el músico will.i.am han añadido sus voces a este coro de cautela. El mensaje del actor de «500 días con ella», que acompaña con su firma, destila con convicción esta preocupación: cuestiona si, más allá de herramientas específicas para curar enfermedades o fortalecer la seguridad, la sociedad realmente desea una inteligencia artificial que imite a los humanos, manipule a los niños y optimice la entrega de publicidad, que es, según él, lo que las grandes tecnológicas entienden por «superinteligencia».

El desafío fundamental que intenta exponer la carta es una paradoja inherente a la industria y un punto a atender: las mismas entidades que poseen la capacidad técnica para crear una superinteligencia son las menos incentivadas para autorregularse. La competencia feroz entre gigantes tecnológicos en Estados Unidos y China crea una dinámica de «carrera hacia el abismo», donde el primero en alcanzar la meta podría obtener una ventaja estratégica irreversible, sin importar los riesgos existenciales.

Aguirre lo expresa sin rodeos pero con adjetivos, señalando que gran parte de los daños potenciales provienen de las «estructuras de incentivos perversas» a las que están sujetas las empresas. Por esta razón, considera que una regulación externa y vinculante es indispensable para efectuar un cambio significativo.

La diversidad de los firmantes revela cuán profundo ha calado este temor. La lista incluye a Susan Rice, asesora de seguridad nacional durante la administración de Barack Obama, y, de manera notable, a Leo Gao, un miembro del personal técnico de OpenAI, una organización que su propio director ejecutivo, Sam Altman, ha descrito como una «compañía de investigación de la superinteligencia». La firma de un empleado de una de las empresas a la vanguardia de esta carrera es un testimonio silencioso pero potente de las disensiones internas y de la creciente voluntad de expresar públicamente las dudas. Aguirre espera que más personas se sumen a medida que la campaña gane visibilidad, argumentando que las creencias ya existen, pero falta la libertad para manifestarlas en voz alta.

Aunque es verdad que no se trata de una amplia mayoría de la opinión pública calificada, hay voces como la del autor Yuval Noah Harari, otro de los signatarios, que advierten repetidamente sobre los peligros de una inteligencia que no solo supere las capacidades humanas, sino que pueda intentar manipular y controlar las narrativas culturales y políticas.

¿El futuro es tan oscuro?

La carta abierta del Future of Life Institute funciona como un manifiesto en un momento fundamental de cambio en la historia humana. Trasciende el debate técnico para plantear una pregunta fundamental sobre la gobernanza del poder. No se opone a la inteligencia artificial en su totalidad, sino específicamente a la abdicación del control humano ante una inteligencia superior. Algo dificultoso de definir y de abordar en escaso margen de tiempo.

Mientras el eco de este llamado (armónico con otros similares de la historia frente a algún avance tecnológico de gran magnitud) resuena en los pasillos del poder y la academia, una contranarrativa silenciosa pero persistente cuestiona si una prohibición tan drástica y generalizada no es, en sí misma, una capitulación prematura ante el miedo, sacrificando avances potencialmente transformadores en medicina, ciencia y bienestar humano en el altar de un riesgo existencial que, para muchos, sigue siendo una especulación lejana y sin pruebas concluyentes.

Referencias

  • «Statement on Superintelligence». (2025, 22 de octubre). Future of Life Institute.

  • «Steve Wozniak y los dos grandes pioneros de la IA recogen más de 800 firmas para pedir un ‘tiempo muerto’ en el desarrollo de superinteligencias». Genbeta.

  • «Pausa a los experimentos gigantes de IA: Una carta abierta». (2023, 22 de marzo). Future of Life Institute.

  • «Índice de seguridad de la IA 2025». (2025). Future of Life Institute.

  • «Científicos y figuras públicas piden frenar el desarrollo de la superinteligencia artificial por riesgos globales». Hora Digital.

Publicaciones Recientes

Google_AI_Studio_2025-10-23T04_04_55.012Z

Todo o nada: la nueva regla de la IA para ser honesta

Vivimos una era de asombro tecnológico, impulsada por la irrupción de los grandes modelos de lenguaje. Estas arquitect
Leer Más
Google_AI_Studio_2025-10-22T15_55_44.721Z

EVOTEST: La IA aprende a aprender

  En los pasillos de los laboratorios más avanzados del mundo, donde se gesta el futuro de la inteligencia artific
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí