NEWSLETTER

Análisis de «La ola inminente: Guía de supervivencia para la era de la inteligencia artificial» de Mustafa Suleyman

42819f99-4067-4406-aafb-f6af47515daf

Análisis de «La ola inminente: Guía de supervivencia para la era de la inteligencia artificial» de Mustafa Suleyman

La advertencia llega desde el epicentro de la revolución tecnológica. No la firma un académico distante ni un novelista de ciencia ficción, sino una de las figuras más influyentes en la creación de la inteligencia artificial moderna: Mustafa Suleyman, cofundador de DeepMind, el laboratorio de inteligencia artificial adquirido por Google, y posteriormente de Inflection AI, quien ha estado, en sus propias palabras, en el epicentro de esta revolución durante más de una década. Su libro, The Coming Wave (La Ola Inminente), no es una celebración de los logros de Silicon Valley. Es un análisis sobrio y riguroso de una fuerza que él mismo ayudó a desatar, una guía de campo para la transformación más profunda y veloz de la historia humana. Proviene de alguien que ha visto la ola formarse desde dentro y ahora corre a la orilla para advertirnos de su tamaño.

La metáfora que da título a la obra es fundamental. La tecnología, sostiene Suleyman, no avanza de forma lineal y predecible. Emerge en grandes “olas” que, una vez que ganan impulso, se vuelven incontenibles y remodelan por completo la sociedad. Ocurrió con la agricultura, que nos hizo sedentarios; con la imprenta, que desató revoluciones religiosas y científicas; y con la electricidad, que iluminó y electrificó el mundo moderno. Cada ola sigue un patrón: una tecnología de propósito general prolifera, se vuelve más barata y potente, y sus consecuencias, tanto buscadas como imprevistas, se extienden hasta el último rincón del planeta.

La ola que ahora se cierne sobre nosotros, argumenta Suleyman, es diferente en su naturaleza y magnitud. No se trata de una nueva herramienta para manipular el mundo exterior, sino de tecnologías que intervienen en los dos pilares fundamentales de nuestra existencia: la inteligencia y la vida. La inteligencia artificial (IA) y la biología sintética son los motores gemelos de esta nueva era. Si las olas anteriores nos dieron poder sobre los átomos, esta nos da poder sobre los bits que componen el pensamiento y los genes que componen la vida misma.

De esta premisa surge el nudo gordiano del libro: el “problema de la contención”. Las tecnologías más poderosas son, por su propia naturaleza, las más difíciles de controlar. Tienden a difundirse sin remedio y a generar efectos imprevistos, a menudo perversos, que sus creadores nunca anticiparon. Nos enfrentamos, según la memorable frase de uno de los elogios al libro, a la tarea de “contener tecnologías incontenibles”.

Este problema nos aboca a lo que Suleyman denomina “el dilema”, la gran encrucijada del siglo XXI. Nuestra civilización se encuentra atrapada entre dos futuros igualmente indeseables. Por un lado, la catástrofe: si permitimos que estas herramientas de un poder sin precedentes proliferen sin control, es solo cuestión de tiempo que un mal actor, un accidente o una consecuencia no deseada provoque un desastre a escala global. Por otro, la distopía: si la única manera de prevenir esa catástrofe es mediante un sistema de vigilancia y control totalitario, omnisciente y ubicuo, habremos sacrificado la libertad en el altar de la seguridad.

El libro no ofrece respuestas fáciles. Es un mapa detallado de los rápidos, los arrecifes y las corrientes subterráneas que nos esperan. Nos obliga a confrontar una pregunta fundamental que este artículo intentará desgranar: ¿cómo puede la humanidad gobernar una fuerza que parece ingobernable para cosechar sus inmensos beneficios sin sucumbir a sus peligros existenciales?

Mustafa Suleyman

El verdadero argumento del libro: un dilema para el siglo XXI

La estructura argumental de The Coming Wave es una progresión lógica implacable, que lleva al lector desde la historia profunda de la tecnología hasta las decisiones críticas que enfrentamos en la próxima década.

El viaje comienza en la primera parte, “Homo Technologicus”, donde se establece una ley de hierro de la historia humana: la proliferación tecnológica es nuestro estado por defecto. Utilizando ejemplos canónicos como el motor de combustión interna y el ordenador, Suleyman demuestra cómo las tecnologías disruptivas siguen una curva predecible: se vuelven exponencialmente más baratas, más eficientes y, finalmente, ubicuas, siguiendo lo que él llama una “naturaleza evolutiva ineludible”. Los intentos históricos de frenar este avance, como la prohibición de la imprenta en el Imperio Otomano, se presentan como meros diques temporales contra una marea imparable. Incluso la aparente excepción del armamento nuclear, el caso más exitoso de contención, se revela como un éxito parcial, precario y dependiente de una combinación única de coste extremo y miedo existencial, una lección que prueba la regla más que la contradice.

La segunda parte, “La Próxima Ola”, sumerge al lector en las tecnologías específicas que definen nuestro presente. Se detalla el ascenso de la inteligencia artificial, desde los primeros éxitos de DeepMind con algoritmos como DQN y AlphaGo, capaces de dominar videojuegos y el Go a niveles sobrehumanos, hasta la explosión reciente de los grandes modelos de lenguaje (LLM) como ChatGPT. En paralelo, se explora la revolución de la biología sintética, impulsada por herramientas como la edición genética CRISPR y la capacidad de sintetizar ADN a bajo coste. Suleyman argumenta que esta ola es cualitativamente distinta debido a cuatro características intrínsecas que magnifican el problema de la contención: asimetría, hiper-evolución, omni-uso y autonomía.

En la tercera parte, “Estados de Fracaso”, el análisis se vuelve geopolítico. La ola tecnológica no llega a un mundo estable, sino que choca contra un orden político ya frágil. El “Gran Pacto” (el acuerdo implícito por el cual los ciudadanos ceden el monopolio de la violencia al Estado a cambio de seguridad y bienestar) se ve erosionado por una serie de “amplificadores de fragilidad” impulsados por la tecnología. Esta colisión entre una tecnología exponencial y unas instituciones lineales conduce directamente al “dilema” central del libro.

Finalmente, en la cuarta parte, “A Través de la Ola”, Suleyman pasa del diagnóstico a la prescripción. Reconociendo la aparente imposibilidad de la tarea, insiste en que la contención debe ser posible. Es aquí donde propone un marco de gobernanza de múltiples capas, una estrategia ambiciosa que abarca desde la seguridad técnica en el código hasta tratados internacionales.

El valor más profundo del libro no reside únicamente en su análisis, sino en su origen. Suleyman no es un observador externo; es uno de los arquitectos de este nuevo mundo. Su obra es un acto de disidencia interna, una rebelión contra lo que él llama la “aversión al pesimismo”: la tendencia arraigada en la élite tecnológica a ignorar o minimizar sistemáticamente los posibles resultados negativos, envuelta en un manto de optimismo casi obligatorio. El libro es, por tanto, una llamada a la responsabilidad dirigida a sus propios colegas. Es un intento de forzar un cambio cultural en el corazón del proyecto tecnológico, para pasar de la pregunta “¿qué podemos construir?” a las preguntas más urgentes: “¿qué debemos construir y cómo podemos controlarlo?”. En este sentido, The Coming Wave no es solo un mapa del futuro, sino una intervención activa en él, un intento de cambiar el rumbo antes de que la ola rompa con toda su fuerza.

Anatomía de la ola: las cuatro fuerzas que lo cambian todo

Para entender por qué esta ola es tan difícil de gobernar, Suleyman identifica cuatro características distintivas que, en conjunto, hacen que los métodos de control tradicionales resulten insuficientes. No son meros atributos técnicos; son las fuerzas que definen la nueva dinámica del poder en el siglo XXI.

La primera es la asimetría. Estas tecnologías otorgan un poder desproporcionado a individuos o grupos pequeños. El ejemplo más contundente del libro es el uso por parte de Ucrania de drones comerciales baratos para detener una columna de tanques rusos de cuarenta kilómetros, un ejército moderno y masivo paralizado por un adversario mucho más pequeño y ágil. La IA y la biología sintética democratizan la capacidad de actuar a gran escala. Un solo programador puede crear un sistema que afecte a millones; un solo laboratorio mal asegurado puede desencadenar una crisis global. El poder ya no es solo una función de la masa, el capital o el control territorial.

La segunda característica es la hiper-evolución. La velocidad del progreso es vertiginosa porque estas tecnologías son capaces de mejorarse a sí mismas. El caso de AlphaZero, una versión posterior de AlphaGo, es paradigmático: sin aprender de ninguna partida humana, solo jugando contra sí mismo millones de veces, superó en cuestión de días todo el conocimiento acumulado por la humanidad sobre el juego del Go en milenios. Este ciclo de automejora recursiva significa que la tecnología evoluciona a un ritmo exponencial, mucho más rápido que la capacidad de las instituciones sociales y los reguladores para comprenderla y adaptarse.

La tercera fuerza es el omni-uso. A diferencia de una tecnología con un propósito específico, como un misil balístico, la IA y la biología sintética son herramientas de propósito general, como la electricidad. Un mismo algoritmo de IA diseñado para acelerar el descubrimiento de nuevos fármacos (un bien incuestionable) puede ser reorientado con mínimos cambios para diseñar miles de nuevas armas químicas potenciales en cuestión de horas, como demostró un experimento citado en el libro. Esta naturaleza polivalente hace que sea imposible prohibir los usos “malos” sin sofocar también los “buenos”. No se puede regular el arma sin regular la herramienta.

Finalmente, la cuarta y más novedosa característica es la autonomía. Por primera vez en la historia, nuestras herramientas pueden tomar decisiones y ejecutar acciones complejas en el mundo físico sin supervisión humana directa. El libro relata el asesinato de un científico nuclear iraní, llevado a cabo no por un francotirador humano, sino por una ametralladora robótica controlada a distancia que utilizó IA para ajustar su puntería de forma autónoma. Este no es un simple caso de automatización; es una transferencia de agencia del creador a la creación.

Estas cuatro fuerzas no actúan de forma aislada; se retroalimentan en un ciclo que magnifica el problema de la contención. Una herramienta autónoma, que evoluciona rápidamente, puede ser utilizada por cualquiera para una infinidad de propósitos. La combinación de asimetría, hiper-evolución, omni-uso y autonomía es la receta para una tecnología fundamentalmente ingobernable, el núcleo técnico del desafío que Suleyman nos plantea.

Los motores imparables: por qué la ola es inevitable

Si la ola es tan peligrosa, ¿por qué no podemos simplemente detenerla? Suleyman dedica una parte crucial de su argumento a desmantelar esta idea, identificando tres motores interconectados y abrumadoramente poderosos que hacen que el avance de estas tecnologías sea, en la práctica, inevitable.

El primer motor es la carrera geopolítica. La competencia entre naciones es el incentivo más poderoso y menos negociable. El libro narra de forma vívida cómo la victoria de AlphaGo sobre el campeón mundial de Go, Lee Sedol, fue vivida en China como un “momento Sputnik”. Aquel evento, en el que una empresa occidental humilló a un maestro en un juego de profunda importancia cultural asiática, catalizó una respuesta masiva del estado chino, que lanzó un plan nacional para convertirse en la superpotencia mundial de la IA para 2030. Esto desencadena una clásica dinámica de carrera armamentista: ninguna nación puede permitirse el lujo de quedarse atrás en una tecnología que redefine el poder militar y económico. Detenerse unilateralmente es percibido como una forma de suicidio estratégico.

El segundo motor es el premio económico. El valor comercial de estas tecnologías es, sencillamente, el mayor de la historia. Las proyecciones económicas citadas en el libro son asombrosas: se estima que solo la IA podría añadir más de 15 billones de dólares a la economía mundial para 2030. Esto genera una “fiebre del oro” global, en la que corporaciones, inversores y emprendedores compiten ferozmente por desarrollar y desplegar estas tecnologías para capturar una porción de ese valor. En un sistema capitalista global, pedir a las empresas que renuncien a una oportunidad de esta magnitud es como pedirle a un río que no fluya hacia el mar.

El tercer motor, más sutil pero igualmente potente, es la cultura de la ciencia abierta. El ecosistema de investigación académica y tecnológica se basa en la colaboración y la transparencia. La publicación de artículos en revistas de acceso abierto, el intercambio de código en plataformas como GitHub y la celebración pública de los avances son la norma. Esta cultura acelera drásticamente la difusión del conocimiento. Un avance logrado en un laboratorio de una universidad hoy puede ser replicado y mejorado por miles de investigadores en todo el mundo mañana. Este sistema, que ha sido el motor del progreso científico durante siglos, hace que sea prácticamente imposible mantener en secreto los conocimientos más poderosos y, por tanto, controlarlos.

Estos tres incentivos, la seguridad nacional, el beneficio económico y el progreso científico, forman un triángulo de hierro que impulsa la ola hacia adelante a una velocidad cada vez mayor. No se trata de un determinismo tecnológico abstracto, sino de la suma de presiones geopolíticas, económicas y culturales muy concretas y profundamente arraigadas en nuestro sistema mundial.

El estado frágil ante el tsunami tecnológico

La ola inminente no rompe sobre una costa sólida y bien defendida. Choca contra un orden político, el estado-nación moderno, que ya muestra signos de profunda erosión. Suleyman argumenta que las nuevas tecnologías actúan como “amplificadores de fragilidad”, exacerbando las tensiones existentes y debilitando la capacidad del estado para cumplir con su función primordial: garantizar la seguridad y la estabilidad de sus ciudadanos.

Uno de los amplificadores más directos es la aparición de nuevas formas de conflicto. Las armas autónomas letales y los ciberataques potenciados por IA, como el ataque de ransomware WannaCry que paralizó el sistema de salud británico y que fue construido a partir de una herramienta robada a la Agencia de Seguridad Nacional de EEUU, reducen drásticamente las barreras para iniciar un conflicto. Empoderan a actores no estatales y permiten ataques devastadores con una atribución plausiblemente negable, socavando la lógica de la disuasión que ha mantenido una paz precaria durante décadas.

Otro vector de fragilidad es la desintegración de la verdad compartida. La capacidad de generar deepfakes (falsificaciones profundas) hiperrealistas y campañas de desinformación personalizadas a escala industrial amenaza con provocar lo que el libro llama una “infocalipsis”. En un entorno donde es imposible distinguir lo real de lo sintético, la confianza en las instituciones, los medios de comunicación y los propios procesos democráticos se evapora, dejando una sociedad polarizada e incapaz de llegar a consensos sobre problemas fundamentales.

La disrupción laboral masiva es otro amplificador clave. A diferencia de olas tecnológicas anteriores que desplazaron principalmente el trabajo manual, Suleyman sostiene que la IA está preparada para automatizar el “trabajo manual cognitivo” a una escala sin precedentes: redactar informes, gestionar la atención al cliente, escribir código simple. Este cambio podría generar un desempleo estructural masivo y una precariedad generalizada mucho antes de que la economía pueda crear nuevos roles en número suficiente, alimentando el descontento social y la inestabilidad política.

Finalmente, el libro subraya el creciente riesgo de accidentes catastróficos. La proliferación de herramientas de biología sintética, por ejemplo, aumenta exponencialmente la probabilidad de que un patógeno modificado, ya sea de forma intencionada o accidental, se escape de un laboratorio. Suleyman recuerda el caso de la gripe rusa de 1977, que muy probablemente se originó en un laboratorio, y no elude la controvertida pero plausible teoría de una fuga de laboratorio como origen de la COVID-19. Un solo error en un solo laboratorio podría tener consecuencias globales.

Estos amplificadores de fragilidad no son problemas aislados. Crean un círculo vicioso. El “Gran Pacto” social se basa en la capacidad del estado para proporcionar seguridad y orden. Las nuevas tecnologías atacan directamente esta capacidad. Un estado debilitado, con menos recursos y con la confianza de sus ciudadanos mermada, es intrínsecamente menos capaz de implementar las políticas complejas, costosas y a largo plazo que se necesitan para gobernar la ola tecnológica. La incapacidad de contener la tecnología conduce a una mayor proliferación, lo que a su vez amplifica la fragilidad del estado. Es la tormenta perfecta: el único actor con la legitimidad y la escala para gobernar la ola está siendo socavado por la propia ola que se supone que debe controlar.

Predicciones, horizontes y señales a vigilar

Una de las mayores fortalezas del libro de Suleyman es su esfuerzo por traducir las advertencias abstractas en pronósticos concretos y con plazos definidos. Lejos de ser una profecía vaga, ofrece un calendario de disrupciones que nos permite identificar señales tempranas y prepararnos para los cambios que se avecinan.

La predicción más importante y de más corto plazo es la llegada de la Inteligencia Artificial Capaz (IAC), o ACI por sus siglas en inglés. Suleyman distingue este concepto de la IA actual (estrecha) y de la futura y especulativa IAG (general). La IAC es una IA que no solo habla, sino que hace. Es un sistema autónomo capaz de ejecutar tareas complejas y de varios pasos para alcanzar un objetivo definido. El autor propone un “Test de Turing Moderno” para identificar su llegada: cuando una IA pueda tomar una inversión de 100.000 dólares y convertirla en un millón de dólares creando y gestionando un negocio en línea de forma autónoma, habremos entrado en la era de la IAC. Suleyman sitúa este hito en un horizonte de dos a cinco años.

Directamente ligada a la IAC, se encuentra la disrupción del trabajo de “cuello blanco”. En un plazo de cinco a siete años, el libro anticipa que un porcentaje significativo de las tareas cognitivas rutinarias en profesiones como la consultoría, el derecho, la programación o el marketing estarán automatizadas. Esto no significa necesariamente la desaparición de los empleos, pero sí una transformación radical de los roles y una enorme presión sobre los mercados laborales para adaptarse a una velocidad sin precedentes.

A más largo plazo, en un horizonte de cinco a diez años, Suleyman predice la ubicuidad total de la IA. Se convertirá en una utilidad tan fundamental como internet o la electricidad. La mayoría de las personas interactuarán a diario con asistentes personales de IA que organizarán sus vidas, gestionarán sus comunicaciones y actuarán como copilotos cognitivos en casi todas sus tareas. Esta integración profunda normalizará la interacción humano-máquina a un nivel que hoy apenas empezamos a imaginar.

Para visualizar mejor estos cambios, la siguiente tabla resume los horizontes temporales y las señales clave que debemos monitorear.

Tabla 1: Horizontes de la ola inminente

Predicción Horizonte Temporal (Estimación) Señales a Monitorear Actores Clave (Aceleradores/Frenos)
Llegada de la Inteligencia Artificial Capaz (IAC) 2-5 años Primer caso verificado de una empresa totalmente gestionada por IA; lanzamiento de APIs de «agentes autónomos». OpenAI, Google, Microsoft, Inflection AI.
Automatización del 40% de tareas de oficina 5-7 años Grandes empresas de consultoría y servicios anuncian despidos masivos por eficiencia de la IA. Gobiernos (regulación laboral), corporaciones (adopción).
Proliferación de armas autónomas letales (LAWS) 3-5 años Uso documentado de enjambres de drones autónomos en un conflicto por un actor no estatal. Empresas de defensa (Anduril), ejércitos (EEUU, China).
Primer deepfake que influye en una elección nacional 1-3 años Escándalo político basado en un video/audio sintético que se demuestra falso después de la votación. Plataformas de redes sociales, agencias de inteligencia.
Crisis de propiedad intelectual por IA generativa 1-2 años Sentencias judiciales clave sobre derechos de autor de obras generadas por IA; huelgas de industrias creativas. Grandes empresas de IA, estudios de cine, editoriales.

Escenarios a 3, 5 y 10 años: tres futuros posibles

El futuro no es un destino único, sino un abanico de posibilidades. A partir del análisis del libro, podemos esbozar tres escenarios coherentes que describen trayectorias distintas para la próxima década. No son predicciones, sino herramientas para pensar estratégicamente sobre las encrucijadas que tenemos por delante.

Escenario 1 (a 3 años): La aceleración desordenada

En este futuro cercano, las herramientas de IA generativa y los primeros agentes autónomos se difunden masivamente, tanto en versiones comerciales como de código abierto. La productividad individual se dispara. Pequeñas empresas y creadores compiten con grandes corporaciones gracias a estas herramientas. Sin embargo, el ecosistema informativo se vuelve caótico. La desinformación, los ciberataques y las estafas sofisticadas se convierten en un problema diario. Los gobiernos de todo el mundo reaccionan de forma espasmódica, proponiendo regulaciones que son a la vez fragmentadas, contradictorias y, a menudo, obsoletas en el momento de su aprobación. La carrera geopolítica entre Estados Unidos y China se intensifica, con cada bando acusando al otro de prácticas irresponsables mientras aceleran sus propios desarrollos. La sociedad experimenta una mezcla embriagadora de empoderamiento y ansiedad.

Escenario 2 (a 5 años): La bifurcación

El mundo comienza a dividirse en dos bloques regulatorios y filosóficos. Por un lado, un bloque de “contención dura”, probablemente liderado por la Unión Europea y seguido de cerca por una China que perfecciona su modelo de control autoritario. Este bloque impone regulaciones estrictas, licencias obligatorias para el desarrollo de IA avanzada y sistemas de vigilancia para prevenir malos usos. La innovación es más lenta, pero la sociedad percibe una mayor seguridad. Por otro lado, un bloque de “innovación abierta”, liderado por Estados Unidos y otros centros tecnológicos, que prioriza el desarrollo rápido y la libertad de mercado. Este ecosistema es más dinámico y genera avances científicos espectaculares, pero también sufre de mayor inestabilidad social, desigualdad y la proliferación de tecnologías de riesgo. Las grandes corporaciones tecnológicas se convierten en actores geopolíticos clave, navegando entre ambos bloques y, en la práctica, estableciendo sus propias normas.

Escenario 3 (a 10 años): La crisis del contrato social

La disrupción laboral predicha por Suleyman se materializa a gran escala. Sectores enteros del trabajo de conocimiento se ven diezmados por la IAC, y la creación de nuevos empleos no sigue el mismo ritmo. La desigualdad se dispara, y la base fiscal de los estados se erosiona, llevando a una crisis de los servicios públicos y del estado del bienestar. La confianza en las instituciones se desploma. Como respuesta, surgen nuevos movimientos sociales y comunidades que utilizan las mismas herramientas de IA para autoorganizarse al margen de las estructuras estatales tradicionales, un fenómeno de “fragmentación” que desafía la soberanía nacional. En este contexto de alta tensión, se produce el primer “accidente” tecnológico a gran escala: un ciberataque que paraliza una infraestructura crítica, una fuga de un laboratorio biológico con consecuencias contenidas pero aterradoras, o un colapso financiero provocado por IAs de trading autónomas. Este evento de choque fuerza una reevaluación global y desesperada del dilema, llevando al mundo a una encrucijada definitiva entre un control autoritario global o un esfuerzo sin precedentes por una gobernanza democrática de la tecnología.

Tabla 2: Mapa de escenarios futuros

Escenario Disparadores Clave Riesgos Dominantes Oportunidades Potenciales
Aceleración Desordenada (3 años) Lanzamiento de modelos de IAC de código abierto; fracaso de los primeros intentos de regulación internacional. Caos informativo; aumento de la ciberdelincuencia; inestabilidad geopolítica por incidentes menores. Democratización de la productividad; explosión de la creatividad individual; innovación en la periferia.
La Bifurcación (5 años) Aprobación de leyes de IA fundamentalmente divergentes en EEUU y la UE; China implementa un control total sobre su ecosistema de IA. Guerra fría tecnológica; fragmentación de internet; carreras regulatorias hacia el fondo (en el bloque abierto) o hacia el control (en el bloque cerrado). Avances científicos acelerados en el bloque «abierto»; mayor estabilidad social y seguridad en el bloque «cerrado».
La Crisis del Contrato Social (10 años) Tasa de desempleo estructural por encima del 20% en países de la OCDE; un «cisne negro» tecnológico con impacto global. Colapso de servicios públicos; aumento de movimientos extremistas y secesionistas; riesgo de reacción autoritaria global. Surgimiento de nuevas formas de organización social y económica; un mandato global para una gobernanza tecnológica seria.

El debate abierto: lo que el libro acierta y lo que deja por resolver

The Coming Wave es una obra monumental por su claridad, su perspectiva privilegiada y su valentía intelectual. Su mayor acierto es nombrar y confrontar la “aversión al pesimismo” que domina la cultura tecnológica, obligando a una industria a menudo ensimismada a mirar de frente las consecuencias de sus creaciones. La síntesis que realiza de historia, tecnología y geopolítica es magistral, y su capacidad para destilar conceptos complejos en un marco coherente (la ola, el problema de la contención, el dilema) lo convierte en un texto fundamental.

Sin embargo, el libro no está exento de críticas. Algunos reseñistas han señalado una cierta repetitividad en sus argumentos y una tensión no resuelta en su propuesta final. Los “diez pasos hacia la contención” que propone en el último capítulo, aunque bien intencionados, pueden parecer grandiosos o incluso contradictorios. ¿Cómo es posible abogar tan fervientemente por una contención que el propio libro declara, desde su primer capítulo, “no posible”? Más profundamente, su metáfora central de una “ola inevitable” puede ser interpretada como una forma de determinismo tecnológico que, irónicamente, podría eximir de responsabilidad a sus creadores. Si la ola es una fuerza de la naturaleza, ¿qué culpa tienen los surfistas?

Para enriquecer la perspectiva de Suleyman, es útil situarlo en el contexto del debate más amplio sobre el futuro de la IA, en conversación con otros dos pensadores clave.

Nick Bostrom, en su influyente libro Superintelligence, se centra en el riesgo existencial a largo plazo de una única IA superinteligente que, por un error en la programación de sus objetivos, actúe de forma catastrófica. Es el famoso “problema del control” y la alegoría del “maximizador de clips”, una IA que, para cumplir su objetivo de fabricar clips, acaba convirtiendo todo el universo, incluida la humanidad, en clips. El miedo de Bostrom es a un dios-máquina solitario y desalineado. El miedo de Suleyman, en cambio, es más inmediato y caótico: no le preocupa tanto una superinteligencia, sino la inteligencia suficientemente capaz (la IAC) distribuida en manos de millones de actores humanos con sus propios y variados objetivos, algunos de ellos nefastos. El problema para Suleyman no es un dios descontrolado, sino una humanidad empoderada hasta un punto peligroso.

Stuart Russell, en Human Compatible, ofrece una solución técnica al problema de la alineación de Bostrom. Propone un cambio de paradigma: en lugar de dar a las IAs objetivos fijos, deberíamos diseñarlas para que sean fundamentalmente inciertas sobre las preferencias humanas y obligarlas a aprenderlas a través de la observación y la deferencia. Es una solución elegante a nivel de diseño. El enfoque de Suleyman, sin embargo, es mucho más político y sistémico. Mientras que Russell se enfoca en cómo escribir el código de la IA, Suleyman se enfoca en cómo estructurar la sociedad que la rodea. Su marco de “contención” no es solo un problema de programación, sino de auditorías, tratados internacionales, inversión gubernamental y gobernanza global.

Aquí reside la contribución más importante de The Coming Wave. Los filósofos como Bostrom y Russell se han centrado en el problema de la alineación: cómo construir una IA segura. Suleyman se centra en el problema de la contención: cómo gestionar una sociedad con IA. La alineación es una condición necesaria, pero no suficiente, para la contención. Una IA perfectamente alineada con valores humanos nobles puede seguir siendo un arma devastadora en manos de un estado genocida. Una sociedad con mecanismos de contención robustos podría, en teoría, gestionar los riesgos incluso de IAs imperfectamente alineadas. Al cambiar el foco del debate de lo puramente técnico a lo profundamente político, Suleyman nos obliga a reconocer que la seguridad de la IA no se resolverá solo en los laboratorios de ingeniería, sino en los pasillos del poder, en las organizaciones internacionales y en la plaza pública.

La irremplazable brújula humana

Al cerrar The Coming Wave, la sensación no es de desesperación, sino de una urgencia abrumadora. El libro no es una profecía de un apocalipsis inevitable, sino un detallado y razonado llamamiento a la acción. La cruda elección que nos presenta entre la catástrofe y la distopía no es un destino sellado, sino el espacio de decisión en el que nuestra generación está obligada a operar. El futuro no está escrito, pero el tiempo para escribirlo se agota.

Suleyman deja claro que las soluciones no serán puramente tecnológicas. No habrá un parche de software que resuelva el problema de la contención. La tarea que tenemos por delante es fundamentalmente política y social. Requiere una revitalización de nuestras instituciones de gobernanza, desde los parlamentos nacionales hasta los organismos internacionales, que hoy parecen lentos, frágiles y superados por la velocidad del cambio. Los “diez pasos hacia la contención” que el autor esboza (que incluyen auditorías independientes, la identificación de “puntos de estrangulamiento” en la cadena de suministro, una inversión masiva en seguridad técnica y la creación de nuevos tratados internacionales) no pretenden ser un plan definitivo, sino el punto de partida para una conversación global que apenas hemos comenzado a tener.

En una era definida por la inteligencia artificial, la conclusión paradójica es que la inteligencia humana (en sus formas más elevadas de sabiduría, juicio ético, previsión y colaboración) se vuelve más crucial que nunca. Las máquinas pueden optimizar, predecir y ejecutar, pero no pueden deliberar sobre los valores que deben guiar nuestro futuro compartido. Esa tarea sigue siendo, y debe seguir siendo, irrevocablemente nuestra.

El desafío último que nos plantea la ola inminente no es cómo controlar a la máquina, sino cómo gobernarnos a nosotros mismos. Exige que superemos la aversión al pesimismo y miremos los riesgos de frente; que trascendamos los intereses nacionales y corporativos a corto plazo en favor de la seguridad global a largo plazo; y que involucremos a toda la sociedad en una deliberación sobre el tipo de futuro que deseamos construir con estas herramientas de poder prometeico. El mensaje final del libro es uno de responsabilidad empoderada. La ola está llegando, pero no somos meros espectadores indefensos. Todavía podemos aprender a navegarla, a canalizar su inmenso poder hacia la creación de un mundo más próspero y justo. La tarea es monumental, pero la alternativa es impensable. La brújula, por ahora, sigue en nuestras manos.

Dos frases que condensan la obra

Si hubiera que destilar el espíritu de este denso libro en unas pocas palabras, dos de sus ideas centrales resonarían con especial fuerza.

La primera encapsula la paradoja fundamental que define nuestra era: “Tenemos que contener tecnologías incontenibles”. Esta frase, citada en uno de los elogios del libro, captura la tensión entre la naturaleza expansiva de la tecnología y la necesidad imperativa de controlarla.

La segunda define la encrucijada existencial a la que nos enfrentamos: “Tarde o temprano, una generación poderosa de tecnología conduce a la humanidad hacia resultados catastróficos o distópicos. Creo que este es el gran meta-problema del siglo XXI”. Esta es la formulación más clara del dilema que se encuentra en el corazón de la obra.

Glosario mínimo para navegar la ola

Para comprender la discusión sobre el futuro de la IA, es esencial manejar un vocabulario básico. Estos son algunos de los términos clave utilizados en The Coming Wave, definidos en un lenguaje accesible.

  1. Inteligencia Artificial General (IAG): Un punto hipotético en el que una IA puede realizar todas las tareas cognitivas humanas mejor que los humanos más inteligentes.
  2. Inteligencia Artificial Capaz (IAC): El concepto de Suleyman para una IA de futuro cercano, capaz de lograr una amplia gama de tareas complejas de forma autónoma, pero sin ser todavía plenamente general.
  3. Biología Sintética: La capacidad de diseñar y construir nuevos organismos o rediseñar sistemas biológicos existentes.
  4. La Ola Inminente: El conjunto emergente de tecnologías, centradas en la IA y la biología sintética, cuyas aplicaciones transformadoras presentan tanto oportunidades inmensas como riesgos sin precedentes.
  5. Contención: La capacidad de supervisar, restringir, controlar y, si es necesario, desactivar tecnologías.
  6. El Dilema: La creciente probabilidad de que tanto el desarrollo sin control de las nuevas tecnologías como los intentos de prohibirlas por completo conduzcan a resultados catastróficos o distópicos.
  7. Asimetría: La característica de estas tecnologías que permite a individuos o grupos pequeños ejercer un poder desproporcionado.
  8. Hiper-evolución: La capacidad de estas tecnologías para mejorar y desarrollarse a un ritmo exponencial, a menudo de forma autónoma.
  9. Omni-uso: La cualidad de ser tecnologías de propósito general que pueden aplicarse a una infinidad de usos, tanto beneficiosos como perjudiciales.
  10. Alineación: El desafío técnico de asegurar que los objetivos y comportamientos de un sistema de IA se correspondan con los valores e intenciones humanas.
  11. Gobernanza: El conjunto de normas, instituciones y procesos, tanto técnicos como políticos, para dirigir y controlar el desarrollo y despliegue de la tecnología.

Referencias

Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

Lee, Kai-Fu, and Chen Qiufan. AI 2041: Ten Visions for Our Future. New York: Currency, 2021.

Russell, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. New York: Viking, 2019.

Suleyman, Mustafa, with Michael Bhaskar. The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma. New York: Crown, 2023.

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí