NEWSLETTER

Análisis de «Imperio de la IA» de Karen Hao: Cómo OpenAI está construyendo un nuevo orden mundial

3d0e229c-5407-4540-91d8-711df665f956

Análisis de «Imperio de la IA» de Karen Hao: Cómo OpenAI está construyendo un nuevo orden mundial

A lo largo de este artículo abordaremos el flamante libro Imperio de la IA: Sueños y Pesadillas en la OpenAI de Sam Altman de Karen Hao, quien sostiene que OpenAI, bajo el liderazgo de Sam Altman, se ha convertido en un imperio colonial moderno. Este «imperio» se caracteriza por la extracción masiva de recursos globales (datos, mano de obra, energía), justificada por la misión cuasi religiosa de desarrollar la Inteligencia Artificial General (IAG) para el «beneficio de toda la humanidad».

Hao documenta la transformación de OpenAI de una organización sin fines de lucro idealista a una entidad secreta e impulsada comercialmente,  y analiza el papel central de Sam Altman, cuya ambición y estilo de liderazgo se presentan como los principales impulsores de este cambio. La autora discurre también sobre los costos humanos y ambientales significativos, a menudo ocultos, de la búsqueda de la escala por parte de OpenAI, incluida la explotación laboral en el Sur Global y el inmenso consumo de recursos de los centros de datos. Su análisis destaca los recurrentes conflictos internos sobre seguridad, comercialización y gobernanza que han definido la historia de OpenAI, culminando en la dramática destitución y regreso de su CEO. Algo para destacar son las alternativas propuestas por Hao al modelo de «imperio», abogando por un futuro más democrático, sostenible y centrado en la comunidad para el desarrollo de la IA.

La Paradoja de OpenAI y la Metáfora del «Imperio»

La Contradicción Central

En el corazón de la narrativa de Karen Hao se encuentra una paradoja fundamental: la misión pública de altruismo de OpenAI frente a su realidad operativa de competencia agresiva y secretismo. El libro comienza con la crisis de la junta directiva de noviembre de 2023, estableciendo inmediatamente esta tensión. La justificación de la junta para despedir a Altman, que «no fue consistentemente sincero», se presenta como la primera grieta pública en la fachada altruista cuidadosamente construida de la compañía. Este evento sirve como punto de entrada para una investigación más profunda sobre cómo una organización fundada con la promesa de apertura y beneficio para la humanidad llegó a ser definida por luchas de poder internas y una búsqueda implacable de dominio en el mercado.

Definiendo el «Imperio de la IA»

La metáfora central de Hao no es una mera elección estilística, sino un marco analítico funcional que conecta diversas externalidades negativas en un sistema cohesivo de extracción impulsado por una ideología central. No se trata de violencia manifiesta, sino de un nuevo orden mundial colonial basado en la justificación ideológica y la extracción de recursos. Este imperio se define por tres pilares:

  1. Extracción de Recursos: La base del imperio es la incautación y extracción de «recursos preciosos para alimentar su visión de la inteligencia artificial: el trabajo de artistas y escritores; los datos de innumerables individuos… la tierra, la energía y el agua necesarios para albergar y operar centros de datos masivos». Este proceso se presenta como una forma moderna de saqueo, donde el valor digital y material se extrae a escala planetaria para alimentar un motor tecnológico centralizado.
  2. Explotación Laboral: El imperio depende de la explotación de una fuerza laboral global para «limpiar, tabular y preparar esos datos para convertirlos en lucrativas tecnologías de IA». Esta mano de obra, a menudo ubicada en el Sur Global y operando en condiciones precarias, realiza el trabajo esencial pero invisible que permite que los modelos de IA funcionen, un sistema que el libro denomina «capitalismo de desastre».
  3. Justificación Ideológica: Para legitimar sus acciones, el imperio proyecta «ideas tentadoras de modernidad» y la necesidad de competir contra otros actores (ya sean corporativos o estatales) para dar «cobertura e impulsar invasiones de la privacidad, el robo y la catastrófica automatización». Esta narrativa, que se hace eco de las históricas «misiones civilizadoras», posiciona la búsqueda de la IAG como un imperativo moral que trasciende los daños colaterales inmediatos.
La Posición de la Autora

Como periodista, la perspectiva de Karen Hao, que una vez vio a OpenAI como «los buenos», proporciona la columna vertebral de la narrativa, prestando credibilidad a su análisis. Su trayectoria desde un optimismo cauteloso hasta una exposición crítica refleja la propia transformación de la compañía, permitiendo al lector seguir el desmoronamiento de los ideales fundacionales de OpenAI a través de los ojos de una observadora cercana e inicialmente comprensiva. Este viaje personal añade una capa de autenticidad a la crítica, sugiriendo que las conclusiones del libro no son el resultado de un sesgo preexistente, sino de una investigación sostenida que reveló una realidad preocupante.

El Arquitecto del Imperio: Un Perfil de Samuel H. Altman

Primeros Años y Rasgos Formativos

La biografía de Sam Altman revela una dualidad de ambición y ansiedad que, según Hao, define su liderazgo. Desde una edad temprana, se le describe como intensamente competitivo (insistiendo en ganar juegos de mesa y eligiendo acciones de Apple con una confianza profética) y como un líder natural carismático. Fue capitán del equipo de waterpolo, dirigió el anuario escolar y se enfrentó a la intolerancia en su escuela secundaria tras declararse gay, demostrando una temprana capacidad para movilizar y confrontar.

Sin embargo, esta confianza externa se contrapone a una profunda ansiedad interna. El libro detalla cómo Altman lidiaba con la preocupación por la opinión de los demás y sufría de pánico relacionado con la salud, llegando a convencerse de que un dolor de cabeza era meningitis o linfoma. Esta dualidad se presenta como la clave de su estilo de liderazgo: un deseo implacable de avanzar, combinado con una cautela de superviviente que lo lleva a cubrir sus apuestas y gestionar los riesgos de manera estratégica. Esta tensión interna se manifiesta en su enfoque hacia la IA: un impulso para alcanzar la IAG lo más rápido posible, yuxtapuesto con advertencias públicas sobre sus peligros existenciales.

Mentores e Influencias Ideológicas

La visión del mundo de Altman fue moldeada por figuras clave de Silicon Valley que reforzaron sus inclinaciones hacia la ambición a gran escala y el dominio del mercado.

  • Paul Graham: El fundador de Y Combinator fue el primer mentor significativo de Altman, viéndolo como uno de los fundadores más prometedores que había conocido. La famosa cita de Graham, «Podrías lanzarlo en paracaídas a una isla llena de caníbales y volver en 5 años y sería el rey», encapsula la percepción de la habilidad innata de Altman para acumular poder. Graham le inculcó los principios fundamentales del éxito de las startups, el crecimiento exponencial y la importancia de una ambición audaz.
  • Peter Thiel: Como amigo cercano y mentor, la influencia de Thiel es evidente en la adopción por parte de Altman de la teoría del monopolio, resumida en la conferencia de Thiel «La competencia es para los perdedores». La estrategia de Altman de buscar una mejora de «10x» sobre la competencia y su enfoque en proyectos de tecnología dura a largo plazo, como la energía de fusión y la longevidad, reflejan la filosofía de Thiel de apostar por cambios tecnológicos fundamentales que creen nuevos mercados dominantes.
La Filosofía de la «Religión» y el «Imperio»

Las propias palabras de Altman revelan una ambición que trasciende los objetivos corporativos tradicionales, enmarcando su trabajo en términos casi teológicos. El epígrafe del libro cita a Altman de 2013: «Los fundadores más exitosos no se proponen crear empresas. Están en una misión para crear algo más cercano a una religión». Esta declaración es central para la tesis de Hao, sugiriendo que Altman ve la construcción de empresas como un medio para un fin ideológico mayor.

Después de dejar Y Combinator, declaró con orgullo: «realmente construimos un imperio». Su fascinación por el poder se subraya aún más con su admiración por Napoleón Bonaparte, no por sus logros militares, sino por su «increíble comprensión de la psicología humana» y su capacidad para «controlar a la gente». Hao presenta esto como una visión escalofriante de la fascinación de Altman por los mecanismos del poder y la influencia.

Estilo de Liderazgo y Controversias

Hao retrata el liderazgo de Altman como un patrón de maniobras estratégicas y presunta manipulación, lo que finalmente condujo a la pérdida de confianza de la junta directiva. Se le describe como un «estratega y negociador brillante» y el «Usain Bolt de la recaudación de fondos», capaz de encantar a inversores, políticos y al público.

Sin embargo, internamente, este carisma se manifiesta como una fuente de caos. El libro detalla acusaciones de ejecutivos como Mira Murati e Ilya Sutskever de que Altman les decía a diferentes personas lo que querían oír, socavando la autoridad de sus líderes y creando conflictos entre facciones. Se le acusa de aislar a quienes lo desafiaban, creando un ambiente donde la lealtad personal era primordial. Este comportamiento es citado como la razón principal de la crisis de la junta de noviembre de 2023.

La controversia con su hermana, Annie, quien alega abuso y abandono, se presenta como una narrativa paralela que refleja las dinámicas de poder y la presunta manipulación en su vida profesional. Aunque la familia Altman niega las acusaciones, Hao las incluye como parte del patrón más amplio del personaje de Altman, sugiriendo un nexo entre sus relaciones personales y profesionales.

El estilo de liderazgo de Altman es, en efecto, una paradoja funcional. Su habilidad para mantener y articular posiciones contradictorias (por ejemplo, abogar por la seguridad mientras impulsa una comercialización agresiva) no es un defecto, sino el mecanismo mismo que le permite mantener el control sobre facciones dispares y en conflicto dentro de la empresa. El libro identifica tres «clanes» en OpenAI: «Investigación Exploratoria», «Seguridad» y «Startup», cada uno con objetivos fundamentalmente diferentes. Hao proporciona múltiples ejemplos de Altman validando las preocupaciones del clan de Seguridad en privado, mientras que simultáneamente anima al clan Startup/Aplicado a moverse más rápido. Este comportamiento evita que una sola facción se sienta completamente desautorizada, impidiendo así que se unan en su contra. Cada grupo cree, en momentos diferentes, que él es su defensor. Esto genera una fricción interna constante y un «desgaste organizacional», pero también posiciona a Altman como el mediador indispensable y el tomador de decisiones final. Por lo tanto, lo que parece ser inconsistencia o manipulación es, de hecho, una estrategia altamente efectiva (aunque destructiva) para centralizar el poder en una organización profundamente dividida.

 

Karen Hao

 

La Génesis y Metamorfosis de OpenAI

Orígenes Idealistas (2015)

OpenAI fue concebida como una anomalía en Silicon Valley: una organización sin fines de lucro dedicada a ser una fuerza contraria al desarrollo corporativo de la IA, motivada principalmente por la adquisición de DeepMind por parte de Google. Figuras clave como Elon Musk y Sam Altman se unieron para prometer 1.000 millones de dólares a una misión audaz: desarrollar la Inteligencia Artificial General (IAG) «para el beneficio de la humanidad». El nombre «OpenAI» no era un mero adorno de marca; significaba un compromiso fundamental con la transparencia y la colaboración. La promesa inicial era abrir su investigación al mundo, asegurando que los frutos de la IAG no fueran acaparados por una sola entidad con fines de lucro.

La Primera Fractura: La Salida de Elon Musk (2018)

La unidad idealista de los primeros días se disolvió rápidamente por desacuerdos sobre el control y la estrategia. El modelo sin fines de lucro demostró ser financieramente insostenible para cubrir los costos computacionales masivos que exigía la investigación de IA a gran escala. Esto condujo a una lucha de poder por el puesto de CEO entre Musk y Altman. Altman prevaleció, y Musk abandonó la organización, llevándose consigo la promesa de su financiación futura. Hao enmarca este evento como la primera señal importante de que el proyecto estaba impulsado tanto por el «ego» como por el altruismo puro, revelando las tensiones inherentes entre la misión y la ambición personal.

El Giro hacia el «Beneficio Limitado» (2019)

Para llenar el vacío financiero dejado por Musk, Altman diseñó una reestructuración radical que redefiniría la identidad de OpenAI. Creó una subsidiaria con fines de lucro, OpenAI LP, anidada dentro de la matriz sin fines de lucro. Este modelo híbrido de «beneficio limitado» permitió a la empresa recaudar capital de riesgo y ofrecer participaciones a los empleados, con un límite en los retornos para los inversores (inicialmente 100 veces su inversión).

Este movimiento fue justificado públicamente como una necesidad pragmática para seguir persiguiendo la misión. Sin embargo, para muchos observadores y algunos dentro de la organización, fue una traición a los principios fundacionales. La estructura de beneficio limitado, aunque novedosa, desdibujó la línea entre una organización benéfica y una empresa con fines de lucro, sentando las bases para su trayectoria comercial posterior.

La Alianza con Microsoft

La nueva estructura atrajo inmediatamente una inversión masiva de Microsoft, que inyectó 1.000 millones de dólares en 2019. A cambio, Microsoft se convirtió en el proveedor exclusivo de la nube de OpenAI y obtuvo derechos prioritarios de comercialización sobre sus tecnologías. Esta asociación fue un punto de inflexión. No solo cimentó el giro de OpenAI hacia una trayectoria comercial, sino que también le proporcionó el recurso más crítico para sus ambiciones: el «cómputo» a una escala que antes era inalcanzable. La alianza con Microsoft no fue simplemente una transacción financiera; fue la unión de la ambición de vanguardia de OpenAI con el poder de distribución y la infraestructura de un gigante tecnológico establecido.

La transformación estructural de OpenAI no fue solo una respuesta a la necesidad financiera, sino el resultado inevitable de su doctrina técnica adoptada. La decisión de la compañía, bajo la influencia de Ilya Sutskever, de adoptar el «escalamiento» como el camino principal hacia la IAG predeterminó la necesidad de una estructura corporativa capaz de recaudar sumas astronómicas de capital. Esta hipótesis técnica, que postula que la inteligencia emergería de modelos masivamente ampliados, tenía una consecuencia económica directa: requería cantidades exponencialmente crecientes de recursos computacionales, que son extremadamente caros. La estructura sin fines de lucro, dependiente de donaciones, era fundamentalmente incompatible con esta curva de costos exponencial. Por lo tanto, la decisión de perseguir el escalamiento causó la crisis financiera que necesitó el giro hacia el modelo de beneficio limitado y la alianza con Microsoft. La estrategia técnica dictó la estructura corporativa, no al revés.

La Doctrina del Escalamiento: El Motor de Progreso y Peligro de OpenAI

La Hipótesis del Escalamiento

La estrategia central que impulsó el ascenso de OpenAI fue la «hipótesis del escalamiento», una creencia defendida fervientemente por el cofundador y científico jefe Ilya Sutskever. Esta doctrina postula que el camino más fiable, si no el único, hacia la IAG consiste en aumentar masivamente tres variables clave: el tamaño de un modelo (parámetros), el conjunto de datos con el que se entrena y la potencia de cálculo («cómputo») utilizada. Esta filosofía prioriza la fuerza bruta computacional sobre la innovación algorítmica, apostando a que las capacidades inteligentes «emergerán» de la escala por sí mismas.

De GPT-2 a GPT-4: Una Carrera por la Escala

El libro traza la progresión de los modelos insignia de OpenAI como una aplicación directa de esta doctrina, donde cada generación representa un salto de orden de magnitud en escala y capacidad.

  • GPT-2 (1.500 millones de parámetros): Este fue el primer modelo que demostró una generación de texto coherente y de formato largo, produciendo prosa que a veces era indistinguible de la escrita por humanos. Su lanzamiento fue controvertido y se realizó por etapas debido a los temores de su posible uso indebido para la desinformación, lo que marcó un giro decisivo de OpenAI hacia el secretismo y el control sobre su investigación.
  • GPT-3 (175.000 millones de parámetros): Con 175 mil millones de parámetros, GPT-3 representó un salto monumental, siendo más de cien veces más grande que su predecesor. Este hito conmocionó al mundo de la IA. Para su entrenamiento, se utilizó un conjunto de datos masivo que incluía gran parte de internet, rastreado a través de Common Crawl, así como, según se informa, colecciones de libros pirateados. Sus capacidades resultantes superaron con creces a las de modelos anteriores. El éxito rotundo de GPT-3 validó la «hipótesis del escalamiento» para la empresa, solidificando su estrategia de centrarse en los modelos de lenguaje como la vía más directa hacia la IAG.
  • GPT-4: El siguiente gran salto representó un desafío de ingeniería aún mayor, que requirió superar no solo obstáculos computacionales, sino también una escasez de datos de alta calidad. Su desarrollo exacerbó aún más las divisiones internas entre los equipos de seguridad, que abogaban por la cautela, y los equipos de producto, que presionaban por un lanzamiento rápido.
La Profecía Autocumplida

Hao argumenta que la «Ley de OpenAI» (la observación de que el uso de cómputo para los principales modelos de IA se duplicaba cada pocos meses, superando con creces la Ley de Moore) no es una ley natural del progreso tecnológico, sino una profecía autocumplida. Al tomar la decisión estratégica de invertir masivamente en cómputo y escalar sus modelos, OpenAI estableció un nuevo paradigma competitivo. El resto de la industria, para no quedarse atrás, se vio obligada a seguir el mismo camino intensivo en recursos, convirtiendo la hipótesis de OpenAI en el estándar de facto para el desarrollo de la IA de vanguardia.

La Erosión de las Normas Científicas

El enfoque implacable en el escalamiento y la ventaja comercial tuvo un costo significativo para la cultura científica de la IA. OpenAI, que una vez defendió la apertura, comenzó a abandonar la transparencia. La compañía dejó de publicar artículos de investigación detallados sobre la arquitectura o los datos de entrenamiento de sus modelos más avanzados, como GPT-4. Este movimiento hacia el secretismo fue irónicamente legitimado por sus argumentos anteriores, orientados a la seguridad, para retener GPT-2. Lo que comenzó como una justificación basada en la precaución se convirtió en una práctica estándar para proteger la propiedad intelectual y mantener una ventaja competitiva.

La doctrina del escalamiento creó lo que se puede describir como una «trampa de competencia» para OpenAI y la industria en general. Al lograr un éxito tan dramático a través de un único método (el escalamiento de fuerza bruta), se volvió organizacional y económicamente prohibitivo invertir en paradigmas de IA alternativos, potencialmente más eficientes o seguros. Los primeros experimentos de OpenAI con el escalamiento de Transformers (de GPT-1 a GPT-3) produjeron resultados sin precedentes y una validación de mercado que atrajo una inversión masiva de Microsoft, destinada específicamente a construir supercomputadoras aún más grandes para continuar esta trayectoria. Toda la estructura corporativa, desde el talento de ingeniería hasta las hojas de ruta de productos, se optimizó en torno a este único paradigma. Enfoques alternativos, como la IA neurosimbólica o métodos que requieren menos datos, fueron considerados menos prometedores o se vieron privados de recursos porque no se alineaban con el camino establecido e intensivo en capital. Esto creó un ciclo de retroalimentación: el éxito con el escalamiento justificó más inversión en escalamiento, lo que lo afianzó aún más como el único camino viable, marginando todas las demás direcciones de investigación tanto dentro de OpenAI como en toda la industria, que se vio obligada a competir en los mismos términos.

Sam Altman

Fracturas Dentro del Imperio: Una Historia de Conflicto Interno

La historia de OpenAI, tal como la presenta Hao, no es una de progreso lineal, sino una marcada por una serie de crisis internas que revelan las profundas fallas ideológicas y estructurales en su núcleo. Cada conflicto se basó en el anterior, intensificando las tensiones entre la seguridad, la comercialización y la gobernanza.

  • El Pecado Original: La Salida de Musk (2018)

La primera gran crisis de OpenAI estableció el conflicto fundamental que definiría su futuro. La salida de Elon Musk no fue solo por una lucha de poder por el puesto de CEO, sino por un desacuerdo fundamental sobre la dirección y la estructura de la organización. El evento expuso la tensión insostenible entre la misión sin fines de lucro, que requería un enfoque cauteloso y no comercial, y los requisitos de capital masivos de la investigación de la IAG a gran escala. La victoria de Altman en esta lucha de poder y la posterior partida de Musk prepararon el escenario para el giro comercial de OpenAI, ya que la necesidad de reemplazar la financiación prometida por Musk se volvió primordial.

  • El Divorcio: La Escisión de Anthropic (2020)

Esta crisis representó un cisma fundamental sobre la seguridad y la ética de la comercialización. Liderado por Dario Amodei, el equipo de Seguridad de IA se alarmó cada vez más por la prisa de Altman por comercializar GPT-3 a través de una API. Argumentaron que lanzar un modelo tan poderoso sin una investigación exhaustiva sobre la seguridad socavaba el «tiempo de anticipación» necesario para estudiar y mitigar sus riesgos potenciales, como la generación de desinformación o contenido dañino. Las discusiones internas se volvieron irreconciliables, con el equipo de Seguridad sintiendo que sus preocupaciones estaban siendo marginadas en favor de los objetivos comerciales.

Después de perder el debate interno, Amodei, su hermana Daniela y varios investigadores clave de seguridad se marcharon para fundar Anthropic, una empresa rival explícitamente centrada en la seguridad de la IA. Esta escisión no solo creó un competidor directo con una ideología similar, sino que también intensificó la dinámica de «carrera» en la industria y polarizó aún más el debate sobre la seguridad de la IA.

  • El «Blip»: La Destitución y Reincorporación de Altman (Noviembre de 2023)

La apertura dramática del libro, este evento fue la culminación de años de desconfianza acumulada entre Altman y la junta directiva independiente. La causa principal fue la percepción de la junta de que Altman carecía de franqueza y era manipulador en sus comunicaciones. Los desencadenantes finales incluyeron, según se informa, sus intentos de expulsar a la miembro de la junta Helen Toner y un patrón de socavar a su propio equipo ejecutivo, creando caos organizacional. La decisión del científico jefe Ilya Sutskever de ponerse del lado de la junta fue el catalizador crítico, dándole a la junta la confianza técnica y moral para actuar.

Lo que siguió fue un enfrentamiento de cinco días que paralizó a Silicon Valley. La junta despidió a Altman, lo que provocó una revuelta de empleados casi unánime, orquestada por la alta dirección y respaldada por Microsoft, que amenazó con una salida masiva que habría diezmado la empresa. Ante la aniquilación, la junta capituló. Altman fue reincorporado y los directores independientes que se habían opuesto a él fueron reemplazados. El evento fue una demostración contundente de que los intereses financieros y comerciales (Microsoft, los inversores, el capital de los empleados) habían superado efectivamente la autoridad de la junta sin fines de lucro. Hao lo enmarca como la «prueba final de que el experimento de gobernanza había fracasado».

  • La Omnicrisis: El Colapso del Equipo de Seguridad (Mayo de 2024

La réplica del «Blip», esta crisis marcó la desintegración del liderazgo de seguridad restante en OpenAI. La nueva junta, percibida como leal a Altman, y la continua marginación de las preocupaciones de seguridad llevaron a las renuncias de Ilya Sutskever y Jan Leike, los colíderes del equipo de Superalineación. Leike declaró públicamente que «la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos llamativos», confirmando los peores temores de la facción de seguridad.

Las renuncias fueron seguidas de cerca por la «crisis de Scarlett Johansson», donde OpenAI lanzó una voz para ChatGPT que sonaba sorprendentemente similar a la de la actriz, después de que ella se hubiera negado a prestar su voz, lo que dañó aún más la credibilidad y la reputación de la empresa en cuanto a la ética. Este período tumultuoso marcó la disolución efectiva del «clan de Seguridad» original como una fuerza interna poderosa, consolidando el dominio de la facción comercial («Startup») dentro de OpenAI.

Fecha/Período Evento/Conflicto Actores Clave Cuestión Central Resultado/Impacto
Principios de 2018 Salida de Musk Sam Altman, Elon Musk Control y Estrategia de Financiación Altman se convierte en CEO; Musk retira la financiación; se sientan las bases para el giro hacia el modelo con fines de lucro.
Finales de 2020 La Escisión de Anthropic («El Divorcio») Sam Altman, Dario Amodei, Daniela Amodei Seguridad vs. Comercialización de GPT-3 El equipo de seguridad se marcha para formar Anthropic; se crea un competidor clave; se intensifica la carrera de la IA.
Noviembre de 2023 La Destitución y Reincorporación de Altman («El Blip») Sam Altman, Ilya Sutskever, Helen Toner, la Junta de OpenAI, Satya Nadella Sinceridad del CEO y Gobernanza La junta es reemplazada; Altman regresa con más poder; se disuelve la supervisión independiente; el poder comercial triunfa.
Mayo de 2024 El Colapso del Equipo de Seguridad («La Omnicrisis») Ilya Sutskever, Jan Leike, Sam Altman Priorización de Productos sobre Seguridad Los líderes de seguridad renuncian; la facción de seguridad es diezmada; la credibilidad de OpenAI se ve dañada por la crisis de la voz.

 

El Precio Humano del Progreso: Explotación Laboral en la Cadena de Suministro de la IA

La Tesis del «Capitalismo de Desastre»

Hao argumenta que la industria de la IA, con OpenAI como principal ejemplo, ha perfeccionado un modelo de negocio que se aprovecha de las crisis económicas para obtener mano de obra barata. La demanda insaciable de anotación de datos y moderación de contenido, tareas esenciales pero tediosas y a menudo psicológicamente dañinas, crea un mercado para una «fuerza laboral oculta» global. Este modelo, que Hao denomina «capitalismo de desastre», busca activamente poblaciones en dificultades económicas, donde los trabajadores educados y con conexión a internet están dispuestos a realizar tareas digitales por una fracción del costo de la mano de obra en los países desarrollados.

Caso de Estudio: Venezuela

El colapso económico en Venezuela proporcionó el primer ejemplo a gran escala de este fenómeno. A medida que la hiperinflación diezmaba la economía, una gran cantidad de profesionales educados se volcó a las plataformas de trabajo digital. Empresas de anotación de datos como Scale AI y Appen, que prestaban servicios a la floreciente industria de los vehículos autónomos, vieron una afluencia masiva de trabajadores venezolanos dispuestos a trabajar por centavos. Lo que comenzó como una «coincidencia extraña» (la simultaneidad de la demanda de datos de la IA y la crisis venezolana) se convirtió rápidamente en una «fórmula inquietante», estableciendo un modelo para obtener mano de obra a bajo costo de regiones en crisis.

Caso de Estudio: Kenia

El libro detalla el contrato de OpenAI con la firma Sama en Kenia para construir un filtro de moderación de contenido para sus modelos. Este trabajo implicaba que los trabajadores leyeran y categorizaran textos explícitos y perturbadores, incluyendo descripciones gráficas de violencia, discurso de odio y abuso sexual infantil, por menos de 2 dólares la hora.

La autora asegura que el costo psicológico para estos trabajadores, como Mophat Okinyi, fue inmenso. Okinyi y sus colegas sufrieron trauma, ansiedad y depresión como resultado de la exposición constante a material tóxico. El apoyo de salud mental proporcionado por la empresa fue, según los informes, inadecuado, y los trabajadores temían buscar ayuda por miedo a perder sus empleos. Este caso de estudio ilustra directamente la externalización del daño psicológico inherente a la limpieza de los vastos y no filtrados conjuntos de datos de internet en los que se basan los modelos de IA.

Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF)

La técnica de RLHF, fundamental para refinar modelos como ChatGPT y hacerlos más útiles y menos tóxicos, ha expandido masivamente la demanda de este tipo de trabajo digital a destajo. En este proceso, a los trabajadores se les pide que escriban respuestas de ejemplo a las indicaciones y que clasifiquen los resultados del modelo para «alinear» la IA con las preferencias humanas. Esencialmente, están enseñando al modelo a conversar de manera coherente, útil e inofensiva. Si bien es crucial para la usabilidad del producto, este trabajo a menudo está mal pagado y es precario, perpetuando el modelo de una fuerza laboral global oculta que realiza el trabajo cognitivo de bajo nivel que hace que la IA parezca «inteligente».

La abstracción de la cadena de suministro de la IA es un mecanismo deliberado que permite la explotación. Al utilizar empresas intermediarias como Sama y Scale AI, y al enmarcar el trabajo en términos higienizados como «anotación de datos» o «retroalimentación humana», empresas como OpenAI crean una distancia moral y legal del costo humano de su tecnología. OpenAI necesitaba resolver un problema técnico: sus modelos generaban contenido tóxico porque estaban entrenados con datos de internet no filtrados. La solución, un «filtro de moderación de contenido» y RLHF, requería un volumen masivo de trabajo humano para revisar y etiquetar contenido perturbador. Contratar directamente a miles de personas en los EE. UU. o Europa para hacer este trabajo sería prohibitivamente caro y crearía importantes responsabilidades legales y de recursos humanos. Al subcontratar este trabajo a una empresa externa en otro país, OpenAI transfirió la responsabilidad directa de las condiciones laborales, el pago y el bienestar de los trabajadores. El trabajo se enmarca como una tarea técnica en lugar de una psicológicamente peligrosa, lo que permite a la empresa obtener la mano de obra necesaria mientras minimiza su culpabilidad y mantiene su imagen pública como una organización de investigación benévola.

El Costo Planetario: Extracción de Recursos y la «Tierra Saqueada»

La Materialidad de la IA

Hao busca desmantelar el mito de la «nube» como un concepto etéreo, anclando la IA en su infraestructura física: centros de datos masivos que son voraces consumidores de recursos naturales. Lejos de ser inmaterial, la IA tiene una huella física profunda, que se extiende desde las minas de donde se extraen sus componentes hasta las redes eléctricas que la alimentan y los cuerpos de agua que la enfrían.

Consumo de Agua

El libro destaca el conflicto sobre el centro de datos propuesto por Google en Cerrillos, Chile, una región con estrés hídrico. La instalación planeaba utilizar un estimado de 169 litros de agua potable por segundo para enfriar sus servidores. Esta asombrosa cifra provocó una feroz resistencia de activistas locales como MOSACAT, quienes argumentaron que el proyecto saquearía un recurso comunitario vital durante una megasequía histórica. El caso ilustra un patrón global en el que los gigantes tecnológicos ubican centros de datos en áreas vulnerables, externalizando los costos ambientales a las comunidades locales. El centro de datos de Microsoft en Quilicura, otra comunidad chilena, enfrentó una oposición similar, lo que indica que no se trata de incidentes aislados, sino de una estrategia industrial sistémica.

Consumo de Energía

Entrenar y operar modelos de lenguaje a gran escala es increíblemente intensivo en energía. El surgimiento de centros de datos «megacampus», diseñados para satisfacer las demandas de la IA, está obligando a las empresas de servicios públicos a retrasar el retiro de plantas de carbón y gas, lo que socava directamente los objetivos climáticos globales. El superordenador «Stargate», planeado para OpenAI y Microsoft, con un costo estimado de 100.000 millones de dólares, ejemplifica la escala sin precedentes de esta demanda de energía. La construcción de tal infraestructura no solo consume energía, sino que también requiere vastas extensiones de tierra y remodela las redes eléctricas regionales.

Extracción de Minerales

El hardware que impulsa la IA (chips, servidores, cables y bastidores) depende de una cadena de suministro global de minerales como el cobre y el litio. Hao conecta la demanda de la IA con las consecuencias ambientales y sociales de la extracción de estos minerales. El libro señala el desierto de Atacama en Chile, donde la minería de litio y cobre ha devastado ecosistemas, agotado las fuentes de agua y desplazado a las comunidades indígenas que han habitado la tierra durante siglos. Al trazar esta línea desde la mina hasta el modelo, Hao argumenta que la huella de la IA no es solo digital, sino también geológica y profundamente humana.

La narrativa ambiental de la industria de la IA, centrada en las futuras ganancias de eficiencia y en el uso de la IA para resolver el cambio climático, funciona como una justificación ideológica para ocultar los costos ambientales masivos, inmediatos y crecientes de su paradigma de desarrollo actual. La industria se enfrenta a una clara contradicción: su actividad principal, la computación a gran escala, es una de las más intensivas en energía y recursos del planeta. Cuando se enfrentan a esto, la respuesta estándar es doble: a) los modelos futuros serán más eficientes, y b) la IAG eventualmente resolverá el cambio climático, haciendo que los costos actuales sean una inversión que vale la pena. Esta narrativa desvía el enfoque del daño medible y actual (el agotamiento del agua en Chile, el aumento de las emisiones de carbono) hacia un beneficio futuro especulativo e indemostrable. Permite a las empresas continuar con sus prácticas extractivas mientras mantienen una imagen pública proambiental. Esto refleja la tesis central del «imperio» del libro, donde una misión grandiosa y utópica se utiliza para justificar los costos tangibles impuestos a las poblaciones marginadas y al medio ambiente.

Fabricando un Nuevo Orden Mundial: Gobernanza, Influencia y Regulación

«Ciencia en Cautiverio»

El libro argumenta que la consolidación corporativa de la investigación en IA ha sofocado la investigación independiente y la crítica. La destitución de Timnit Gebru de Google se presenta como un momento crucial en esta tendencia. Gebru, una destacada investigadora de ética en IA, fue coautora del influyente artículo «Sobre los peligros de los loros estocásticos», que criticaba los costos ambientales, los sesgos inherentes y otros riesgos de los modelos de lenguaje a gran escala.1 Su despido después de que Google exigiera la retractación del artículo simbolizó el giro de la industria hacia la censura de la investigación crítica que amenazaba sus intereses comerciales.

Hao argumenta que el propio giro de OpenAI hacia el secretismo, legitimado por su estrategia de lanzamiento por etapas de GPT-2, ayudó a crear las normas de la industria que permitieron las acciones de Google. Lo que comenzó como un argumento de OpenAI basado en la seguridad se convirtió en una justificación para toda la industria para ocultar los detalles de sus modelos, atrapando efectivamente la ciencia de la IA dentro de los muros corporativos.

La Ofensiva de Washington

Tras el lanzamiento viral de ChatGPT, Sam Altman lanzó una campaña de influencia masiva para dar forma a la regulación de la IA a favor de OpenAI. Se reunió con más de 100 legisladores, presentándose como un líder reflexivo y pro-regulación que buscaba guiar al gobierno a través de un panorama tecnológico complejo.

En su testimonio ante el Congreso, Altman propuso un régimen de licencias para los «modelos de frontera» que superaran un cierto umbral de capacidad o cómputo. Hao analiza esto como una forma de captura regulatoria. Tal regulación, argumenta, afianzaría el poder de los actores establecidos como OpenAI, que son los únicos que pueden permitirse construir y licenciar dichos modelos, al tiempo que crearía barreras de entrada para competidores más pequeños y, lo que es más importante, para los modelos de código abierto que amenazan el modelo de negocio de OpenAI.

Los «Dos Profetas»

El debate sobre la seguridad y la regulación de la IA se enmarca como una batalla entre dos campos ideológicos. Por un lado, está el lado «Cerrado», representado por Altman y la comunidad «Doomer» (aquellos que temen un riesgo existencial de la IA), que abogan por restringir el acceso a modelos potentes para evitar una catástrofe. Por otro lado, está el lado «Abierto», que argumenta que el acceso de código abierto es crucial para la innovación, la seguridad (a través de la auditoría pública) y la responsabilidad democrática.

El libro muestra cómo la Orden Ejecutiva sobre IA de la administración Biden fue fuertemente influenciada por los argumentos del campo «Cerrado». La inclusión de umbrales de cómputo específicos, extraídos directamente de los libros blancos de la industria, en la política estadounidense y posteriormente en la Ley de IA de la UE, ilustra el éxito de la campaña de influencia de OpenAI. Esto resalta la atrofia de la experiencia independiente en IA dentro del gobierno, dejando a los legisladores dependientes de los mismos actores de la industria que se supone que deben regular.

La estrategia de gobernanza de OpenAI es una extensión directa de su estrategia de mercado: lograr un monopolio (u oligopolio) sobre la tecnología y luego codificar esa estructura de mercado en ley bajo el pretexto de la «seguridad». El modelo de negocio de OpenAI se basa en la construcción de modelos «de frontera» masivos y propietarios que son extremadamente caros de replicar, creando una barrera de entrada natural. La principal amenaza para este modelo no es otra gran empresa, sino la comunidad descentralizada de código abierto, que podría crear alternativas potentes y de libre acceso. La regulación propuesta por Altman se centra en la creación de un régimen de licencias para modelos que excedan un cierto umbral de «capacidad» o «cómputo». Solo un puñado de empresas, incluida OpenAI, puede alcanzar este umbral. Por lo tanto, la regulación propuesta los sometería a supervisión, pero también legitimaría implícitamente su posición dominante y podría imponer cargas pesadas o ilegalizar los modelos de código abierto que amenazan su negocio. Así, el llamado a la «regulación» no es un acto puramente altruista de seguridad pública, sino un movimiento estratégico sofisticado para utilizar el poder del estado para proteger su dominio del mercado de la competencia disruptiva.

Resistiendo al Imperio y Visualizando Trayectorias Alternativas

La Fórmula para el Imperio

En sus postrimerías, el texto describe la «fórmula para el imperio» de Hao: una misión grandiosa y vaga («beneficiar a toda la humanidad») que es lo suficientemente flexible como para justificar cualquier giro estratégico, de sin fines de lucro a con fines de lucro, de abierto a cerrado. Esta misión funciona como una herramienta ideológica que centraliza el talento, el capital y los recursos, al tiempo que desvía las críticas y elimina los obstáculos regulatorios. La ambigüedad de términos como «beneficioso» y «IAG» permite a OpenAI reinterpretar continuamente su propósito para que se ajuste a sus necesidades comerciales y competitivas, un patrón que Hao compara con la reinterpretación de Napoleón del lema de la Revolución Francesa para consolidar su propio poder.

Un Camino Diferente

El epílogo del libro presenta una poderosa contranarrativa, argumentando que el paradigma actual de escala masiva no es inevitable. Hao destaca ejemplos de desarrollo de IA que priorizan a la comunidad, la sostenibilidad y la soberanía de los datos.

  • Caso de Estudio: Te Hiku Media: Una organización sin fines de lucro maorí en Nueva Zelanda que construyó un modelo de reconocimiento de voz de alta calidad para su lengua en peligro de extinción. Lo lograron utilizando un conjunto de datos pequeño, de origen comunitario, recopilado con pleno consentimiento. Utilizaron solo dos GPU y se basaron en tecnología de código abierto. De manera crucial, sus datos son gobernados por la comunidad bajo el principio de kaitiakitanga (tutela), asegurando que el recurso permanezca bajo control local y no sea explotado por entidades externas.
  • El Instituto de Investigación de IA Distribuida (DAIR): Fundado por Timnit Gebru después de su salida de Google, DAIR representa un modelo de investigación alternativo. Es descentralizado, con investigadores integrados en sus propias comunidades en todo el mundo. Su trabajo se centra en interrogar y remodelar los sistemas de IA para beneficiar a las comunidades marginadas, en lugar de servir a los intereses corporativos.
El Llamado a la Acción

El análisis final se centra en el marco propuesto por Hao para «disolver el imperio» mediante la redistribución del poder a lo largo de tres ejes:

  1. Conocimiento: Esto requiere una mayor financiación para la investigación independiente que pueda evaluar críticamente los modelos corporativos y explorar paradigmas de IA alternativos. También exige políticas que obliguen a las empresas a una mayor transparencia sobre sus datos de entrenamiento y especificaciones técnicas.
  2. Recursos: Se necesitan leyes más estrictas sobre la privacidad de los datos, la propiedad intelectual y la protección laboral para contrarrestar las prácticas extractivas de la industria. Esto incluye proteger a los trabajadores de la explotación en la cadena de suministro de datos y garantizar que los creadores sean compensados cuando su trabajo se utiliza para entrenar modelos.
  3. Influencia: La resistencia más fundamental a la narrativa del imperio es la educación pública de base amplia. Al desmitificar la IA, explicar cómo funciona y exponer los sistemas de poder que dan forma a su desarrollo, es posible contrarrestar la exageración corporativa y fomentar un debate público más informado y crítico.

El mensaje último del libro se afirma en el postulado de que el futuro de la IA no está predeterminado. Las alternativas al modelo de imperio ya existen, y a través de la acción colectiva (de activistas, legisladores, investigadores y ciudadanos) es posible dar forma a un futuro de la IA que sea más democrático, sostenible y genuinamente beneficioso para toda la humanidad.

Ventajas

  • Excepcionales reportajes de investigación.
  • Perspectiva global que conecta los impactos locales con patrones sistémicos.
  • Redacción clara y atractiva que facilita el acceso a temas complejos de IA.
  • Análisis exhaustivo de los costos ambientales y laborales ocultos tras la IA.
  • Valiosas perspectivas sobre la dinámica de poder de la industria de la IA.
Desventajas
  • Tono ocasionalmente polémico que puede limitar el atractivo para algunos lectores.
  • Mirada ideológica que por momentos compromete el balance general del análisis.
  • Se centra más en los problemas que en las vías de avance.

Referencias:

Hao, Karen – Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI’. Penguin Random House Edition. 621 pgs.

Book Review: Empire of AI by Karen Hao – OpenAI’s Cult of Genius and the Cost of Innovation

Karen Hao: Empire of AI – A Critical Examination of OpenAI’s Influence, Ideology, and Impact

Book review of ‘Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI’ by Karen Hao

Decolonizing the Future: Karen Hao on Resisting the Empire of AI

Does the AI industry operate like a modern colonial empire?

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí