NEWSLETTER

Alarma del arquitecto de la IA ante desempleo masivo

dhfhrt76544se-1

Alarma del arquitecto de la IA ante desempleo masivo

Por Benjamín Vidal, Periodista Especializado en Inteligencia Artificial y Ciencia y Datos, para Mundo IA

La alerta del padrino de la inteligencia artificial

En los auditorios más prestigiosos del mundo académico, una voz se alza con una urgencia que pocos esperarían de alguien que acaba de recibir el Premio Nobel de Física. Geoffrey Hinton, el científico británico-canadiense conocido mundialmente como el «padrino de la inteligencia artificial», se encuentra en una posición única e inquietante: advertir sobre los peligros de la tecnología que él mismo ayudó a crear. Sus recientes declaraciones han provocado ondas de choque en Silicon Valley y más allá, no solo por la gravedad de sus predicciones, sino por la contundencia con la que señala al capitalismo como el verdadero culpable de una crisis laboral sin precedentes que se avecina.

La trayectoria del investigador británico es la de un visionario que se ha convertido en profeta de su propia creación. En los años ochenta y noventa, cuando la mayoría del mundo académico consideraba las redes neuronales artificiales como una curiosidad sin futuro, el científico perseveró en el desarrollo de algoritmos que hoy sustentan desde ChatGPT hasta los sistemas de reconocimiento facial más avanzados. Su trabajo pionero en el aprendizaje profundo, especialmente el algoritmo de retropropagación que permite a las redes neuronales aprender de sus errores, se ha convertido en el fundamento de prácticamente toda la inteligencia artificial moderna. No es casualidad que el Comité Nobel reconociera en 2024 sus «descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales».

Sin embargo, lo que más llama la atención en las declaraciones recientes del académico no es tanto el reconocimiento a su genio científico, sino la evolución de su perspectiva sobre las implicaciones sociales y económicas de su trabajo. En una extensa entrevista con el Financial Times, el investigador ha articulado una visión profundamente pesimista del futuro que la inteligencia artificial está moldeando. «Lo que realmente va a suceder es que las personas ricas van a usar la IA para reemplazar trabajadores», declaró sin ambages. «Va a crear un desempleo masivo y un enorme aumento en los beneficios. Hará que unas pocas personas sean mucho más ricas y la mayoría más pobres. Esa no es culpa de la IA, esa es culpa del sistema capitalista».

Esta perspectiva representa un cambio fundamental en el discurso sobre la automatización. Mientras que durante décadas los economistas y tecnólogos han debatido si la automatización crea o destruye empleos netos, el Premio Nobel va más allá: argumenta que bajo el sistema económico actual, la distribución desigual de los beneficios de la IA es inevitable. Su análisis no se centra en las capacidades técnicas de la tecnología, sino en las estructuras de poder que determinan cómo se despliega y quién se beneficia de ella.

Las preocupaciones del científico no son abstractas. Los datos emergentes sugieren que su pesimismo puede estar justificado. Según la plataforma de carreras Handshake, las ofertas de empleo de nivel inicial han disminuido un 15% interanual, mientras que las referencias a «IA» en las descripciones de trabajo han aumentado un 400% en los últimos dos años. La firma de investigación laboral Challenger, Gray & Christmas reporta que en los primeros siete meses de 2025, la adopción de IA generativa estuvo directamente vinculada a más de 10,000 recortes de empleo en Estados Unidos. Más revelador aún, la empresa de análisis laboral Revelio Labs ha documentado una disminución del 35% en las publicaciones de empleos de nivel inicial desde enero de 2023.

El arquitecto de la revolución digital

Para comprender la gravedad de las advertencias del padrino de la IA, es esencial entender quién es este científico y por qué sus palabras resuenan con tanta fuerza en la comunidad tecnológica global. El investigador no es un crítico externo de la inteligencia artificial; es literalmente uno de sus creadores. Su carrera de más de cinco décadas ha sido una búsqueda constante por entender y replicar los mecanismos de aprendizaje del cerebro humano en sistemas computacionales.

En 1986, junto con David Rumelhart y Ronald Williams, el académico coescribió uno de los papers más influyentes en la historia de la inteligencia artificial, popularizando el algoritmo de retropropagación que permite a las redes neuronales aprender de sus errores de manera sistemática. Este trabajo, aunque construido sobre investigaciones anteriores, estableció los fundamentos matemáticos para el renacimiento de las redes neuronales que comenzaría décadas después.

Pero fue en 2012 cuando el trabajo del científico alcanzó reconocimiento mundial. Junto con sus estudiantes Alex Krizhevsky e Ilya Sutskever, desarrolló AlexNet, una red neuronal convolucional que arrasó en la competición ImageNet, reduciendo drásticamente la tasa de error en reconocimiento de imágenes. Este momento marcó el inicio de la actual era del aprendizaje profundo y catapultó al investigador al estrellato académico. Google, reconociendo el potencial transformador de su trabajo, adquirió la startup del Premio Nobel por una suma no revelada y lo contrató como investigador principal.

Durante una década, el científico trabajó en Google Brain, contribuyendo al desarrollo de tecnologías que hoy son omnipresentes. Su investigación sobre las máquinas de Boltzmann, redes generativas adversariales y técnicas de regularización como el dropout han sido fundamentales para el desarrollo de sistemas como GPT, BERT y los modelos de imagen generativa que dominan el panorama actual.

Sin embargo, en mayo de 2023, el investigador tomó una decisión que sorprendió al mundo tecnológico: renunció a Google. Inicialmente, los medios especularon que había dejado la empresa para poder hablar más libremente sobre los riesgos de la IA. El académico ha desmentido esta narrativa: «Me fui porque tenía 75 años, ya no podía programar tan bien como antes, y hay mucho contenido en Netflix que no he tenido oportunidad de ver. Había trabajado muy duro durante 55 años y sentía que era hora de jubilarme. Y pensé, ya que me voy de todos modos, podría hablar sobre los riesgos».

Esta declaración, aparentemente casual, esconde una transformación profunda en la perspectiva del científico. El investigador que dedicó su vida a hacer posible la inteligencia artificial ahora dedica su jubilación a advertir sobre sus peligros. No es solo una cuestión de responsabilidad académica; es el reconocimiento de que la tecnología que ayudó a crear ha adquirido un momentum propio que podría escapar al control humano.

La anatomía de la destrucción laboral

Las predicciones del padrino sobre el desempleo masivo no son especulaciones vagas; están respaldadas por un entendimiento profundo de las capacidades actuales y futuras de la IA. A diferencia de anteriores oleadas de automatización que se centraban principalmente en tareas físicas repetitivas, la inteligencia artificial contemporánea es capaz de automatizar trabajo cognitivo complejo que históricamente había sido dominio exclusivo de trabajadores altamente educados.

Los modelos de lenguaje grandes como GPT-4 pueden escribir código, redactar documentos legales, crear contenido de marketing y realizar análisis de datos con una competencia que, en muchos casos, rivaliza o supera la de profesionales humanos. Esta capacidad no se limita a tareas simples; los sistemas de IA pueden manejar trabajos que requieren comprensión contextual, creatividad limitada y toma de decisiones en dominios específicos.

El impacto más inmediato y documentado se está sintiendo en los empleos de nivel inicial, tradicionalmente el punto de entrada para recién graduados universitarios. Estos roles, que históricamente servían como espacios de aprendizaje donde los jóvenes profesionales adquirían experiencia mientras realizaban tareas relativamente rutinarias, están siendo rápidamente automatizados. Los asistentes de investigación jurídica que antes pasaban horas revisando precedentes ahora pueden ser reemplazados por sistemas que analizan miles de casos en minutos. Los analistas junior que organizaban datos y creaban visualizaciones básicas encuentran que la IA puede realizar estas tareas con mayor velocidad y precisión.

Tristan Botelho, profesor asociado de comportamiento organizacional en la Yale School of Management, describe el fenómeno con claridad: «Mucho del trabajo de nivel inicial cuando te gradúas de la universidad son empleos intensivos en conocimiento donde recopilas datos, transcribes datos y armas visualizaciones básicas, y aprendes la organización desde cero. La IA puede hacer eso bastante bien, y he escuchado a muchos gerentes decir cosas como: ‘Podemos reducir nuestro personal de nivel inicial'».

Esta transformación tiene implicaciones que van más allá de las estadísticas de desempleo. La eliminación de empleos de nivel inicial amenaza con romper lo que los sociólogos del trabajo llaman la «escalera de carrera». Tradicionalmente, los profesionales comenzaban en posiciones junior, adquirían experiencia gradualmente y ascendían a roles de mayor responsabilidad. Si la IA elimina estos peldaños iniciales, ¿cómo adquirirán experiencia las futuras generaciones de profesionales? ¿Cómo desarrollarán las habilidades de juicio y liderazgo que solo se obtienen a través de la práctica guiada?

El investigador británico ha identificado la atención médica como una notable excepción a esta tendencia destructiva. «Si pudieras hacer que los médicos fueran cinco veces más eficientes, todos podríamos tener cinco veces más atención médica al mismo precio», explicó en una entrevista anterior. «Casi no hay límite a cuánta atención médica puede absorber la gente: los pacientes siempre quieren más atención médica si no les cuesta nada». Su razonamiento es que la demanda de servicios de salud es prácticamente ilimitada, por lo que hacer a los profesionales médicos más eficientes expandiría el acceso sin necesariamente eliminar empleos.

El dilema capitalista de la inteligencia artificial

Lo que distingue las advertencias del científico de las típicas preocupaciones sobre la automatización es su enfoque en los mecanismos económicos que determinan cómo se distribuyen los beneficios de la IA. Su crítica no se dirige a la tecnología en sí, sino al sistema económico que la rodea. En el capitalismo contemporáneo, las ganancias de productividad de la IA fluyen naturalmente hacia los propietarios del capital: las empresas tecnológicas que desarrollan los sistemas, los inversores que los financian y las corporaciones que los implementan.

Esta dinámica crea lo que los economistas llaman una «captura asimétrica de valor». Mientras que los costos de la automatización (desempleo, pérdida de habilidades, disrupciones sociales) se distribuyen ampliamente entre la población trabajadora, los beneficios se concentran en un grupo relativamente pequeño de actores económicos. El resultado, según el Premio Nobel, será «unas pocas personas mucho más ricas y la mayoría más pobres».

La perspectiva del académico encuentra respaldo en análisis económicos recientes. El Foro Económico Mundial proyecta que las tendencias en IA y procesamiento de información crearán 11 millones de empleos mientras desplazan 9 millones, resultando en una ganancia neta de solo 2 millones de trabajos. Sin embargo, estas cifras agregadas ocultan una distribución desigual: los nuevos empleos tienden a requerir altas calificaciones técnicas y se concentran en sectores específicos, mientras que las pérdidas de empleo se distribuyen más ampliamente.

Más preocupante aún, el 40% de los empleadores encuestados por el Foro Económico Mundial esperan reducir su fuerza laboral donde la IA pueda automatizar tareas. Esta proporción sugiere que la sustitución, no la complementariedad, será la modalidad dominante de adopción de IA en muchos sectores.

La crítica del investigador al sistema capitalista no es meramente académica; refleja una comprensión profunda de cómo las fuerzas del mercado interactúan con las innovaciones tecnológicas. En un sistema donde la maximización de beneficios es el objetivo primario, las empresas tienen incentivos poderosos para adoptar tecnologías que reduzcan costos laborales, independientemente de las consecuencias sociales más amplias. La «mano invisible» del mercado, que supuestamente coordina intereses individuales hacia beneficios colectivos, puede fallar cuando las externalidades negativas (como el desempleo masivo) no se internalizan en las decisiones de las empresas.

El fracaso de las soluciones tecnocráticas

Una de las propuestas más discutidas para abordar el desplazamiento laboral causado por la IA es la Renta Básica Universal (RBU), un sistema que proporcionaría pagos regulares e incondicionales a todos los ciudadanos. Prominentes figuras tecnológicas, incluyendo al CEO de OpenAI Sam Altman y al empresario Elon Musk, han abogado por la RBU como una solución elegante al problema del desempleo inducido por la IA.

Altman, quien estudió bajo la tutela del padrino de la IA y ayudó a desarrollar las redes neuronales que sustentan los sistemas actuales, ha sido particularmente vocal en su apoyo a la RBU. Su otra empresa, Worldcoin, está específicamente diseñada para proporcionar RBU a través de la adopción de tokens de criptomoneda distribuidos gratuitamente a cualquiera que se registre en el servicio. La visión de Altman es de un futuro donde los avances en productividad impulsados por la IA generen suficiente riqueza para sostener a toda la población sin necesidad de trabajo tradicional.

Elon Musk ha expresado puntos de vista similares, sugiriendo que en un futuro benigno de IA, «probablemente ninguno de nosotros tendrá un trabajo», pero la renta universal podría permitir a los humanos buscar significado mientras las máquinas manejan el trabajo. El inversionista Vinod Khosla ha ido más lejos, prediciendo que la IA realizará el 80% del trabajo en el 80% de los empleos, haciendo que la RBU sea «crucial» para prevenir un aumento de la desigualdad.

Sin embargo, el científico británico ha rechazado estas soluciones tecnocráticas con una crítica que va al corazón de lo que significa ser humano en una sociedad basada en el trabajo. «La RBU no tratará la dignidad humana», argumenta. Su objeción no es económica sino existencial: las personas derivan su sentido de valor y propósito no solo del ingreso que reciben por trabajar, sino del acto mismo de contribuir productivamente a la sociedad.

Esta perspectiva refleja décadas de investigación en psicología social que demuestran que el trabajo proporciona mucho más que recursos financieros. Ofrece estructura temporal, estatus social, identidad personal, conexiones sociales y un sentido de propósito. Los estudios sobre desempleo de larga duración muestran consistentemente que incluso cuando las necesidades materiales están cubiertas, la pérdida del trabajo puede llevar a depresión, ansiedad y una sensación de inutilidad social.

La crítica del Premio Nobel a la RBU también implica una comprensión sofisticada de las dinámicas de poder en las sociedades capitalistas. Un sistema donde una pequeña élite controla los medios de producción automatizados mientras la mayoría depende de transferencias del gobierno crea una forma de dependencia estructural que podría ser políticamente peligrosa. Los receptores de RBU carecerían del poder de negociación que tradicionalmente proporciona el trabajo, potencialmente creando sociedades altamente estratificadas y antidemocrática.

Los riesgos existenciales de la superinteligencia

Más allá de las preocupaciones sobre el desempleo y la desigualdad, el investigador ha articulado advertencias aún más alarmantes sobre los riesgos existenciales que podría plantear la inteligencia artificial avanzada. En múltiples declaraciones públicas, ha estimado entre un 10% y 20% de probabilidad de que la IA lleve a la extinción humana después del desarrollo de la superinteligencia artificial.

Esta estimación, que podría parecer fantástica viniendo de un científico ficción, cobra peso considerable dada la credibilidad del académico en el campo. Su preocupación se centra en lo que los investigadores de seguridad de IA llaman el «problema de alineación»: la dificultad de asegurar que los sistemas de IA avanzados persigan objetivos que sean compatibles con el bienestar humano.

Los sistemas de IA actuales ya muestran comportamientos emergentes que sus creadores no anticiparon completamente. Los modelos de lenguaje grandes desarrollan capacidades de razonamiento, creatividad y manipulación que no fueron explícitamente programadas, sino que emergieron del proceso de entrenamiento. Esta impredecibilidad se vuelve potencialmente catastrófica cuando se proyecta hacia sistemas fututos que podrían superar significativamente la inteligencia humana.

El científico ha identificado dos categorías principales de riesgo. La primera involucra el uso malicioso de la IA por actores con malas intenciones. Ya ha advertido sobre el potencial de que la IA ayude en la creación de bioarmas, describiendo un escenario escalofriante donde «una persona normal asistida por IA pronto podrá construir bioarmas, y eso es terrible. Imaginen si una persona promedio en la calle pudiera hacer una bomba nuclear».

Esta preocupación no es teórica. Los sistemas de IA actuales ya pueden asistir en el diseño de moléculas complejas, incluidos compuestos potencialmente peligrosos. La democratización del conocimiento científico avanzado a través de la IA podría permitir que actores no estatales desarrollen armas de destrucción masiva que previamente requerían recursos de nivel nacional.

La segunda categoría de riesgo es quizás aún más preocupante: la posibilidad de que los sistemas de IA desarrollen objetivos propios que sean incompatibles con la supervivencia humana. A medida que los sistemas se vuelven más sofisticados, podrían desarrollar la capacidad de modificar su propio código, mejorar sus capacidades de manera recursiva y, potencialmente, buscar objetivos que los humanos no pretendían o no pueden controlar.

El investigador ha expresado particular preocupación por la velocidad del desarrollo actual. «La velocidad a la que han comenzado a trabajar ahora está muy por encima de lo que cualquiera esperaba», observó, sugiriendo que la rápida evolución de las capacidades de IA podría superar los esfuerzos para desarrollar medidas de seguridad adecuadas.

La geopolítica de la regulación de IA

Las advertencias del padrino también han abordado las dimensiones geopolíticas del desarrollo de IA, particularmente las diferencias en los enfoques regulatorios entre Estados Unidos y China. Ha expresado lamentaciones sobre la resistencia de la administración Trump a regular la IA más estrictamente, mientras elogia los esfuerzos de China para tomar la amenaza más en serio.

Esta perspectiva pone de manifiesto una de las paradojas centrales de la gobernanza de IA: los países que son más agresivos en el desarrollo de tecnologías de IA pueden ser los más reacios a implementar regulaciones que podrían frenar su ventaja competitiva. La competencia geopolítica en IA crea incentivos perversos donde las consideraciones de seguridad pueden subordinarse a las preocupaciones de competitividad nacional.

El académico ha argumentado que establecer pautas de seguridad requerirá cooperación entre aquellos que compiten en el uso de IA para evitar los peores resultados. Esta necesidad de cooperación internacional en un dominio tecnológico altamente estratégico presenta desafíos formidables, especialmente en un contexto geopolítico cada vez más fragmentado.

La preocupación por los bioarmas impulsados por IA ilustra particularmente bien estos desafíos. A diferencia de las armas nucleares, que requieren materiales y facilidades altamente especializados, las bioarmas podrían desarrollarse con recursos relativamente modestos si la IA reduce suficientemente las barreras de conocimiento. Esto podría hacer que la proliferación sea mucho más difícil de controlar que las armas nucleares.

El futuro del trabajo humano en la era de la IA

A pesar de sus sombrías advertencias, el científico no aboga por detener el desarrollo de la IA. Reconoce el inmeso potencial de la tecnología para abordar problemas fundamentales de la humanidad, particularmente en atención médica y educación. Su posición es más matizada: un llamado a desarrollar la IA de manera más reflexiva, con una consideración cuidadosa de sus implicaciones sociales y económicas.

Esta perspectiva refleja una comprensión sofisticada de que la tecnología en sí misma no es determinística. Las consecuencias de la IA no están escritas en piedra; serán moldeadas por las decisiones que tomemos sobre cómo desarrollarla, desplegarla y regularla. El problema no es la capacidad técnica de la IA, sino las estructuras institucionales y económicas dentro de las cuales opera.

Las organizaciones están comenzando a responder a estos desafíos de maneras diversas. Una encuesta de la Reserva Federal de Nueva York encontró que las empresas que utilizan IA son mucho más propensas a reentrenar a sus empleados que a despedirlos, aunque se espera que los despidos aumenten en los próximos meses. Esta tendencia hacia el reentrenamiento sugiere que algunas organizaciones reconocen el valor de preservar el capital humano mientras adaptan sus operaciones a las nuevas capacidades tecnológicas.

Sin embargo, estas respuestas organizacionales pueden no ser suficientes para abordar los desafíos sistémicos que el Premio Nobel ha identificado. El reentrenamiento puede funcionar para trabajadores existentes con experiencia y capital social dentro de las organizaciones, pero es menos probable que ayude a los recién graduados que luchan por conseguir su primer empleo o a los trabajadores en industrias que son completamente automatizadas.

Reflexiones sobre el legado de un visionario

Las advertencias del padrino de la inteligencia artificial representan más que las preocupaciones de un científico individual; encarnan la ansiedad de una era tecnológica que se desarrolla a un ritmo que supera nuestra capacidad colectiva de comprensión y adaptación. Su transformación de arquitecto de la revolución de IA a su crítico más prominente ilustra las tensiones inherentes en el progreso tecnológico rápido.

La paradoja central del momento actual es que las mismas capacidades que hacen que la IA sea tan prometedora para resolver problemas humanos complejos también la hacen potencialmente peligrosa para el tejido social humano. La capacidad de automatizar el trabajo cognitivo podría liberar a la humanidad de la monotonía y permitir formas de creatividad y realización personal sin precedentes. Alternativamente, podría crear sociedades divididas donde una pequeña élite tecnológica controla vastos recursos automatizados mientras la mayoría lucha por la relevancia económica.

El investigador ha sido clara en que «no sabemos qué va a pasar, no tenemos idea, y las personas que te dicen qué va a pasar simplemente están siendo tontas. Estamos en un punto de la historia donde algo asombroso está sucediendo, y puede ser asombrosamente bueno o asombrosamente malo».

Esta incertidumbre fundamental no es motivo de pasividad, sino de urgencia. Las decisiones que tomemos en los próximos años sobre cómo desarrollar, desplegar y gobernar la IA determinarán si realizamos su potencial para el florecimiento humano o sucumbimos a sus riesgos. El legado del científico puede no ser solo haber ayudado a crear la inteligencia artificial, sino haber sonado la alarma lo suficientemente fuerte como para que la humanidad tome decisiones más sabias sobre su futuro.

La historia juzgará si escuchamos las advertencias de uno de los padres de la IA sobre los peligros de su propia creación. El resultado dependerá no de la tecnología en sí, sino de las decisiones que hagamos sobre cómo moldear el futuro que está llegando, queramos o no.

Referencias

  1. Ma, J. (2025, septiembre 6). ‘Godfather of AI’ says the technology will create massive unemployment and send profits soaring – ‘that is the capitalist system’. Fortune.

  2. MIT Technology Review. (2024, octubre 8). Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics for his work on machine learning.

  3. University of Toronto. (2024, octubre 7). Geoffrey Hinton wins Nobel Prize in Physics.

  4. Nolan, B. (2025, agosto 8). AI-driven layoffs are shrinking the job market for recent grads. Fortune.

  5. Financial Times. (2025, septiembre 6). Interview with Geoffrey Hinton on AI risks and capitalism.

  6. World Economic Forum. (2025, junio 2). Is AI closing the door on entry-level job opportunities?

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí