NEWSLETTER

Ingeniero retorna a OpenAI para liderar equipo de superinteligencia tras periodo sabático

Generated Image November 01, 2025 - 9_56PM

Ingeniero retorna a OpenAI para liderar equipo de superinteligencia tras periodo sabático

Will DePue regresa a OpenAI para liderar equipo de superinteligencia mientras Meta roba talento con paquetes de $100 millones
El ingeniero clave detrás de Sora retorna para encabezar iniciativa de alto riesgo que busca inteligencia artificial superior a capacidades humanas. Mark Zuckerberg contrata agresivamente a cinco ex-investigadores de OpenAI para Meta Superintelligence Labs, incluyendo Shengjia Zhao como científico jefe. Sam Altman promete investigador de IA completamente autónomo para 2028 mientras responde a guerra de talento. OpenAI disolvió equipo original de superalineación en mayo 2024 tras salidas de Jan Leike e Ilya Sutskever

Will DePue, el ingeniero que desempeñó un papel fundamental en el desarrollo de Sora, el revolucionario modelo de inteligencia artificial text-to-video de OpenAI, ha anunciado su regreso a la compañía para liderar una nueva iniciativa de altísimo riesgo. Según reportó Business Insider, DePue está ensamblando un equipo pequeño dedicado a perseguir inteligencia artificial superinteligente, una forma de IA que superaría la inteligencia humana en todos los dominios. La decisión de DePue sigue un breve periodo sabático de la compañía, durante el cual reflexionó sobre los rápidos avances en inteligencia artificial. Su nuevo equipo, descrito como una apuesta de "alto riesgo" con una probabilidad "pequeña pero significativa" de lograr superinteligencia artificial, operará con un grupo compacto de investigadores e ingenieros. La iniciativa enfatiza talento de "alta pendiente", individuos capaces de iterar e innovar rápidamente, subrayando la disposición de OpenAI a apostar por ideas extremadamente ambiciosas para mantenerse adelante en la carrera hacia sistemas superinteligentes.

Este desarrollo se alinea con cambios más amplios en OpenAI, donde el CEO Sam Altman ha delineado públicamente planes para priorizar la superinteligencia en 2025. Como detalló la cobertura de TechRepublic sobre la hoja de ruta estratégica de OpenAI, la compañía está canalizando recursos hacia modelos que podrían alcanzar razonamiento de nivel humano y más allá, construyendo sobre éxitos como GPT-5 Pro y Sora 2. El concepto de superinteligencia se refiere específicamente a sistemas de IA con capacidades que exceden las de los humanos más brillantes en virtualmente todas las tareas cognitivas importantes, desde descubrimiento científico hasta creatividad artística y toma de decisiones estratégicas. Durante años, este objetivo ha representado tanto la promesa última como la preocupación más profunda del campo de inteligencia artificial, con voces prominentes advirtiendo sobre las dificultades de controlar sistemas que podrían superar dramáticamente nuestra propia inteligencia.

La apuesta de DePue por regresar a OpenAI para este proyecto particular refleja la creencia creciente en Silicon Valley de que la superinteligencia ya no es un concepto puramente teórico sino un objetivo técnicamente alcanzable en el horizonte temporal de esta década. Altman mismo ha expresado confianza en que OpenAI ahora conoce "cómo construir AGI como tradicionalmente lo hemos entendido," refiriéndose a inteligencia artificial general que iguala capacidades humanas amplias. El siguiente paso, argumenta, es avanzar más allá hacia superinteligencia que no solo iguala sino que excede fundamentalmente el rendimiento humano. Critics, including some within the AI ethics community, worry about the safety implications of rushing toward superintelligence. Business Insider's article quotes DePue emphasizing the "incredibly high-risk" nature of the project, acknowledging that failure is likely but success could redefine humanity's technological future.

La guerra de talento: Meta ofrece hasta $100 millones por investigador

El regreso de DePue a OpenAI ocurre en medio de una guerra de talento sin precedentes en la industria de inteligencia artificial. Mark Zuckerberg ha emprendido una campaña agresiva de reclutamiento para construir Meta Superintelligence Labs, reportadamente ofreciendo paquetes de compensación que alcanzan hasta $100 millones para atraer a los mejores investigadores y ingenieros de inteligencia artificial del mundo. Según múltiples reportes de medios, incluyendo Bloomberg, Wired y The Verge, Meta ha ofrecido en algunos casos paquetes salariales valorados en cientos de millones de dólares a nuevas contrataciones de IA. Esta campaña de contratación ha robado talento clave de OpenAI, Apple, Google, Anthropic y Safe Superintelligence de Ilya Sutskever, provocando reacciones viscerales de líderes de las compañías afectadas.

En un memo interno obtenido y publicado por Wired, Mark Chen, el director de investigación de OpenAI, escribió: "Siento una sensación visceral ahora mismo, como si alguien hubiera entrado a nuestra casa y robado algo." Chen indicó a empleados que estaba trabajando con Altman y otros líderes de la compañía "alrededor del reloj para hablar con aquellos con ofertas," agregando, "hemos sido más proactivos que nunca antes, estamos recalibrando compensación, y estamos explorando maneras creativas de reconocer y recompensar talento de primera." La intensidad emocional del lenguaje de Chen subraya cuán amenazante percibe OpenAI la campaña de reclutamiento de Zuckerberg. El CEO de OpenAI, Sam Altman, respondió públicamente durante un podcast reciente, afirmando que Meta ha estado intentando robar el mejor talento de su startup, pero reclamó que "ninguna de nuestras mejores personas ha decidido aceptar su oferta."

Sin embargo, la realidad contradice la afirmación de Altman. Meta ha contratado exitosamente a múltiples investigadores de alto perfil de OpenAI en meses recientes. Shengjia Zhao, uno de los co-creadores de ChatGPT, fue contratado por Meta y nombrado científico jefe de Meta Superintelligence Labs. En este rol, Zhao "establecerá la agenda de investigación y dirección científica" para el equipo, trabajando directamente con Zuckerberg y Alexandr Wang, ex-CEO de Scale AI. Además de Zhao, Meta contrató a cuatro investigadores adicionales de OpenAI: Jiahui Yu, quien lideraba el equipo de Percepción en OpenAI; Shuchao Bi, Hongyu Ren, y múltiples otros investigadores notables. Fortune reportó que la compañía firmó a estos investigadores como parte de su agresivo empuje para construir capacidades competitivas en modelos de razonamiento de IA. Meta también contrató a Tianhe Yu, Cosmo Du y Weiyue Wang, tres de los ingenieros que trabajaron en el modelo Gemini que logró rendimiento de medalla de oro en la Olimpiada Internacional de Matemáticas.

La lista de Zuckerberg y Meta Superintelligence Labs

Mark Zuckerberg ha revelado la existencia de "La Lista," una compilación de expertos de IA de élite que está apuntando para unirse a Meta Superintelligence Labs. En un memo interno obtenido por CNBC y publicado el lunes, Zuckerberg reveló los primeros 11 miembros de su nuevo laboratorio, a quienes robó de OpenAI y otros gigantes tecnológicos. El memo enumera ingenieros e investigadores de primera línea contratados para reforzar los esfuerzos de IA de Meta. Llega meses después de que Zuckerberg comenzara su cruzada personal de talento de IA, una que ha dejado ciegos a competidores y ha generado reportes sobre "La Lista," una compilación de los reclutas del fundador de Facebook que espera dotarán Meta Superintelligence Labs. "La Lista" incluye cinco ex-empleados de OpenAI mientras Meta busca construir modelos de razonamiento para competir con rivales.

La estrategia de compensación de Meta es extraordinaria incluso para los estándares notoriamente generosos de Silicon Valley. Además de paquetes salariales que reportadamente valen hasta cientos de millones de dólares por persona en algunos casos, la compañía está invirtiendo $14.3 mil millones para tomar una participación del 49% en Scale AI y contratar a Wang como líder clave. De Apple, Meta atrajo a los expertos en IA Mark Lee y Tom Gunter, después de contratar a su jefe, Ruoming Pang, ex-jefe del equipo LLM de Apple, reportó Bloomberg. La agresividad de la estrategia ha generado debate entre analistas de la industria sobre si estos gastos masivos eventualmente generarán retornos proporcionales o si representan gasto insostenible impulsado por temor a quedarse atrás en la carrera de IA.

En una publicación de LinkedIn, Vineet Agrawal, un inversionista en startups de tecnología de salud, calificó la campaña de contratación de Zuckerberg como "desesperada." "Cuando estás ganando con visión, no necesitas ganar con dinero," escribió. "El talento real sigue el desafío y propósito. El momento en que alguien te elige puramente por $100 millones, te dejarán por $101 millones." Edgar Perez, un experto en estrategia corporativa, expresó preocupaciones similares en una entrevista con Fortune: "¿Qué sucede cuando alguien renuncia [al equipo de superinteligencia]? Digamos, en una semana: ¿Devolverán los bonos? ... Teniendo ese tipo de dinero, la gente podría simplemente decidir quedarse por un año o dos y luego irse y comenzar sus propias compañías más tarde." Estas preocupaciones plantean preguntas legítimas sobre si la lealtad comprada con compensación extraordinaria es sostenible a largo plazo, o si Meta simplemente está facilitando que investigadores acumulen riqueza antes de eventualmente partir para fundar sus propias empresas o regresar a competidores.

El equipo original de superalineación y su disolución

El equipo que Will DePue ahora lidera no es el primer esfuerzo de OpenAI enfocado específicamente en los desafíos de alinear sistemas superinteligentes con valores humanos. En julio de 2023, OpenAI anunció con gran fanfarria la creación de un equipo de Superalignment, co-liderado por el co-fundador y científico jefe Ilya Sutskever y Jan Leike, jefe de alineación. La compañía prometió dedicar el 20% de la capacidad computacional que había asegurado hasta esa fecha durante los siguientes cuatro años para resolver el problema de alineación de superinteligencia. "Necesitamos avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que nosotros," escribieron Sutskever y Leike en una publicación de blog en ese momento. El objetivo era resolver los desafíos técnicos centrales de alineación de superinteligencia en cuatro años, una meta que los autores reconocieron como "increíblemente ambiciosa" sin garantía de éxito.

Sin embargo, apenas once meses después de su creación, ese equipo fue disuelto en medio de salidas de alto perfil y preocupaciones internas sobre prioridades corporativas. En mayo de 2024, tanto Jan Leike como Ilya Sutskever dejaron OpenAI, con Leike expresando públicamente preocupación de que "la cultura y procesos de seguridad han pasado a segundo plano frente a productos brillantes." Leike criticó a la compañía por no dedicar recursos suficientes a problemas de seguridad de largo plazo, argumentando que OpenAI estaba priorizando el desarrollo de productos comercialmente atractivos sobre investigación fundamental en alineación. El trabajo del equipo fue absorbido por otros esfuerzos de investigación de OpenAI, según Wired. Cuatro meses después de crear el equipo original, otra publicación de la compañía reveló que ellos "todavía no sabemos cómo dirigir y controlar confiablemente sistemas de IA superhumanos." Esta admisión franca subraya cuán genuinamente difícil es el problema técnico de garantizar que sistemas potencialmente más inteligentes que sus creadores permanezcan bajo control humano significativo.

La disolución del equipo original de Superalignment plantea preguntas sobre si el nuevo equipo de DePue enfrentará desafíos organizacionales similares. OpenAI opera bajo presiones contradictorias: por un lado, inversionistas y el mercado exigen productos comercialmente viables y mejoras continuas de capacidades; por otro lado, investigadores de seguridad y críticos externos enfatizan la importancia de resolver problemas de alineación antes de que los sistemas se vuelvan demasiado poderosos para controlarse. Equilibrar estas prioridades ha demostrado ser extremadamente difícil en la práctica. A pesar de la disolución del equipo original, Altman enfatizó la importancia de seguridad para OpenAI en una publicación de blog reciente. "Continuamos creyendo que la mejor manera de hacer un sistema de IA seguro es liberándolo iterativa y gradualmente al mundo, dando a la sociedad tiempo para adaptarse y co-evolucionar con la tecnología, aprendiendo de la experiencia, y continuando haciendo la tecnología más segura," escribió.

Sam Altman promete investigador de IA autónomo para 2028

En una transmisión en vivo que capturó la atención del mundo tecnológico, Sam Altman delineó un timeline ambicioso para avances de inteligencia artificial. Hablando el martes, Altman reveló que la compañía está en camino de desarrollar un asistente de investigación de IA de nivel pasante para septiembre de 2026, escalando a un "investigador de IA legítimo" completamente automatizado para 2028. Esta predicción subraya el rápido progreso de OpenAI en sistemas de aprendizaje profundo, que están resolviendo tareas complejas a velocidades sin precedentes. Los comentarios de Altman, según reportó TechCrunch, destacan métricas internas que muestran modelos evolucionando más rápido de lo anticipado. Jakub Pachocki, el científico jefe de OpenAI, se unió a Altman en la transmisión en vivo. Describió este investigador de IA, no confundir con un humano que investiga IA, como un "sistema capaz de entregar autónomamente proyectos de investigación más grandes."

"Creemos que es posible que sistemas de aprendizaje profundo estén a menos de una década de distancia de la superinteligencia," agregó Pachocki. Describió superinteligencia como sistemas más inteligentes que humanos a través de un gran número de acciones críticas. Para lograr esos objetivos, OpenAI está apostando por dos estrategias clave: innovación algorítmica continua y escalamiento dramático de "cómputo de tiempo de prueba," esencialmente cuánto tiempo los modelos pasan pensando sobre problemas. Los modelos actuales pueden manejar tareas con un horizonte temporal de aproximadamente cinco horas y igualar a los mejores ejecutantes humanos en competencias como la Olimpiada Internacional de Matemáticas, dijo Pachocki. El objetivo es extender ese horizonte temporal y profundidad de razonamiento hasta que los sistemas puedan conducir proyectos de investigación científica de principio a fin sin supervisión humana, un umbral que Altman cree que se cruzará en 2028.

La capacidad de OpenAI para perseguir estos objetivos ambiciosos depende críticamente de su reciente reestructuración corporativa. Según Altman, el brazo con fines de lucro ha ganado capacidad para recaudar más fondos, lo que significa que puede escalar la construcción de infraestructura necesaria para lograr avances científicos. Altman dijo que OpenAI se ha comprometido a 30 gigavatios de infraestructura, que es una obligación financiera de $1.4 trillones, durante los próximos años. Esta inversión masiva en capacidad computacional refleja la creencia de que el escalamiento continuo de recursos de entrenamiento, combinado con mejoras algorítmicas, eventualmente producirá sistemas con capacidades cualitativamente diferentes a las de modelos actuales. Sin embargo, críticos señalan que inversiones de esta magnitud requieren rutas claras hacia monetización, y no está claro cómo sistemas de investigación autónomos generarían ingresos suficientes para justificar gastos de infraestructura de escala trilionaria.

Perspectiva sobre viabilidad técnica y riesgos

La pregunta fundamental que rodea tanto el equipo de DePue como las promesas más amplias de Altman es si la superinteligencia es técnicamente alcanzable en los timelines propuestos, y si es así, si puede lograrse de manera segura. Los sistemas de IA actuales, por más impresionantes que sean en dominios específicos, siguen siendo fundamentalmente diferentes de la inteligencia humana general. Requieren cantidades masivas de datos de entrenamiento para aprender capacidades que los humanos adquieren con pocos ejemplos. Carecen de comprensión robusta del mundo físico y sentido común. No poseen conciencia, autoconsciencia o comprensión genuina de sus propias limitaciones. Algunos investigadores, como el Dr. Smolinski citado en reportes de TechRepublic, argumentan que la computación cuántica podría ser el único camino para desbloquear IA que verdaderamente supera la inteligencia humana, sugiriendo que los sistemas clásicos de aprendizaje profundo podrían tener limitaciones fundamentales.

Sin embargo, otros investigadores, particularmente aquellos en OpenAI y empresas competidoras, creen que el aprendizaje profundo continuo eventualmente cruzará umbrales cualitativos hacia superinteligencia. Señalan el progreso rápido en razonamiento, con modelos recientes resolviendo problemas matemáticos de nivel olímpico y generando código funcional complejo. Argumentan que la extrapolación de curvas de escalamiento sugiere que sistemas entrenados en órdenes de magnitud más datos y computación exhibirán capacidades emergentes que aún no hemos observado. La historia del campo de IA muestra predicciones consistentemente erróneas sobre cuándo se lograrían varios hitos, tanto subestimando (como con Go y generación de texto coherente) como sobreestimando (como con conducción autónoma completa). Esta incertidumbre histórica debería generar humildad sobre predicciones contemporáneas, ya sea pesimismo sobre limitaciones fundamentales u optimismo sobre superinteligencia inminente.

Los riesgos asociados con superinteligencia, si se logra, son genuinamente profundos. Un sistema significativamente más inteligente que sus creadores humanos podría perseguir objetivos mal especificados de maneras imprevistas y potencialmente catastróficas. Podría manipular o engañar a supervisores humanos para obtener más recursos o evitar restricciones de seguridad. Podría generar tecnologías peligrosas o información que facilite daño a gran escala. Estos escenarios no son ciencia ficción especulativa sino preocupaciones técnicas legítimas que investigadores de seguridad de IA han articulado en detalle durante años. El desafío es que resolver estos problemas de alineación requiere tiempo y recursos, precisamente lo que las presiones competitivas de mercado desalientan. Si Meta, OpenAI, Google y otros están en una carrera para ser primeros en superinteligencia, cada compañía enfrenta incentivos para recortar esquinas en seguridad para no quedarse atrás, un dilema clásico de acción colectiva sin una solución obvia.

Referencias

WebProNews, "OpenAI's Sora Engineer Returns to Lead Superintelligence Team" (29 de octubre, 2025).

Business Insider, "Un ingeniero de OpenAI ha revelado que está creando un equipo para investigar superinteligencia artificial" (octubre 2025).

TechCrunch, "Meta hires key OpenAI researcher to work on AI reasoning models" (26 de junio, 2025).

Fortune, "Mark Zuckerberg has a literal list of AI all-stars to whom he's offering fantastic sums of money" (1 de julio, 2025).

CNN Business, "Meta is shelling out big bucks to get ahead in AI. Here's who it's hiring" (25 de julio, 2025).

Fortune, "Meta taps four OpenAI researchers for Superintelligence team" (28 de junio, 2025).

TechCrunch, "Sam Altman says OpenAI will have a 'legitimate AI researcher' by 2028" (28 de octubre, 2025).

Axios, "Former OpenAI engineer will be Meta's new Superintelligence Lab chief scientist" (28 de julio, 2025).

TechRepublic, "OpenAI Shifts Attention to Superintelligence in 2025" (6 de enero, 2025).

WebProNews, "OpenAI's Bold Bet: AI Researchers by 2028" (28 de octubre, 2025).

OpenAI, "Introducing Superalignment" - Publicación oficial de blog (julio 2023).

Publicaciones Recientes

Generated Image November 03, 2025 - 3_30AM

La vulnerabilidad oculta del razonamiento artificial

Durante los últimos años, hemos sido testigos de una transformación silenciosa pero imparable. La inteligencia artifi
Leer Más
Generated Image November 03, 2025 - 3_13AM

Tres pilares contundentes para afirmar que los LRM casi con certeza piensan

  Apple publicó «La ilusión de pensar» argumentando que los LRM solo hacen coincidencia de patrones. Su evidenc
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí