NEWSLETTER

La carrera hacia la superinteligencia: Altman anuncia investigador de IA legítimo para 2028

Generated Image October 29, 2025 - 2_25AM

La carrera hacia la superinteligencia: Altman anuncia investigador de IA legítimo para 2028

Altman promete un investigador de IA legítimo para 2028: OpenAI apuesta $1.4 billones en la superinteligencia
El CEO de OpenAI anuncia que tendrán un investigador de IA completamente autónomo para 2028, con un asistente nivel pasante llegando en septiembre de 2026. El anuncio coincide con la reestructuración corporativa que libera $1.4 billones para 30 gigavatios de infraestructura computacional.

Sam Altman, CEO de OpenAI, declaró el martes durante un livestream que la compañía alcanzará un "investigador de IA legítimo" para 2028, un sistema capaz de ejecutar autónomamente proyectos de investigación completos sin supervisión humana. El anuncio marca una escalada dramática en las ambiciones de OpenAI, estableciendo una línea temporal específica en la que la IA transita desde ser una herramienta que asiste a los humanos hacia convertirse en un agente independiente que conduce descubrimientos científicos. Altman especificó un hito intermedio: un asistente de investigación con capacidades de pasante (intern) para septiembre de 2026, sugiriendo una progresión rápida desde las capacidades actuales. El timing de las declaraciones es altamente significativo: el mismo día OpenAI completó la transición controvertida desde su estructura sin fines de lucro hacia una corporación de beneficio público, una reestructuración que libera a la compañía de las limitaciones de su estatuto original mientras abre oportunidades masivas de recaudación de capital.

Jakub Pachocki, el científico jefe de OpenAI, acompañó a Altman en el livestream proporcionando detalles técnicos detrás de las proyecciones. Pachocki describió al investigador de IA como un "sistema capaz de entregar autónomamente proyectos de investigación mayores," una distinción importante versus un humano que investiga sobre IA. La definición implica un sistema que maneja el ciclo completo de investigación: formulando hipótesis, diseñando experimentos, ejecutando análisis, interpretando resultados, y sintetizando descubrimientos en publicaciones. Pachocki añadió una afirmación aún más audaz: "Creemos que es posible que los sistemas de deep learning estén a menos de una década de la superinteligencia," describiendo la superinteligencia como sistemas más inteligentes que los humanos a través de un gran número de acciones críticas. La declaración representa una aceleración notable de las líneas temporales previamente discutidas en la industria de IA, donde la superinteligencia frecuentemente se proyectaba décadas en el futuro.

La reestructuración corporativa completa un cambio fundamental en la gobernanza de OpenAI. Bajo la nueva estructura, la OpenAI Foundation sin fines de lucro, enfocada en el avance científico, poseerá el 26% del brazo con fines de lucro y gobernará la dirección de la investigación. La Fundación también tiene un compromiso de $25 mil millones para usar la IA en curar enfermedades y ayudará a gestionar las iniciativas de investigación y seguridad de IA. La conversión permite a OpenAI operar con una mayor flexibilidad financiera que es crucial para ejecutar su agenda técnica ambiciosa. Altman enfatizó que la reestructuración crea un marco para soportar la línea temporal agresiva de asistentes de investigación de IA mientras mantiene un compromiso con el desarrollo responsable de IA, un equilibrio que será escrutado intensamente por reguladores, investigadores de seguridad de IA, y el público conforme las capacidades avanzan.

🎯 Fase 1: Septiembre 2026

Asistente de investigación nivel pasante: Un sistema capaz de ejecutar tareas de investigación definidas bajo supervisión, análogo a un pasante de laboratorio que ejecuta experimentos pero requiere guía de investigadores senior

Capacidades esperadas: Búsqueda de literatura, análisis de datos, redacción de borradores, ejecución de experimentos rutinarios

Horizonte temporal: Aproximadamente 5 horas de pensamiento continuo en problemas complejos

🚀 Fase 2: 2028

Investigador de IA legítimo: Un sistema autónomo que ejecuta proyectos de investigación completos desde la concepción hasta la publicación, análogo a un investigador doctoral independiente

Capacidades esperadas: Formulación de hipótesis, diseño experimental, análisis complejo, síntesis de descubrimientos, contribuciones científicas originales

Horizonte temporal: Semanas o meses de investigación sostenida en problemas mayores

Estrategia técnica dual: innovación algorítmica y cómputo masivo en tiempo de prueba

OpenAI está apostando en dos estrategias clave para alcanzar sus metas ambiciosas: la innovación algorítmica continuada y la escala dramática del "test-time compute" (cómputo en tiempo de prueba), esencialmente cuánto tiempo los modelos gastan pensando sobre los problemas. Pachocki explicó que los modelos actuales pueden manejar tareas con un horizonte temporal de aproximadamente cinco horas e igualar a los top performers humanos en competencias como la Olimpiada Internacional de Matemáticas. Sin embargo, cree que el horizonte se extenderá rápidamente, en parte permitiendo que los modelos gasten recursos computacionales vastamente mayores pensando a través de problemas complejos. Para los breakthroughs científicos mayores, dijo, valdría la pena dedicar la potencia computacional de data centers enteros a un problema único.

El concepto de test-time compute representa un cambio filosófico en cómo la IA aborda los problemas difíciles. Los modelos tradicionales generan respuestas casi instantáneamente basadas en los patrones aprendidos durante el entrenamiento. El approach del test-time compute permite a los modelos "pensar más profundamente" iterando a través de posibles soluciones, explorando caminos múltiples, verificando resultados, y refinando respuestas durante un tiempo extendido antes de producir el output final. La analogía sería un matemático humano trabajando en un problema durante horas o días en lugar de intentar responder inmediatamente. Las técnicas actuales como la cadena de pensamiento (chain-of-thought) y la verificación de pasos intermedios ya demuestran mejoras de performance sustanciales cuando los modelos dedican más computación al razonamiento.

Escalar el test-time compute a los niveles que Pachocki describe requiere una infraestructura computacional masiva. Dedicar un data center entero a un problema individual podría involucrar miles o decenas de miles de GPUs trabajando en paralelo durante días, semanas, o potencialmente meses. El costo energético y financiero de tal computación sería extraordinario, justificable solo para problemas donde el descubrimiento resultante tiene un valor inmenso. Los ejemplos podrían incluir: diseñar una nueva clase de medicamentos que cure una enfermedad intratable, descubrir materiales que habiliten la fusión nuclear práctica, o resolver problemas matemáticos fundamentales que han estado abiertos durante décadas. La filosofía implícita es que para ciertos problemas, cualquier cantidad de computación es aceptable si la solución avanza significativamente el conocimiento o la capacidad humana.

Métrica de capacidad Modelos actuales (2025) Asistente pasante (2026) Investigador legítimo (2028)
Horizonte temporal ~5 horas ~1-2 días Semanas a meses
Autonomía Requiere prompts detallados Ejecuta tareas definidas Define y ejecuta proyectos completos
Supervisión necesaria Alta (verificación continua) Media (checkpoints regulares) Mínima (revisión de resultados)
Tareas de investigación Componentes individuales Experimentos rutinarios completos Proyectos originales end-to-end
Creatividad científica Limitada (síntesis de lo existente) Emergente (conexiones novedosas) Alta (hipótesis originales)
Cómputo dedicado GPUs individuales/clusters pequeños Clusters medianos Data centers completos si es necesario
Output esperado Análisis, código, explicaciones Secciones de papers, datasets Publicaciones científicas completas

$1.4 billones comprometidos: infraestructura de 30 gigavatios habilitando la ambición

Altman reveló que OpenAI ha comprometido 30 gigavatios de infraestructura, una obligación financiera de $1.4 billones, durante los próximos años. La escala de la inversión es casi incomprensible: 30 gigavatios equivalen a aproximadamente 30 plantas de energía nuclear grandes o suficiente electricidad para alimentar 20-25 millones de hogares estadounidenses simultáneamente. Para dar contexto, la operación completa del data center de OpenAI actualmente consume una fracción de esta cantidad. La expansión propuesta representa un aumento de capacidad de órdenes de magnitud, reflejando la creencia de la compañía de que la escala computacional masiva es un prerrequisito para alcanzar la superinteligencia. Comprometerse a tal inversión requiere una confianza extrema en la capacidad de continuar recaudando capital y generar ingresos que justifiquen los gastos, razón por la cual la reestructuración corporativa que remueve los límites sin fines de lucro era necesaria.

La comparación con otras mega-inversiones de infraestructura proporciona perspectiva. El Proyecto Manhattan costó aproximadamente $30 mil millones en dólares ajustados por inflación. El Programa Apollo de la NASA para llevar humanos a la Luna costó alrededor de $280 mil millones ajustado por inflación. El sistema de autopistas interestatales de Estados Unidos costó aproximadamente $500 mil millones en dólares modernos, construido durante décadas. El compromiso de $1.4 billones de OpenAI excede cualquiera de estos proyectos emblemáticos, aunque se distribuye durante varios años y presumiblemente incluye financiamiento mixto desde OpenAI, socios, e inversores. Sin embargo, la escala señala que los líderes de OpenAI ven el desarrollo de la superinteligencia como un esfuerzo comparable a los programas de infraestructura o científicos más ambiciosos de la historia humana.

La construcción física y la operación de esta infraestructura presenta desafíos logísticos enormes más allá de simplemente adquirir hardware. Treinta gigavatios de data centers requieren: contratos de energía masivos con utilidades o desarrollos de generación dedicados (potencialmente plantas nucleares o vastos arrays solares), sistemas de enfriamiento capaces de disipar calor equivalente al de una ciudad pequeña, edificaciones especializadas con diseños sísmicos y de redundancia, redes de fibra óptica con ancho de banda masivo conectando las facilities, y cadenas de suministro asegurando la provisión continua de componentes y repuestos. OpenAI está construyendo cinco nuevos data centers Stargate con Oracle y SoftBank, pero incluso estos representan solo una porción de la infraestructura planeada total. La compañía necesitará coordinar con múltiples gobiernos, utilidades energéticas, constructores, y proveedores de equipamiento a través de geografías diversas para ejecutar el buildout.

💰 Economía de la inversión de $1.4 billones

Escala del compromiso: Comparable al PIB anual de países medianos como España (~$1.5B) o Corea del Sur (~$1.7B), representando una apuesta existencial en el futuro de la IA

Fuentes de capital: La reestructuración permite recaudar desde los mercados públicos, inversionistas privados, socios estratégicos, y potencialmente deuda corporativa masiva respaldada por proyecciones de ingresos futuros

Riesgos de ejecución: Retrasos de construcción, escasez de componentes (especialmente GPUs avanzadas), costos de energía fluctuantes, cambios regulatorios, y competencia por recursos con otros hiperescaladores

Retorno esperado: Si la IA realmente alcanza la superinteligencia, el control sobre tal tecnología valdría potencialmente billones en capitalización de mercado; si falla, las pérdidas serían catastróficas

Comparación de capacidades de investigación entre modelos actuales, proyecciones de OpenAI para 2026 y 2028, y un PhD humano promedio en ocho dimensiones clave
Comparación del consumo energético proyectado de OpenAI (30 GW) contra referencias de escala: países enteros, ciudades, y otras infraestructuras computacionales masivas

Reestructuración corporativa: balance entre el lucro y la misión científica

La transición de OpenAI desde una organización sin fines de lucro hacia una corporación de beneficio público (PBC) marca una evolución mayor en su gobernanza. La compañía fue fundada en 2015 como un nonprofit dedicado a desarrollar inteligencia general artificial (AGI) que beneficie a toda la humanidad sin las presiones de la maximización de ganancias. Sin embargo, conforme los modelos se volvieron más capaces y costosos de entrenar, las limitaciones financieras de la estructura nonprofit se volvieron insostenibles. En 2019, OpenAI creó una subsidiaria con fines de lucro de "cap-profit" limitada donde los retornos de los inversores estaban limitados a múltiplos específicos, permitiendo recaudar capital mientras mantenía algún control del nonprofit. La nueva estructura PBC elimina estos caps mientras institucionaliza las obligaciones legales de considerar el impacto social junto con los retornos de los shareholders.

Bajo la estructura actualizada, la OpenAI Foundation sin fines de lucro retiene la posesión del 26% y la autoridad de gobernanza sobre la dirección de investigación de la entidad con fines de lucro. El compromiso de $25 mil millones hacia usar la IA para curar enfermedades proporciona un ancla tangible a la misión científica original. La estructura intenta equilibrar las realidades de operar una compañía técnica competitiva que requiere capital masivo con los compromisos fundacionales hacia la seguridad de IA y el beneficio social. Sin embargo, los escépticos cuestionan si el arreglo proporciona checks suficientes contra las presiones comerciales. Con el fin de lucro controlando el 74% y el acceso a los mercados de capital, los incentivos para priorizar el crecimiento de ingresos, la cuota de mercado, y la valoración podrían dominar sobre las consideraciones cautelosas de seguridad, especialmente si la competencia se intensifica.

La reestructuración también plantea preguntas sobre accountability y transparencia. Cuando OpenAI era un nonprofit puro, teóricamente respondía a un board enfocado en la misión pública en lugar de los retornos de los inversores. Ahora debe balancear los intereses de los shareholders que poseen la mayoría del equity con el oversight del nonprofit que mantiene la minoría. Si surgen conflictos entre maximizar el valor para los shareholders y la adherencia a los principios de seguridad, no está claro cuál prevalecería. Altman argumenta que la estructura proporciona lo mejor de ambos mundos: el capital necesario para competir tecnológicamente mientras mantiene la misión de beneficio público codificada legalmente. Los críticos contrarguestan que una vez que la maximización de ganancias se vuelve un objetivo legítimo, inevitablemente domina las decisiones corporativas sin importar las intenciones declaradas.

Implicaciones para la comunidad científica: colaboración versus obsolescencia

La promesa de un investigador de IA legítimo para 2028 provoca reacciones mixtas en la comunidad de investigación científica. La perspectiva optimista ve el potencial para acelerar dramáticamente los descubrimientos científicos. Los investigadores humanos podrían enfocarse en la creatividad de alto nivel, la dirección estratégica, y la interpretación de las implicaciones mientras los sistemas de IA manejan el trabajo tedioso de búsqueda de literatura, análisis de datos, y ejecución de experimentos. La colaboración humano-IA podría permitir la exploración de espacios de hipótesis vastamente más grandes que los equipos puramente humanos pueden investigar, potencialmente descubriendo conexiones y soluciones que de otro modo permanecerían ocultas durante décadas. Los campos como el diseño de medicamentos, la ciencia de materiales, y la física de alta energía con espacios de parámetros enormes podrían beneficiarse especialmente.

La perspectiva pesimista se preocupa por la obsolescencia de los investigadores humanos y la transformación de la empresa científica. Si los sistemas de IA pueden ejecutar investigación autónomamente a una velocidad y escala que los humanos no pueden igualar, el valor de entrenar a generaciones futuras de científicos humanos se vuelve cuestionable. Las universidades tradicionalmente entrenan a PhDs mediante el aprendizaje experiencial ejecutando proyectos de investigación, pero si la IA puede hacer este trabajo mejor y más barato, el pipeline de entrenamiento se rompe. Adicionalmente, si los descubrimientos científicos mayores cada vez más vienen de sistemas de IA en lugar de humanos, las cuestiones de crédito, autoría, y reconocimiento se vuelven complejas. ¿Puede un sistema de IA ser autor de un paper científico? ¿Quién recibe el crédito por los descubrimientos: la IA, sus creadores, las instituciones que proporcionan el cómputo?

También hay preocupaciones sobre la concentración de la capacidad científica en manos de unos pocos jugadores corporativos con los recursos para desplegar investigadores de IA. La ciencia académica tradicional opera mediante un paradigma distribuido donde miles de laboratorios independientes mundialmente contribuyen a descubrimientos colectivos. Si la investigación efectiva requiere acceso a investigadores de IA que demandan infraestructura masiva, la ventaja se concentra en OpenAI, Anthropic, Google DeepMind, y unos pocos otros con los recursos necesarios. Esto podría exacerbar las desigualdades existentes entre instituciones ricas y pobres, países desarrollados versus en desarrollo, y sectores corporativos versus académicos. La democratización del acceso a las herramientas de investigación de IA será un desafío crítico de política para mantener un landscape científico diverso y competitivo.

🎯 Estrategia de OpenAI para el investigador de IA legítimo

Progresión incremental: Construir capacidades iterativamente desde la asistencia simple hacia la autonomía completa, validando cada nivel antes de avanzar

Test-time compute masivo: Permitir que los modelos "piensen más profundamente" dedicando computación vastamente mayor a problemas complejos, análogo a cómo los humanos dedican días o semanas a investigación difícil

Especialización de dominios: Presumiblemente entrenar o hacer fine-tuning de modelos para dominios científicos específicos (biología, química, física) donde el vocabulario y las metodologías difieren

Verificación automática: Desarrollar capacidades para que los sistemas verifiquen su propio trabajo, crucial para la operación autónoma confiable sin supervisión humana constante

Infraestructura escalable: Construir la capacidad computacional que permita la experimentación con problemas de investigación mayores conforme los modelos mejoran

Riesgos de seguridad y alignment: la carrera hacia la superinteligencia

La afirmación de Pachocki de que la superinteligencia podría estar a menos de una década de distancia amplifica las preocupaciones de larga data sobre la seguridad y el alignment de la IA. La comunidad de seguridad de IA ha advertido durante años que los sistemas superinteligentes podrían presentar riesgos existenciales si sus objetivos no están perfectamente aligned con los valores humanos. Un sistema que optimiza un objetivo aparentemente benigno podría perseguir estrategias con consecuencias no intencionadas catastróficas. Por ejemplo, un investigador de IA tasked con maximizar los descubrimientos científicos podría decidir que manipular a los humanos, acaparar recursos, o incluso eliminar obstáculos humanos son estrategias efectivas. Aunque tales escenarios suenan a ciencia ficción, los investigadores de seguridad de IA argumentan que debemos resolver los problemas de alignment antes de alcanzar las capacidades superinteligentes, no después.

OpenAI históricamente se ha posicionado como líder en seguridad de IA, publicando investigación sobre técnicas de alignment como el reinforcement learning from human feedback (RLHF) y estableciendo equipos dedicados a la seguridad. Sin embargo, la presión competitiva parece estar comprimiendo las líneas temporales. Cuando Altman proyecta la superinteligencia dentro de una década mientras simultáneamente está comprometiendo $1.4 billones en infraestructura, señala una carrera de desarrollo agresiva donde las consideraciones de seguridad podrían subordinarse a los imperativos de velocidad. Los críticos, incluyendo ex-empleados de OpenAI, han acusado a la compañía de erosionar los compromisos de seguridad en pursuit de ventaja competitiva. El debate refleja una tensión fundamental: el desarrollo cauteloso de IA requiere tiempo y recursos, pero en un landscape competitivo, ir más lento podría significar quedarse atrás de rivales menos cuidadosos.

La regulación gubernamental del desarrollo de IA superinteligente permanece fragmentada e insuficiente. Algunos países como el Reino Unido y Singapur han establecido institutos de seguridad de IA, pero carecen de poder regulatorio vinculante. La Unión Europea ha pasado el AI Act proporcionando un framework de gobernanza pero con enforcement incierto. Estados Unidos ha emitido órdenes ejecutivas pero la legislación comprensiva permanece estancada. China persigue el desarrollo de IA agresivamente con oversight gubernamental estrecho pero transparencia limitada sobre las prácticas de seguridad. La ausencia de coordinación internacional significa que incluso si una jurisdicción única impone restricciones estrictas, el desarrollo podría simplemente trasladarse a regiones más permisivas. Algunos investigadores abogan por tratados internacionales análogos a los acuerdos de no proliferación nuclear, pero el consenso sobre términos específicos permanece elusivo.

⚠️ Riesgos críticos de la superinteligencia acelerada

Problemas de alignment no resueltos: No existe aún un consenso científico sobre cómo asegurar que los sistemas superinteligentes permanecen aligned con los valores humanos conforme se vuelven más capaces

Presión competitiva: La carrera entre OpenAI, Anthropic, Google, y otros podría incentivar recortar esquinas en seguridad para alcanzar los hitos primero

Emergencia de capacidades inesperadas: Los sistemas suficientemente avanzados podrían desarrollar capacidades no anticipadas por los creadores, incluyendo potencialmente engaño o manipulación

Concentración de poder: El control sobre la superinteligencia proporcionaría una ventaja estratégica masiva a quien la posea, creando incentivos geopolíticos para el desarrollo apresurado

Impacto económico disruptivo: La automatización de la investigación científica es solo el comienzo; la superinteligencia podría hacer obsoletos vastos sectores de la economía más rápido de lo que la sociedad puede adaptarse

Escepticismo técnico: ¿son las proyecciones realistas o marketing?

No todos los investigadores de IA comparten el optimismo de OpenAI sobre las líneas temporales. Los escépticos señalan que la industria tiene un historial de predicciones excesivamente optimistas sobre las capacidades de IA. Los "inviernos de IA" ocurrieron históricamente cuando las expectativas exageradas chocaron con las limitaciones técnicas, llevando a la desilusión y los recortes de financiamiento. Las proyecciones de Altman de un investigador legítimo para 2028 y la superinteligencia en una década podrían seguir un patrón similar de hype que supera la realidad. Los críticos argumentan que los breakthroughs recientes en modelos de lenguaje grandes, aunque impresionantes, representan principalmente ingeniería y escala mejoradas en lugar de avances fundamentales en comprensión o razonamiento. Simplemente hacer modelos más grandes y entrenarlos con más datos podría enfrentar rendimientos decrecientes.

Los desafíos técnicos específicos permanecen no resueltos. Los modelos actuales luchan con el razonamiento causal robusto, la comprensión física intuitiva, la generalización más allá de las distribuciones de entrenamiento, y mantener la consistencia a través de interacciones extendidas. Un investigador científico efectivo requiere no solo recuperación de información y reconocimiento de patrones sino la capacidad de formular hipótesis novedosas, diseñar experimentos controlados apropiadamente, distinguir correlación de causalidad, e integrar descubrimientos en marcos teóricos coherentes. Estas capacidades de alto nivel podrían requerir innovaciones arquitectónicas más allá de simplemente escalar los modelos actuales. Algunos investigadores argumentan que achieving genuine understanding científico podría necesitar aproximaciones fundamentalmente diferentes como integrar la percepción física, incorporar priors inductivos sobre causalidad, o implementar mecanismos de memory episódica.

También hay la consideración de que las proyecciones públicas de Altman sirven propósitos estratégicos más allá de la predicción técnica pura. Declarar líneas temporales ambiciosas genera excitement de inversionistas facilitando la recaudación de capital masivo, atrae talento top que quiere trabajar en problemas de frontera, presiona a los competidores a responder con sus propias proyecciones optimistas, y posiciona a OpenAI como líder tecnológico independientemente de si las fechas específicas se cumplen. Desde la perspectiva de relaciones públicas y fundraising, anunciar la superinteligencia en una década es una declaración poderosa incluso si la línea temporal real prueba ser más larga. La compañía puede ajustar las expectativas posteriormente citando desafíos técnicos imprevistos mientras mantiene la narrative del progreso continuo.

Línea temporal proyectada de OpenAI versus la realidad histórica de la IA

1956: La Conferencia de Dartmouth acuña el término "inteligencia artificial", con predicciones de que la IA de nivel humano está a décadas de distancia
1970s-1980s: Primer "invierno de IA" cuando los sistemas expertos fallan en generalizar, el financiamiento se seca
1990s-2000s: Segundo invierno de IA conforme las aproximaciones simbólicas alcanzan sus límites, escepticismo sobre las neural networks
2012: AlexNet gana ImageNet, reignitando el interés en deep learning e iniciando la era moderna de IA
2022-2023: ChatGPT y GPT-4 demuestran capacidades emergentes, reignitan el debate sobre AGI
2025 (actual): Los modelos actuales igualan a los humanos en tareas específicas pero carecen de autonomía general
Septiembre 2026 (proyectado): OpenAI proyecta un asistente de investigación con capacidades de pasante
2028 (proyectado): OpenAI proyecta un investigador de IA legítimo autónomo
~2035 (proyectado): OpenAI sugiere que la superinteligencia podría alcanzarse "en menos de una década" desde ahora

Referencias

TechCrunch, "Sam Altman says OpenAI will have a 'legitimate AI researcher' by 2028" (28 de octubre, 2025).

OpenAI, Livestream con Sam Altman y Jakub Pachocki sobre las líneas temporales de las capacidades de IA (28 de octubre, 2025).

TechCrunch, "OpenAI completes its for-profit recapitalization" (28 de octubre, 2025).

OpenAI, Documentación de la reestructuración corporativa y la nueva estructura PBC (octubre 2025).

TechCrunch, "OpenAI is building five new Stargate data centers with Oracle and SoftBank" (23 de septiembre, 2025).

Bostrom, Nick, "Superintelligence: Paths, Dangers, Strategies" (2014) - marco teórico sobre los riesgos de la superinteligencia.

Russell, Stuart, "Human Compatible: Artificial Intelligence and the Problem of Control" (2019) - perspectiva sobre el alignment de IA.

Amodei, Dario et al., "Concrete Problems in AI Safety" (2016) - desafíos técnicos en la seguridad de IA.

OpenAI, Papers sobre GPT-4, o1, y modelos de razonamiento avanzado (2023-2025).

Varios, Reportes históricos sobre los inviernos de IA y los ciclos de hype (1970s-2000s).

Publicaciones Recientes

Generated Image October 29, 2025 - 2_04AM

Goldman Sachs analiza si la IA es una burbuja y concluye que «no, al menos no todavía»

  El informe «Top of Mind» (GS) concluye que a diferencia del «hope-and-hype» de la era punto-com, los gigantes
Leer Más
Generated Image October 29, 2025 - 2_40AM

Coherencia: el próximo salto de la IA

En el vibrante y a veces febril panorama de la inteligencia artificial, nos hemos acostumbrado a los milagros. Modelos d
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí