NEWSLETTER

Google quiere construir centros de datos de IA en el espacio: Project Suncatcher lanzará TPUs en órbita solar para 2027

Generated Image November 04, 2025 - 10_36PM

Google quiere construir centros de datos de IA en el espacio: Project Suncatcher lanzará TPUs en órbita solar para 2027

Google quiere construir centros de datos de IA en el espacio: Project Suncatcher lanzará TPUs en órbita solar para 2027
Google está iniciando un nuevo moonshot de investigación llamado Project Suncatcher para escalar algún día el aprendizaje automático en el espacio. Esto involucraría los chips de IA Tensor Processing Unit de Google colocados a bordo de una red interconectada de satélites para aprovechar todo el poder del Sol. Específicamente, un panel solar puede ser hasta ocho veces más productivo que en la Tierra para obtener energía casi continua usando una órbita terrestre baja sincronizada con el amanecer y el atardecer que reduce la necesidad de baterías y otras formas de generación de energía. Estos satélites se conectarían mediante enlaces ópticos de espacio libre, con las cargas de trabajo de ML a gran escala distribuyendo tareas a través de numerosos aceleradores con conexiones de alto ancho de banda y baja latencia. Para igualar a los centros de datos en la Tierra, la conexión entre los satélites tendría que ser de decenas de terabits por segundo, y tendrían que volar en formación muy cerrada, a kilómetros o menos de distancia. Google cree que los costos de lanzamiento caerán a menos de 200 dólares por kilogramo para mediados de la década de 2030. En ese punto, el costo de lanzar y operar un centro de datos basado en el espacio podría volverse aproximadamente comparable a los costos de energía reportados de un centro de datos terrestre equivalente sobre una base de kilovatio por año.

Hay momentos en los que una empresa de tecnología anuncia algo tan audaz que obliga a detenerse y preguntarse si están bromeando o si realmente están preparando el futuro. Google acaba de tener uno de esos momentos. La compañía anunció Project Suncatcher, una iniciativa de investigación moonshot que explora cómo construir centros de datos de inteligencia artificial en el espacio, alimentados directamente por el Sol.

No es ciencia ficción. Es un plan serio con lanzamientos de satélites prototipos programados para principios de 2027. La visión es desplegar constelaciones de satélites compactos, cada uno equipado con las unidades de procesamiento tensorial de Google, interconectados a través de enlaces ópticos de espacio libre y alimentados por luz solar casi continua. El objetivo declarado: construir una infraestructura de IA basada en el espacio que podría revolucionar cómo se entrena y despliega el aprendizaje automático.

La propuesta fundamental es simple pero profunda. El Sol es la fuente de energía definitiva en nuestro sistema solar, emitiendo más poder que 100 billones de veces la producción total de electricidad de la humanidad. En la órbita correcta, un panel solar puede ser hasta ocho veces más productivo que en la Tierra y producir energía casi continuamente, reduciendo la necesidad de baterías pesadas. En el futuro, el espacio puede ser el mejor lugar para escalar la computación de IA.

Por qué Google está mirando hacia arriba

El crecimiento exponencial de la IA está impulsando una demanda igualmente exponencial de energía. Las proyecciones actuales sugieren que el consumo de energía de la IA podría convertirse en una tensión significativa sobre los recursos globales. Según un informe reciente de la Agencia Internacional de Energía, los centros de datos ya representan alrededor del 1% del uso global de electricidad, y esa cifra está subiendo rápidamente.

Google enmarca Project Suncatcher como una respuesta a las demandas de energía masivas y aún crecientes del aprendizaje automático moderno. El CEO Sundar Pichai reconoció que como cualquier moonshot, va a requerir la resolución de muchos desafíos de ingeniería complejos. Pero enfatizó que es en este espíritu que la compañía se ha embarcado en la construcción de tecnologías que una vez parecieron irreales, desde la computación cuántica hasta los vehículos autónomos.

Travis Beals, director senior del equipo de investigación Paradigms of Intelligence de Google, lo expresó así: si las cosas siguen por el camino donde seguimos teniendo más usos para la IA y seguimos queriendo más energía para alimentarla, esto tiene un potencial tremendo para escalar. Pero como con todos los moonshots, no hay certeza.

La ventaja de ejecutar un centro de datos en el espacio es que puede ser alimentado enteramente por el Sol. El plan de Google es lanzar los satélites en una órbita que los mantendría en luz solar casi continua y recibirían hasta ocho veces más energía solar por año que un panel ubicado en la Tierra a latitud media.

La arquitectura técnica: constelaciones conectadas ópticamente

El sistema propuesto consiste en una constelación de satélites en red, probablemente operando en una órbita terrestre baja sincronizada con el amanecer y el atardecer, donde estarían expuestos a luz solar casi constante. Esta elección orbital maximiza la recolección de energía solar y reduce la necesidad de baterías pesadas a bordo.

Cada satélite en la red sería un nodo en un centro de datos flotante, equipado con los chips de unidad de procesamiento tensorial personalizados de Google. Para que estos nodos distribuidos funcionen como una supercomputadora cohesiva, requieren conexiones de ancho de banda extremadamente alto y baja latencia. Google planea usar enlaces ópticos de espacio libre para transferir datos entre los satélites.

Cómo funcionan los enlaces ópticos de espacio libre

A diferencia de las señales tradicionales de radiofrecuencia, que tienen un ancho de banda limitado, los enlaces ópticos basados en láser pueden transmitir terabits de datos por segundo. Esto es un requisito previo para conectar miles de satélites en una red de computación distribuida.

El equipo de investigación de Google ya logró una transmisión bidireccional de 800 gigabits por segundo usando un solo par de transceptores en una demostración a escala de laboratorio. Eso es 1.6 terabits por segundo en total. La compañía encontró que si los satélites se posicionan a cientos de metros de distancia, pueden usar una conexión óptica que logra velocidades lo suficientemente rápidas. Las constelaciones de satélites actuales como Starlink están aproximadamente a 120 kilómetros de distancia, según algunas estimaciones.

Para lograr un rendimiento a escala de centro de datos, los satélites necesitarían volar en formaciones extremadamente ajustadas, dentro de kilómetros o incluso cientos de metros entre sí, mucho más cerca que cualquier sistema de satélites actual. Al desplegar el multiplexado espacial, una técnica para aumentar el rendimiento usando múltiples flujos de datos independientes, Google espera poder conectar grandes números de satélites juntos a decenas de terabits por segundo.

El documento técnico detallado en una preimpresión publicada por Google describe los conceptos básicos para un clúster potencial de 81 satélites en un radio de un kilómetro. Sin embargo, el documento nota que todavía existen obstáculos técnicos y logísticos significativos, y que la escala final podría cambiar. Google teoriza un sistema de computación escalable para el aprendizaje automático en el espacio, usando flotas de satélites equipados con arreglos solares, enlaces entre satélites usando óptica de espacio libre y chips aceleradores de unidad de procesamiento tensorial.

El desafío de la radiación: Trillium sobrevive la prueba

Ejecutar un centro de datos en el espacio crea otros desafíos más allá del obstáculo inicial de subirlos allí en primer lugar. En el espacio, las unidades de procesamiento tensorial de Google estarán expuestas a niveles mucho más altos de radiación de los que estarían en la Tierra, y los investigadores necesitan descubrir cuánto durarán.

Llevaron los chips a una instalación en la Universidad de California, Davis y usaron un acelerador de partículas para irradiar los procesadores para simular años de exposición solar en el espacio. Beals dijo que se sostuvieron bastante bien, sugiriendo que podrían manejar fácilmente una misión de cinco o seis años. Las pruebas adicionales determinarán si hay problemas sutiles causados cuando los chips operan en el espacio, como partículas subatómicas colisionando con los transistores y causando demasiados cambios de bits, cuando los números binarios se invierten inadvertidamente.

Sobreviviendo al ambiente espacial

La fuente de energía que hace que la idea de una supercomputadora de IA basada en el espacio sea tan atractiva también resulta que arroja radiación ionizante, que no es exactamente ideal para la electrónica. En la Tierra, estamos protegidos de gran parte de esta radiación por el campo electromagnético del planeta y la atmósfera gruesa. Sin embargo, en órbita, esas protecciones no son casi tan fuertes.

Google ya está investigando versiones endurecidas contra la radiación de sus unidades de procesamiento tensorial. Y, como resulta, la compañía puede no necesitar hacer mucho para mantenerlas vivas. En las pruebas, Google expuso sus aceleradores TPU v6e, con nombre en código Trillium, a un haz de fotones de 67 megaelectrón-voltios para ver cómo enfrentaría la radiación.

Los chips Trillium resultaron ser sorprendentemente resistentes a la radiación. No se atribuyeron fallas duras a los efectos de dosis ionizante total hasta la dosis máxima probada de 15 kilorads en un solo chip, indicando que las unidades de procesamiento tensorial Trillium son sorprendentemente resistentes a la radiación para las aplicaciones espaciales. Eso es casi tres veces la dosis esperada de la misión de cinco años para un sistema protegido en órbita terrestre baja.

Sin embargo, los subsistemas de memoria de alto ancho de banda exhibieron la mayor sensibilidad a los efectos de dosis ionizante total. La memoria de alto ancho de banda sufrió algunos errores incorregibles, a una tasa que Google dijo que probablemente es aceptable para la inferencia. Sin embargo, el impacto de los efectos de evento único, fallas instantáneas causadas por el impacto de una sola partícula energética que genera una pista densa de pares electrón-hueco, en las ejecuciones de entrenamiento requiere un estudio adicional.

Pichai señaló que la investigación temprana muestra que las unidades de procesamiento tensorial de la generación Trillium sobrevivieron sin daño cuando se probaron en un acelerador de partículas para simular los niveles de radiación de la órbita terrestre baja. Sin embargo, desafíos significativos todavía permanecen como la gestión térmica y la confiabilidad del sistema en órbita.

Los desafíos de ingeniería masivos que quedan

Resolver los inmensos rompecabezas de ingeniería es central para el éxito de Suncatcher. Más allá de la radiación, hay cuestiones de gestión térmica. En la Tierra, los centros de datos usan sistemas de enfriamiento elaborados con agua o aire. En el espacio, disipar el calor es más difícil. No hay aire para la convección, por lo que los satélites necesitan irradiar calor, y eso requiere un diseño cuidadoso de los radiadores y la gestión térmica.

Luego está la cuestión de las comunicaciones terrestres de alto ancho de banda. Los satélites necesitan poder transmitir datos hacia y desde la Tierra de manera eficiente. También hay la confiabilidad del sistema en órbita. A diferencia de los centros de datos terrestres donde puedes enviar técnicos a reparar el hardware, los satélites en órbita necesitan ser extremadamente confiables o tener redundancia incorporada porque las reparaciones son esencialmente imposibles.

En los centros de datos de hoy, los chips de IA están conectados usando cableado de cobre u óptico. Hacer eso en el espacio requeriría lanzar un objeto mucho más grande de lo que los cohetes modernos pueden manejar o ensamblar uno en el espacio a partir de partes más pequeñas. Una startup llamada Starcloud, que se ha asociado con otro fabricante de chips, planea construir lo que se ve más como centros de datos tradicionales en el espacio, con contenedores modulares llenos de racks de servidores.

La idea de Google es tomar un enfoque mucho más simple lanzando flotas de satélites pequeños y conectándolos de forma inalámbrica, reduciendo la necesidad de llevar racks de servidores grandes y voluminosos en los cohetes. Este domingo vio el lanzamiento del satélite Starcloud-1 con un procesador de otro fabricante, con la startup Starcloud proponiendo construir algún día un centro de datos de cinco gigavatios a través de un arreglo solar de cuatro kilómetros.

La economía: cuando el espacio se vuelve competitivo

El costo de lanzamiento es otra consideración. Asumiendo que los precios de lanzamiento caen a 200 dólares por kilogramo para mediados de la década de 2030, Google sostiene que los centros de datos basados en el espacio serán aproximadamente comparables a sus equivalentes terrestres en términos de costos de energía. Los precios de lanzamiento actuales son más de diez veces el costo deseado de Google.

La curva de viabilidad económica

Dado un costo de energía de centro de datos estimado en Estados Unidos de aproximadamente 570 a 3,000 dólares por kilovatio por año, Google dijo que el costo de lanzar y operar un centro de datos basado en el espacio podría volverse aproximadamente comparable a los costos de energía reportados de un centro de datos terrestre equivalente sobre una base de kilovatio por año si los costos de lanzamiento caen lo suficiente.

El análisis de Google sugiere que la economía puede estar acercándose a la viabilidad. Con los costos de lanzamiento proyectados potencialmente cayendo por debajo de 200 dólares por kilogramo para mediados de la década de 2030, el costo de lanzar y operar un centro de datos basado en el espacio podría volverse aproximadamente comparable a los costos de energía de una instalación terrestre equivalente.

La convergencia de los costos de lanzamiento decrecientes, la tecnología espacial en mejora y la demanda exponencialmente creciente de computación de IA está creando lo que algunos ven como un cambio inevitable hacia la infraestructura basada en el espacio. Google no está solo en mirar el espacio para la infraestructura de IA. Jeff Bezos ha predicho que los centros de datos de IA operarán en el espacio dentro de 20 años. El sábado pasado, Elon Musk dijo que su compañía construirá centros de datos en órbita.

La viabilidad económica también depende de cuánto dura el hardware. Si los satélites pueden operar durante cinco o seis años, como sugieren las pruebas iniciales de radiación, los costos pueden amortizarse sobre ese período. Pero si el hardware falla antes, la economía se vuelve mucho más desafiante.

El cronograma: prototipos para 2027, operaciones quizás para la década de 2030

Project Suncatcher permanece en las etapas de investigación tempranas, pero Google planea probar el concepto en el espacio pronto. En colaboración con Planet Labs, una compañía de imágenes satelitales, la compañía planea lanzar dos satélites prototipos para principios de 2027. La misión probará si las unidades de procesamiento tensorial pueden operar efectivamente en las condiciones duras de la órbita terrestre baja y validará el uso de los enlaces ópticos entre satélites para las cargas de trabajo de ML distribuidas.

Cada satélite prototipo llevará cuatro unidades de procesamiento tensorial. Estos probarán cómo operan los modelos y el hardware en el espacio y validarán el uso de los enlaces ópticos entre satélites para las tareas de ML distribuidas. Es un primer paso pequeño pero crucial hacia la visión más grande.

Nuestro análisis inicial muestra que los conceptos centrales de la computación de ML basada en el espacio no están excluidos por la física fundamental o las barreras económicas insuperables. Google todavía tiene que trabajar a través de los desafíos de ingeniería como la gestión térmica, las comunicaciones terrestres de alto ancho de banda y la confiabilidad del sistema en órbita. La compañía está asociándose con Planet para lanzar dos satélites prototipos para principios de 2027 que prueban cómo operan los modelos y el hardware de las unidades de procesamiento tensorial en el espacio y validan el uso de los enlaces ópticos entre satélites para las tareas de ML distribuidas.

Si los prototipos tienen éxito, la siguiente fase involucraría escalar estas constelaciones a niveles de gigavatios de energía, requiriendo diseños aún más integrados que combinen la recolección de energía, la computación y la gestión térmica. Este escalamiento será fuertemente influenciado por el costo decreciente del lanzamiento espacial.

Las implicaciones más amplias: reduciendo la presión sobre los recursos terrestres

Las implicaciones de la IA basada en el espacio exitosa se extienden mucho más allá de la industria tecnológica. Reducir la presión sobre los recursos terrestres podría beneficiar a la agricultura, la gestión del agua y otros sectores. Si los centros de datos de IA pueden operar en el espacio, esa es energía y recursos que no necesitan ser consumidos en la Tierra.

También hay implicaciones para dónde se desarrolla la tecnología de IA. Si la computación de IA basada en el espacio se vuelve viable, podría cambiar el panorama competitivo. Las compañías que dominen la tecnología espacial y puedan desplegar estos sistemas efectivamente tendrán ventajas significativas.

Project Suncatcher representa la apuesta a largo plazo de Google en este futuro. La compañía está apostando a que la convergencia de los costos de lanzamiento decrecientes, la tecnología espacial en mejora y la demanda explosiva de computación de IA harán que la infraestructura basada en el espacio no solo sea viable sino económicamente competitiva con los sistemas terrestres dentro de una década o dos.

Hay también consideraciones ambientales. Aunque mover los centros de datos al espacio podría reducir el consumo de energía terrestre, el lanzamiento de cohetes en sí tiene impactos ambientales. Sin embargo, si los cohetes se vuelven suficientemente reutilizables y eficientes, el impacto ambiental neto podría ser positivo.

El contexto histórico: de moonshot a realidad

Project Suncatcher es parte de la larga tradición de Google de asumir moonshots que abordan problemas científicos y de ingeniería difíciles. Como todos los moonshots, habrá incógnitas, pero es en este espíritu que la compañía se embarcó en la construcción de una computadora cuántica a gran escala hace una década, antes de que se considerara una meta de ingeniería realista, y visionó un vehículo autónomo hace más de 15 años, que eventualmente se convirtió en Waymo y ahora sirve millones de viajes de pasajeros alrededor del globo.

No todos los moonshots de Google han tenido éxito. Google Glass no despegó como se esperaba. Muchos proyectos X nunca salieron del laboratorio. Pero los que tuvieron éxito, como los vehículos autónomos, han sido transformadores. La pregunta es si Project Suncatcher caerá en la categoría de éxito o fracaso.

Lo que es diferente sobre Project Suncatcher comparado con algunos moonshots anteriores es que múltiples actores están persiguiendo conceptos similares simultáneamente. Bezos está hablando sobre los centros de datos espaciales. Musk está hablando sobre construirlos. Starcloud ya lanzó un satélite prototipo. Esto sugiere que la idea tiene una tracción más amplia y puede no ser solo una fantasía de Google.

Los escépticos y las limitaciones reales

Por supuesto, hay razones para el escepticismo. Los centros de datos espaciales enfrentan desafíos fundamentales que no tienen equivalentes terrestres. La confiabilidad del hardware en los entornos de radiación alta es todavía incierta. La gestión térmica en el espacio es fundamentalmente más difícil que en la Tierra. Las comunicaciones terrestres de alto ancho de banda son complejas.

También están las limitaciones prácticas. Incluso si los costos de lanzamiento caen a 200 dólares por kilogramo, lanzar suficientes satélites para construir un centro de datos a escala seguiría siendo extraordinariamente caro. Un centro de datos terrestre típico de gran escala usa decenas de megavatios de energía y contiene decenas de miles de servidores. Replicar eso en el espacio requeriría cientos o miles de satélites.

Luego está la cuestión de la latencia. Para algunas aplicaciones de IA, particularmente aquellas que requieren interacción en tiempo real con los usuarios en la Tierra, la latencia adicional de comunicarse con los satélites en órbita podría ser prohibitiva. Los centros de datos basados en el espacio probablemente serían más adecuados para las cargas de trabajo de entrenamiento de IA a gran escala que no requieren respuestas inmediatas.

El veredicto: audaz, quizás loco, pero no imposible

Entonces, ¿es Project Suncatcher una idea brillante o una fantasía costosa? La respuesta honesta es que es demasiado pronto para decirlo. Los conceptos centrales de la computación de ML basada en el espacio no están excluidos por la física fundamental o las barreras económicas insuperables, según el propio análisis de Google. Pero eso no significa que será fácil o que definitivamente tendrá éxito.

Los desafíos de ingeniería son masivos. La gestión térmica, la confiabilidad del sistema en órbita, las comunicaciones terrestres de alto ancho de banda, todos estos son problemas difíciles sin soluciones probadas. Los costos económicos son inciertos. Los costos de lanzamiento necesitan caer significativamente para que la economía funcione, y aunque la tendencia va en esa dirección, no hay garantía de que los precios caigan tanto como Google necesita.

Pero también hay razones para pensar que podría funcionar. Las pruebas de radiación muestran que el hardware de Google es sorprendentemente resistente. Los enlaces ópticos de espacio libre han sido demostrados a escala de laboratorio. Las constelaciones de satélites como Starlink han mostrado que desplegar grandes números de satélites en formación cercana es factible. Los costos de lanzamiento están cayendo rápidamente gracias a los cohetes reutilizables.

Lo que Project Suncatcher representa, más que cualquier otra cosa, es el reconocimiento de que las demandas de energía de la IA están creciendo tan rápido que incluso ideas aparentemente audaces como los centros de datos espaciales merecen una investigación seria. Si las proyecciones actuales del crecimiento de la IA se sostienen, necesitaremos encontrar nuevas fuentes de energía y nuevas formas de construir la infraestructura de computación. El espacio ofrece energía solar casi ilimitada y sin competencia por los recursos terrestres.

Google está apostando a que con la tecnología correcta y la economía correcta, el espacio podría convertirse en una ubicación viable para la computación de IA a gran escala dentro de una década o dos. Los lanzamientos de prototipos de 2027 proporcionarán los primeros datos del mundo real sobre si esta visión es alcanzable. Hasta entonces, Project Suncatcher permanece como lo que es: un moonshot, una apuesta ambiciosa en un futuro que podría parecer ciencia ficción hoy pero que podría volverse realidad mañana. Con Google, Bezos, Musk y otros apostando en esta dirección, el espacio como la próxima frontera para la computación de IA se está volviendo menos una pregunta de si y más una pregunta de cuándo.

Referencias

9to5Google, "Next Google moonshot puts TPUs in space with Project Suncatcher" - sobre las especificaciones técnicas y la órbita sincronizada (4 de noviembre, 2025).

Semafor, "Google wants to build solar-powered data centers — in space" - sobre la asociación con Planet Labs y el cronograma de 2027 (4 de noviembre, 2025).

WinBuzzer, "Google's Project Suncatcher Aims to Build TPU Powered AI Data Centers in Space" - sobre la órbita dawn-dusk y los enlaces ópticos (4 de noviembre, 2025).

The Register, "Google launches AI hype to the moon with Project Suncatcher" - sobre las pruebas de radiación y los costos de lanzamiento (4 de noviembre, 2025).

OfficeChai, "Google's Project Suncatcher To Send TPUs To Space In Early 2027" - sobre los resultados de las pruebas del Trillium TPU (4 de noviembre, 2025).

Archyde, "Google's Project Suncatcher: AI in Space" - sobre la demanda energética de la IA y las proyecciones de la IEA (4 de noviembre, 2025).

Data Center Dynamics, "Project Suncatcher: Google to launch TPUs into orbit with Planet Labs" - sobre el clúster de 81 satélites y la formación cerrada (4 de noviembre, 2025).

Google Research Blog, "Exploring a space-based, scalable AI infrastructure system design" - documento técnico oficial del proyecto (4 de noviembre, 2025).

Interesting Engineering, "Google plans orbital AI data centers powered directly by sunlight" - sobre la preimpresión técnica y la viabilidad económica (4 de noviembre, 2025).

Slashdot, "Google's Next Moonshot Is Putting TPUs In Space With 'Project Suncatcher'" - sobre los resultados de las pruebas de radiación TID (4 de noviembre, 2025).

Publicaciones Recientes

Generated Image November 04, 2025 - 11_00PM

Cuando hablar bien no significa saber: las fallas médicas de GPT-5 según Nature

  Un nuevo estudio publicado en Nature Medicine revela que aunque GPT-5 muestra avances en la reducción de alucina
Leer Más
Generated Image November 04, 2025 - 9_45PM

El teorema del centauro: un diálogo con GPT-5-Pro en la frontera de las matemáticas

La historia de las matemáticas está poblada de figuras solitarias. La imaginamos como un acto de pura introspección,
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí