En los últimos días se ha viralizado un relato explosivo: SpaceX saldrá a bolsa en 2.026 con una valoración descomunal, levantará decenas de miles de millones y, con ese dinero, desplegará “data centers en el espacio” para ganar la carrera de la Inteligencia Artificial resolviendo el gran cuello de botella: la energía.
Es un hilo perfecto para redes: mezcla cifras enormes, un enemigo común (la falta de electricidad), un héroe con cohetes reutilizables y una promesa “de ciencia ficción” que suena inevitable. El problema es que, cuando se analiza con criterio técnico, la historia se parece más a un cóctel de hipótesis y exageraciones que a un plan realista a corto plazo.
1) El punto de partida: la energía sí es el gran dolor de cabeza de la IA
Aquí la viralidad no se lo inventa del todo. La IA a gran escala consume muchísimo. No solo por las GPUs/NPUs, también por:
- refrigeración (cada vez más compleja),
- redes internas,
- redundancias eléctricas,
- y la necesidad de desplegar rápido.
Por eso estamos viendo inversiones masivas en centros de datos y una carrera por asegurar potencia, subestaciones, transformadores y acuerdos energéticos. Es un problema real: la IA se está convirtiendo en un tema de infraestructura, no solo de software.
2) IPO de SpaceX en 2.026: posible, pero “confirmado” es otra cosa
Decir que está “confirmada” una salida a bolsa en 2.026 es, como mínimo, discutible. En el mundo financiero, “confirmado” significa hechos públicos, documentos, procesos regulatorios claros y comunicación oficial.
Lo que existe en el debate público son indicios, conversaciones con inversores, especulación informada y apuestas de calendario. Eso puede terminar en IPO… o puede retrasarse, fragmentarse, cambiar de forma (por ejemplo, con Starlink) o no ocurrir cuando se espera.
Si un hilo arranca con un “confirmado” sin aportar un anuncio formal, conviene poner el freno.
3) La promesa estrella: “data centers en el espacio” para saltarse la red eléctrica
La idea de hacer cómputo en órbita existe como concepto: procesar datos cerca de donde se generan (satélites de observación), reducir latencia en ciertos casos, o aprovechar energía solar en órbita para cargas concretas.
Pero venderlo como sustituto de los centros de datos terrestres para entrenar y servir IA a escala masiva… es otra liga. Y aquí aparecen los problemas de verdad.
El gran enemigo invisible: el calor
En la Tierra, el desafío es refrigerar con aire y agua. En el espacio, el desafío es que no tienes “aire” que te ayude: la disipación de calor es principalmente por radiación. Eso implica radiadores grandes, superficies enormes, diseño térmico extremadamente cuidadoso y, sobre todo, masa.
Cómputo = calor. Mucho cómputo = muchísimo calor. Si no puedes expulsarlo, tu “centro de datos orbital” se convierte en una estufa cara flotando.
El segundo cuello de botella: mover datos
Entrenar modelos o servir sistemas IA útiles requiere mover cantidades enormes de datos. La mayor parte de esos datos están en la Tierra (empresas, usuarios, repositorios, logs, multimedia, etc.). Subirlos y bajarlos de órbita no es gratis, ni en latencia, ni en coste, ni en complejidad.
Incluso con enlaces láser entre satélites, la conexión con Tierra sigue siendo una restricción.
El tercero: fiabilidad, radiación y mantenimiento
El hardware en órbita se degrada. La radiación complica la electrónica, el mantenimiento es caro, las actualizaciones de hardware no son como cambiar un rack, y la vida útil se convierte en una variable crítica.
Esto no significa que sea imposible. Significa que no es “la solución rápida” que algunos posts venden.
4) El “número mágico” que delata el humo: cientos de gigavatios al año
Los hilos virales suelen meter cifras gigantes (“300 a 500 gigavatios al año en satélites”). Este tipo de números fallan en cuanto haces una comprobación simple:
- Un gigavatio es potencia de nivel “central eléctrica grande”.
- Cientos de gigavatios equivalen a escalas industriales y logísticas descomunales.
- Para poner esa potencia útil en órbita necesitas masa, área, radiadores, electrónica, redundancia, control térmico, enlaces… y lanzarlo.
Cuando una afirmación implica desplegar cada año el equivalente a “varios países” de potencia eléctrica en satélites, la carga de la prueba debería ser altísima. Si no hay plan público detallado, es propaganda o fantasía.
5) Entonces, ¿por qué esta narrativa funciona tan bien?
Porque junta tres verdades parciales:
- La IA está chocando con límites físicos (energía, refrigeración, red).
- SpaceX tiene una capacidad de lanzamiento y una cultura de ejecución fuera de lo común.
- La idea de “computación fuera de la Tierra” es seductora y no suena imposible en el largo plazo.
El problema es el salto lógico: convertir esas verdades parciales en “en 2.026 empieza el despliegue que dominará la IA mundial”. Eso ya es otra cosa.
6) Qué escenario sí es plausible (sin caer en ciencia ficción)
Si quieres un marco realista para un medio de IA, aquí van tres escenarios más razonables que “centros de datos orbitales para todo”:
- Edge AI en satélites: inferencia específica en órbita para observación, defensa, meteorología o comunicaciones, donde procesar arriba reduce ancho de banda y acelera decisiones.
- Infraestructura híbrida: centros de datos en tierra para entrenamiento y servicio general, y cómputo espacial para casos muy concretos de alto valor.
- Energía y refrigeración como innovación terrestre: más eficiencia de modelos (mejor inferencia), aceleradores especializados, refrigeración líquida/por inmersión, y red eléctrica reforzada. Esto es lo que está ocurriendo de forma tangible hoy.
7) Conclusión para no perderse: lo real y lo viral
- Real: la IA está tensionando energía e infraestructura como nunca.
- Real: SpaceX y el ecosistema espacial pueden jugar un papel en conectividad y edge compute.
- Viral/exagerado: que “la solución” sea poner data centers masivos en órbita en el corto plazo para reemplazar la potencia terrestre.
- Sospechoso: cifras descomunales sin respaldo público verificable.
Si hay una lección clara para la comunidad de IA es esta: en 2.025–2.026 la carrera no la gana quien tenga el mejor modelo en un paper, sino quien resuelva mejor la tríada cómputo + energía + operación. Y eso, por ahora, sigue ocurriendo principalmente en la Tierra.
Preguntas frecuentes
¿Puede una empresa usar satélites para ejecutar IA?
Sí, especialmente para inferencia y procesamiento en el borde (edge) en casos donde los datos nacen en el espacio o donde bajar todo a tierra sería ineficiente.
¿Tiene sentido entrenar grandes modelos en órbita?
A día de hoy, parece poco probable como estrategia general por disipación térmica, costes, mantenimiento y transferencia de datos.
¿Por qué los hilos insisten en “energía ilimitada” en el espacio?
Porque suena intuitivo (“sol constante”), pero omiten el detalle clave: convertir energía en cómputo genera calor y el calor es difícil de expulsar en órbita.
¿Qué debería vigilarse en 2.026 para saber si hay algo serio?
Anuncios técnicos concretos: demostraciones de hardware, capacidad térmica, enlaces, planes de despliegue medibles, y casos de uso reales más allá del marketing.



