El magnate tecnológico quiere construir su propia infraestructura de IA a gran escala sin depender del cloud público. Pero, ¿puede el mundo fabricar suficientes GPUs para alimentar esa ambición?
La nueva ofensiva de Elon Musk en el terreno de la inteligencia artificial pasa por una inversión colosal en hardware. Según revela The Wall Street Journal, su startup de IA, xAI, está en negociaciones para obtener hasta 12.000 millones de dólares en financiación, con el objetivo de adquirir más unidades de procesamiento gráfico (GPUs) de NVIDIA, concretamente para expandir su supercomputador Colossus.
Este esfuerzo se suma a una ronda previa de financiación en la que xAI habría recaudado aproximadamente 10.000 millones de dólares mediante la venta de acciones y deuda. La operación, liderada por firmas de capital privado como Valor Equity Partners, pone de manifiesto el carácter ambicioso —y acelerado— del proyecto.
Una IA sin dependencia del cloud: la apuesta por infraestructura propia
A diferencia de competidores como OpenAI o Anthropic, que operan en plataformas de terceros como Microsoft Azure o Google Cloud, Elon Musk ha optado por el camino más costoso: construir y operar su propia infraestructura física, desde centros de datos hasta generación energética, pasando por las propias redes de cómputo intensivo basadas en NVIDIA.
Esta decisión estratégica exige inversiones masivas, pero también otorga a xAI control total sobre sus cargas de trabajo de entrenamiento de modelos y evita limitaciones contractuales o de disponibilidad impuestas por proveedores de nube pública.
Colossus: un monstruo de silicio y megavatios
El superordenador Colossus de xAI representa el núcleo de esta infraestructura. Inicialmente diseñado con 100.000 GPUs NVIDIA H100, se ha ampliado rápidamente hasta alcanzar las 200.000 unidades, convirtiéndose en una de las mayores instalaciones de computación de propósito general del planeta. El despliegue ha sido tan vertiginoso como impresionante: la primera fase se completó en 122 días, y la segunda, en apenas 92 días más.
Cada H100 puede consumir hasta 700 vatios, por lo que la instalación completa podría requerir entre 50 y 150 megavatios de energía eléctrica, abastecidos, en parte, por turbinas de gas metano construidas a medida.
El propio CEO de NVIDIA, Jensen Huang, calificó la hazaña como “sobrehumana” y elogió la capacidad de Musk para movilizar recursos y ejecutar proyectos de escala extrema en tiempo récord.
«Elon es único en su comprensión de la ingeniería, la construcción y los sistemas complejos. Lo que ha logrado es simplemente increíble», afirmó Huang.
¿Puede la industria seguir el ritmo?
La pregunta crítica es si la cadena global de suministro de chips puede estar a la altura de semejante apetito. El mercado ya está tensionado por la demanda exponencial de GPUs para IA generativa, con pedidos masivos procedentes de compañías como Meta, Amazon, Google, OpenAI y ahora también xAI.
El hecho de que Musk esté dispuesto a financiarse con deuda para asegurarse nuevas remesas de chips sugiere que la competencia es feroz. Si NVIDIA puede satisfacer esa demanda, se consolidaría aún más como el actor dominante en el ecosistema de aceleradores de IA.
Pero también abre dudas logísticas: ¿habrá suficientes GPUs? ¿Suficiente electricidad? ¿Suficiente capacidad de refrigeración y espacio físico para alojarlas?
Una batalla de titanes en el hardware de IA
Con esta nueva ronda de financiación, xAI no solo busca más potencia de cálculo, sino que se posiciona estratégicamente para el futuro inmediato de la IA generativa, los modelos fundacionales y los agentes inteligentes. La magnitud de su apuesta revela que Musk no está interesado en participar: quiere liderar.
Mientras tanto, la infraestructura energética estadounidense —y global— tendrá que adaptarse. Ya hay alertas sobre la presión que estos supercentros de datos ejercen sobre la red eléctrica, con estimaciones de que solo el sector IA podría duplicar la demanda eléctrica en los próximos años.
Como bromeaba recientemente el expresidente Donald Trump en una cumbre de IA al dirigirse a Jensen Huang: «Vais a necesitar más electricidad que todos los seres humanos en la historia. Vas a tener que explicarme eso algún día.»
Reflexión final
Elon Musk ha dejado claro que su visión no pasa por depender de otros. Pero esa independencia exige algo más que ambición: exige silicio, acero, energía, talento y tiempo. El próximo capítulo de la revolución de la inteligencia artificial no se librará solo en algoritmos, sino en la capacidad de construir el músculo físico que los sustente.
vía: pcgamer