Anthropic dispara la capacidad de Claude con un acuerdo de cómputo con SpaceX

Anthropic ha anunciado un acuerdo con SpaceX que le dará acceso a toda la capacidad de cómputo del centro de datos Colossus 1, una instalación que la compañía cifra en más de 300 megavatios y más de 220.000 GPU NVIDIA disponibles en el plazo de un mes. El movimiento llega acompañado de una subida inmediata de los límites de uso de Claude Code y de la API de Claude Opus, una señal clara de que la guerra de la Inteligencia Artificial ya no se libra solo en los modelos, sino también en quién consigue suficiente infraestructura para ejecutarlos a escala.

La noticia tiene una lectura muy práctica para usuarios avanzados, desarrolladores y empresas: Anthropic quiere que Claude pueda usarse durante más tiempo, con menos restricciones y con más capacidad para cargas intensivas. En un mercado donde los modelos agénticos, las herramientas de programación y los asistentes empresariales consumen cada vez más tokens, disponer de cómputo suficiente se ha convertido en una ventaja competitiva tan importante como lanzar un modelo más potente.

Más límites para Claude Code y Claude Opus

Anthropic ha aplicado tres cambios desde el mismo día del anuncio. El primero es que duplica los límites de uso de Claude Code en ventanas de cinco horas para los planes Pro, Max, Team y Enterprise por asiento. El segundo elimina la reducción de límites en horas punta para Claude Code en las cuentas Pro y Max. El tercero aumenta de forma notable los límites de la API para los modelos Claude Opus.

Los nuevos límites muestran el salto. En el Tier 1, los tokens máximos de entrada por minuto pasan de 30.000 a 500.000, mientras que los de salida suben de 8.000 a 80.000. En el Tier 2, la entrada pasa de 450.000 a 2 millones de tokens por minuto y la salida de 90.000 a 200.000. En el Tier 3, el límite de entrada sube de 800.000 a 5 millones y el de salida de 160.000 a 400.000. En el Tier 4, el techo alcanza 10 millones de tokens de entrada por minuto y 800.000 de salida, frente a los 2 millones y 400.000 anteriores.

Este tipo de cambios importa mucho más de lo que parece. Un desarrollador que usa Claude Code durante varias horas, una empresa que automatiza análisis documental o un equipo que ejecuta agentes sobre repositorios, bases de conocimiento y herramientas internas puede chocar rápidamente con límites de uso. Cuando la IA se usa de forma ocasional, esos topes son molestos. Cuando forma parte del flujo diario de trabajo, se convierten en un cuello de botella.

La eliminación de restricciones en horas punta también revela una tensión habitual en los servicios de IA. Muchos proveedores han tenido que limitar modelos avanzados cuando la demanda supera la capacidad disponible. Anthropic intenta reducir esa fricción con más GPU y más acuerdos de infraestructura. La mejora en límites no es solo una decisión comercial; depende de tener máquinas, energía, red y operación suficientes.

SpaceX entra en la cadena de suministro de la IA

El acuerdo con SpaceX resulta especialmente llamativo por el perfil del socio. Anthropic afirma que usará toda la capacidad de Colossus 1, con más de 300 megavatios y más de 220.000 GPU NVIDIA. Esa capacidad se destinará a mejorar directamente la experiencia de los suscriptores Claude Pro y Claude Max.

SpaceX aparece así como un nuevo actor en la infraestructura de IA, no solo como compañía espacial o de conectividad satelital. La relación puede tener otra derivada: Anthropic asegura que también ha expresado interés en colaborar con SpaceX para desarrollar varios gigavatios de capacidad de cómputo orbital para IA. La idea suena todavía lejana y conviene tratarla con prudencia, pero refleja hasta qué punto los grandes laboratorios empiezan a mirar más allá del centro de datos terrestre tradicional.

La capacidad de cómputo se ha convertido en una de las limitaciones más duras para las empresas de modelos. Entrenar y servir modelos avanzados exige GPU, chips propios, energía, refrigeración, centros de datos, enlaces de red y acuerdos a largo plazo. La competencia ya no es solo por talento investigador o datos, sino por megavatios.

Anthropic no depende de un único proveedor. La compañía recuerda que entrena y ejecuta Claude sobre distintas plataformas, entre ellas AWS Trainium, Google TPUs y GPU NVIDIA. Esta diversificación tiene sentido: reduce dependencia, permite aprovechar distintas arquitecturas y da más margen en un mercado donde cada tipo de acelerador tiene disponibilidad, coste y rendimiento diferentes.

Una carrera de gigavatios

El acuerdo con SpaceX se suma a una lista de compromisos muy grandes. Anthropic menciona un acuerdo de hasta 5 gigavatios con Amazon, que incluye casi 1 gigavatio de nueva capacidad para finales de 2026; otro acuerdo de 5 gigavatios con Google y Broadcom, que empezará a entrar en servicio en 2027; una asociación estratégica con Microsoft y NVIDIA que incluye 30.000 millones de dólares de capacidad en Azure; y una inversión de 50.000 millones de dólares en infraestructura estadounidense de IA junto a Fluidstack.

Estas cifras ayudan a entender la escala del momento. Hace pocos años, hablar de centros de datos de decenas o cientos de megavatios ya parecía una apuesta enorme. Ahora los grandes laboratorios negocian gigavatios. La IA generativa y los agentes no solo consumen más cómputo al entrenarse; también multiplican el consumo durante la inferencia, especialmente cuando los usuarios lanzan tareas largas, código, análisis de documentos, flujos multiagente y llamadas a herramientas.

La consecuencia es doble. Por un lado, los usuarios reciben mejores límites, menos esperas y modelos más disponibles. Por otro, la industria aumenta su presión sobre energía, chips, agua, suelo, redes eléctricas y permisos. Anthropic intenta anticipar parte de esa preocupación y afirma que se ha comprometido a cubrir cualquier aumento en el precio de la electricidad de los consumidores causado por sus centros de datos en Estados Unidos. También estudia extender ese compromiso a otros países donde despliegue infraestructura.

Este punto será cada vez más importante. La aceptación social de los centros de datos de IA no está garantizada. Muchas comunidades empiezan a preguntar quién paga la ampliación de red, quién asume el consumo eléctrico, qué impacto tiene la refrigeración y qué beneficios locales genera una instalación. Las empresas de IA tendrán que responder con algo más que promesas de innovación.

Infraestructura regional para empresas reguladas

Anthropic también señala que parte de su expansión será internacional. Sus clientes empresariales, especialmente en sectores regulados como servicios financieros, sanidad y administraciones públicas, necesitan infraestructura dentro de su región para cumplir requisitos de residencia de datos y cumplimiento normativo. La colaboración reciente con Amazon incluye inferencia adicional en Asia y Europa.

Este detalle es clave para el mercado empresarial. Muchas organizaciones no pueden enviar ciertos datos a cualquier región ni depender de una infraestructura sin garantías jurídicas claras. Si Claude quiere crecer en banca, salud, gobierno o grandes empresas europeas, necesita capacidad local, controles de datos y acuerdos compatibles con marcos regulatorios exigentes.

Anthropic afirma que será selectiva con los países donde añada capacidad, priorizando democracias con marcos legales y regulatorios capaces de sostener inversiones de esta escala y con cadenas de suministro seguras para hardware, red e instalaciones. Es una formulación política, pero también comercial: la infraestructura de IA se está convirtiendo en un activo estratégico y geográfico.

La subida de límites de Claude es la parte visible para el usuario. El acuerdo con SpaceX y el resto de compromisos de cómputo son la parte que explica por qué esa mejora es posible. En la próxima etapa de la Inteligencia Artificial, el modelo que mejor razone no será suficiente si no puede atender la demanda sin restricciones constantes. Anthropic está comprando tiempo, capacidad y margen para competir.

La pregunta ahora es cuánto durará esa ventaja. La demanda de agentes, programación asistida, análisis empresarial y automatización crece muy rápido. Los límites que hoy parecen amplios pueden volver a quedarse cortos si millones de usuarios y miles de empresas integran Claude en su trabajo diario. En la IA actual, cada mejora de capacidad tiende a generar nuevos usos que consumen todavía más capacidad.

Preguntas frecuentes

¿Qué ha anunciado Anthropic con SpaceX?
Anthropic ha firmado un acuerdo para usar toda la capacidad del centro de datos Colossus 1 de SpaceX, con más de 300 megavatios y más de 220.000 GPU NVIDIA disponibles en el plazo de un mes.

¿Qué cambia para Claude Code?
Anthropic duplica los límites de uso de Claude Code en ventanas de cinco horas para planes Pro, Max, Team y Enterprise por asiento, y elimina la reducción de límites en horas punta para Pro y Max.

¿Qué mejoras hay en la API de Claude Opus?
Los límites de tokens por minuto aumentan de forma notable. En el Tier 4, por ejemplo, el límite de entrada pasa de 2 millones a 10 millones de tokens por minuto y el de salida sube de 400.000 a 800.000.

¿Por qué Anthropic necesita tanta capacidad de cómputo?
Porque los modelos avanzados, Claude Code, la inferencia empresarial y los agentes consumen cada vez más GPU, energía y tokens. La disponibilidad de cómputo se ha convertido en una condición básica para competir en IA.

vía: anthropic

Scroll al inicio