Anthropic ha lanzado una de las señales más contundentes del año en la carrera de la inteligencia artificial. La compañía ha anunciado un nuevo acuerdo con Google y Broadcom para asegurarse múltiples gigavatios de capacidad de cómputo basada en TPUs de nueva generación, una infraestructura que empezará a entrar en servicio a partir de 2027 y que servirá para entrenar y operar las próximas generaciones de Claude. Al mismo tiempo, la empresa ha revelado que su run-rate revenue ya supera los 30.000 millones de dólares, frente a unos 9.000 millones al cierre de 2025.
La combinación de ambos anuncios explica por qué el movimiento va más allá de una simple nota corporativa. Por un lado, muestra que la demanda comercial de Claude se ha disparado en muy poco tiempo. Por otro, deja claro que la próxima batalla de la IA no se jugará solo en modelos, algoritmos o benchmarks, sino también en contratos de energía, capacidad de centros de datos y acceso asegurado a chips avanzados.
Anthropic añade otro dato que ayuda a entender el momento que vive la empresa: cuando cerró su ronda Serie G en febrero de 2026 dijo que tenía más de 500 clientes empresariales que gastaban más de 1 millón de dólares al año de forma anualizada. Ahora asegura que esa cifra ya supera los 1.000 clientes, es decir, se ha duplicado en menos de dos meses. Conviene subrayar un matiz importante: el run-rate revenue no equivale a ingresos anuales ya ejecutados, sino a una proyección anualizada a partir del ritmo actual del negocio. Aun así, el salto es lo bastante grande como para reflejar una aceleración comercial muy poco habitual incluso dentro del actual boom de la IA.
La guerra de la IA entra en la era del gigavatio
Durante los dos últimos años, la conversación pública sobre IA se ha centrado sobre todo en modelos, escalado y aplicaciones. Pero en paralelo se ha ido consolidando otra realidad menos vistosa y mucho más decisiva: el cuello de botella está cada vez más en la infraestructura. Entrenar y servir modelos de frontera exige una cantidad creciente de potencia eléctrica, redes de alta velocidad, refrigeración y chips avanzados. En ese contexto, que Anthropic hable ya de “múltiples gigavatios” no es un detalle menor, sino una forma de anticipar la magnitud industrial que está alcanzando esta carrera.
La empresa no ha detallado oficialmente una cifra exacta dentro de su comunicado, pero sí ha explicado que la inmensa mayoría de esa nueva capacidad estará ubicada en Estados Unidos. Además, presenta esta operación como una ampliación importante de su compromiso anunciado en noviembre de 2025 para invertir 50.000 millones de dólares en infraestructura de computación estadounidense. En aquel anuncio, Anthropic ya había comunicado centros de datos construidos con Fluidstack en Texas y Nueva York.
El nuevo acuerdo también encaja con una estrategia de diversificación de hardware que Anthropic lleva tiempo defendiendo. La compañía afirma que entrena y ejecuta Claude sobre AWS Trainium, Google TPUs y GPUs de NVIDIA, con la idea de asignar cada carga al chip más adecuado. Esa mezcla le permite reducir dependencia de una sola plataforma y ganar margen de maniobra en un momento en que la disponibilidad de aceleradores avanzados sigue siendo un factor crítico para todo el sector.
Google gana peso, pero AWS sigue siendo clave
Aunque el titular se lo lleven Google y Broadcom, Anthropic deja claro que Amazon sigue siendo su principal proveedor de nube y su socio principal de entrenamiento. En su comunicado, la empresa insiste en que continuará trabajando estrechamente con AWS en Project Rainier, mientras profundiza al mismo tiempo en su relación con Google Cloud y Broadcom. Más que un giro total de alianza, lo que se aprecia es un refuerzo de una estrategia multicloud y multichip cada vez más agresiva.
Esa posición es especialmente interesante porque Claude se ha ido convirtiendo en uno de los pocos modelos de primer nivel con presencia clara en los tres grandes entornos cloud. Anthropic sostiene que Claude es el único modelo frontier disponible en Amazon Bedrock, Google Cloud Vertex AI y Microsoft Azure Foundry. Más allá del matiz comercial que implica la etiqueta frontier, sí está documentado que los modelos Claude están integrados oficialmente en Bedrock, en Vertex AI y en Microsoft Foundry.
Eso le da a Anthropic una posición singular. Mientras otros actores concentran buena parte de su despliegue en una sola nube o dependen en mayor medida de una sola familia de aceleradores, Anthropic está intentando construir una base más resiliente. En la práctica, eso puede traducirse en más flexibilidad para escalar, ajustar costes, diversificar riesgos y adaptarse a la disponibilidad real de hardware en los próximos años.
No es solo crecimiento: es una apuesta defensiva para 2027
El mensaje más importante del anuncio quizá no esté en la cifra de negocio, sino en el calendario. Anthropic no está firmando solo para resolver una necesidad inmediata de 2026, sino para reservarse capacidad futura a partir de 2027. Ese matiz cambia la lectura: la compañía no quiere limitarse a responder a la demanda actual de Claude, sino blindarse para la siguiente etapa del mercado, cuando el entrenamiento y la inferencia de modelos más capaces exigirán todavía más capacidad y previsibilidad.
Krishna Rao, director financiero de Anthropic, lo resumió como “el mayor compromiso de cómputo” de la compañía hasta la fecha. Dicho de otra manera, Anthropic está intentando asegurarse ahora el combustible industrial que necesitará mañana. En una industria donde el acceso a chips ya es casi una ventaja competitiva por sí misma, esta clase de acuerdos empieza a ser tan estratégica como el propio diseño del modelo.
La consecuencia es evidente: la próxima fase de la IA será mucho más física de lo que a menudo parece desde fuera. Habrá que hablar de modelos, sí, pero también de megavatios, contratos de suministro, racks, redes, refrigeración y construcción de capacidad a años vista. Y en ese tablero, Anthropic acaba de mover ficha con una agresividad que obliga a mirar a Claude no solo como producto, sino como proyecto industrial a gran escala.
Preguntas frecuentes
¿Qué significa que Anthropic tenga un run-rate revenue de 30.000 millones de dólares?
Significa que, si el ritmo actual de ingresos se mantuviera durante doce meses, la proyección anualizada superaría los 30.000 millones de dólares. No equivale a decir que ya haya facturado esa cifra completa en un ejercicio cerrado.
¿Qué ha firmado exactamente Anthropic con Google y Broadcom?
Anthropic ha anunciado un acuerdo para asegurarse múltiples gigavatios de capacidad de TPUs de nueva generación, con despliegue previsto a partir de 2027, para entrenar y servir futuros modelos Claude.
¿Claude está realmente disponible en AWS, Google Cloud y Azure?
Sí. AWS documenta Claude en Amazon Bedrock, Google Cloud lo ofrece en Vertex AI y Microsoft lo ha incorporado a Microsoft Foundry. Anthropic utiliza esa presencia para defender que Claude es el único modelo frontier presente en las tres grandes nubes.
¿Por qué este acuerdo es tan importante para el futuro de la IA?
Porque confirma que la competencia ya no depende solo de tener mejores modelos, sino también de asegurar energía, centros de datos y chips avanzados con años de antelación. El acceso estable a infraestructura se está convirtiendo en una ventaja estratégica de primer orden.
vía: anthropic












