Anthropic mira a Fractile para abaratar la inferencia de Claude

Anthropic estaría explorando una nueva vía para aliviar uno de los grandes problemas de la Inteligencia Artificial generativa: el coste de ejecutar modelos a gran escala. La compañía, responsable de Claude, habría mantenido conversaciones preliminares con Fractile, una startup británica especializada en chips de inferencia, para comprar sus futuros aceleradores cuando estén disponibles, según publicó The Information y recogieron varios medios tecnológicos.

La operación, todavía no confirmada por las compañías, no debe leerse como una sustitución inmediata de Nvidia, Amazon o Google. Fractile aún no tiene un producto comercial en el mercado y sus chips no se esperan hasta alrededor de 2027. Pero el interés de Anthropic encaja con una tendencia clara: los laboratorios de IA ya no buscan solo más potencia para entrenar modelos, sino hardware más eficiente para servir millones de respuestas cada día con menor coste por token.

La inferencia se convierte en el nuevo cuello de botella

Durante la primera fase de la IA generativa, la atención se centró en el entrenamiento. Los grandes modelos necesitaban enormes clústeres de GPU para aprender a partir de volúmenes gigantescos de datos. Esa carrera sigue viva, pero el negocio diario depende cada vez más de la inferencia: cada vez que un usuario pregunta algo a Claude, ChatGPT, Gemini o cualquier otro asistente, el modelo debe ejecutar cálculos para generar la respuesta.

Cuando el uso crece, la inferencia se convierte en una factura constante. No es una inversión puntual para entrenar un modelo, sino un coste operativo que aumenta con cada cliente, cada integración empresarial, cada agente de código y cada aplicación que llama al modelo en segundo plano. Ahí es donde el hardware especializado empieza a ser tan importante como el propio modelo.

Anthropic ya ha diversificado mucho su infraestructura. La compañía trabaja con Amazon desde 2023 y usa Trainium2 en Project Rainier, uno de los mayores clústeres de cómputo de IA anunciados por AWS. En abril de 2026, Anthropic y Amazon ampliaron su colaboración para asegurar hasta 5 GW de capacidad basada en generaciones actuales y futuras de Trainium.

También ha reforzado su relación con Google y Broadcom. Anthropic anunció en abril un acuerdo para acceder a múltiples gigavatios de capacidad TPU de próxima generación a partir de 2027, mientras Broadcom confirmó acuerdos de largo plazo para desarrollar chips de IA de Google hasta 2031.

En ese contexto, Fractile sería una pieza adicional, no el centro de la estrategia. Anthropic parece estar construyendo una cartera de opciones: GPU de Nvidia, Trainium de Amazon, TPU de Google y, si la tecnología madura, aceleradores más especializados para inferencia.

Qué propone Fractile y por qué interesa

Fractile es una startup con sede en Londres fundada en 2022 por Walter Goodwin, doctor por la Universidad de Oxford. La empresa salió del modo discreto en 2024 con una ronda semilla de 15 millones de dólares liderada por Kindred Capital, el NATO Innovation Fund y Oxford Science Enterprises, con participación de otros inversores.

Su propuesta técnica gira alrededor de una idea conocida, pero difícil de ejecutar: acercar memoria y cálculo para reducir el movimiento de datos. En los sistemas actuales, una parte importante del coste y la latencia de la inferencia procede de mover información entre el procesador y la memoria externa. Fractile plantea una arquitectura más centrada en SRAM y en el cálculo cerca de la memoria, con el objetivo de reducir ese peaje.

En su web, la compañía afirma que sus sistemas podrán ejecutar modelos frontera hasta 25 veces más rápido y a una décima parte del coste. Es una promesa ambiciosa y debe tomarse como objetivo de producto, no como rendimiento probado en producción pública.

La diferencia con una GPU convencional es importante. Nvidia domina porque ofrece hardware potente, memoria de alto ancho de banda, redes, bibliotecas, compiladores y un ecosistema maduro. Fractile, como otras startups de chips de IA, intenta atacar un problema más específico: hacer que la inferencia de modelos grandes sea más barata y eficiente.

ProveedorTipo de hardwarePapel en la estrategia de Anthropic
NvidiaGPU para entrenamiento e inferenciaHardware dominante del mercado de IA
Amazon AWSTrainium y Trainium2Capacidad cloud a gran escala para Claude
Google/BroadcomTPUs de nueva generaciónAcuerdos multigigavatio desde 2027
FractileChips especializados de inferenciaPosible vía futura para reducir coste por token

Una apuesta con mucho riesgo tecnológico

El atractivo de Fractile es evidente, pero el riesgo también. Diseñar un chip de IA competitivo no es solo crear una arquitectura brillante. Hace falta fabricar silicio, validar rendimiento real, construir una pila de software, integrarse con frameworks, asegurar suministro, convencer a clientes y demostrar fiabilidad en centros de datos. Muchas startups de semiconductores han prometido romper el dominio de Nvidia y después han sufrido con la ejecución comercial.

El caso de Fractile es todavía temprano. Según la información disponible, sus chips no estarían listos comercialmente hasta 2027. Eso sitúa cualquier posible despliegue de Anthropic en una ventana de medio plazo, no en una respuesta inmediata a la presión actual de cómputo.

También hay que tener en cuenta el software. La ventaja de Nvidia no se explica solo por sus GPU. CUDA, cuDNN, TensorRT, NCCL y el ecosistema de herramientas han creado una capa de dependencia técnica muy difícil de replicar. Un acelerador de inferencia puede ser atractivo si reduce coste, pero debe integrarse sin demasiada fricción en los flujos reales de despliegue de modelos.

Aun así, el interés de Anthropic tiene lógica. Si una parte creciente de la demanda viene de inferencia, cada mejora en coste por token, latencia y consumo energético puede tener impacto directo en márgenes. Para un laboratorio que vende modelos por API y productos empresariales, bajar el coste de servir respuestas es tan importante como entrenar el siguiente modelo.

La carrera ya no va solo de entrenar modelos más grandes

La conversación sobre chips de IA está cambiando. Durante años, el debate se resumía en quién podía comprar más GPU para entrenar modelos más grandes. Ahora empieza a dividirse en varios frentes: entrenamiento, inferencia de baja latencia, agentes de larga duración, memoria, redes, energía y capacidad de centro de datos.

La inferencia tiene además una característica especial: es muy sensible al coste. Un modelo puede ser excelente, pero si cada respuesta resulta demasiado cara, el negocio se resiente. Esto explica por qué Google empuja sus TPU, Amazon acelera Trainium, Microsoft trabaja con Maia, Meta desarrolla sus propios aceleradores y startups como Fractile intentan entrar por el hueco de la eficiencia.

Para Europa, el caso tiene otra lectura. Fractile representa una de las pocas startups europeas con ambición de competir en hardware avanzado para IA. El continente ha tenido talento en semiconductores, pero pocas compañías capaces de disputar la capa de aceleradores de centros de datos. Si Anthropic acaba comprando chips de Fractile, aunque sea en cantidades limitadas, sería una señal positiva para el ecosistema europeo de hardware.

Pero no conviene exagerar. La escala de Nvidia, Google, Amazon o Broadcom es enorme. Fractile tendría que demostrar no solo que su arquitectura funciona, sino que puede fabricarla con rendimiento suficiente, soporte industrial y una hoja de ruta creíble. En IA, una buena idea de chip no basta si no llega a tiempo y si el software no acompaña.

Anthropic, por su parte, parece estar evitando una dependencia excesiva de un único proveedor. Esa estrategia reduce riesgo, mejora capacidad de negociación y permite adaptar cargas distintas a hardware distinto. El entrenamiento de frontera, la inferencia masiva, las tareas empresariales y los agentes de código no tienen siempre las mismas necesidades.

Si las conversaciones con Fractile prosperan, el acuerdo no será importante solo por el volumen inicial de chips. Lo será porque confirmaría que los grandes laboratorios de IA están buscando arquitecturas más especializadas para hacer sostenible la siguiente etapa del mercado. El desafío ya no es únicamente construir modelos más capaces. Es poder servirlos a millones de usuarios sin que el coste de cómputo se coma el negocio.

Preguntas frecuentes

¿Anthropic va a comprar Fractile?
No. Las informaciones hablan de conversaciones para comprar chips de inferencia de Fractile, no de adquirir la compañía. Además, serían conversaciones preliminares.

¿Qué hace especial a Fractile?
Fractile diseña chips de inferencia que buscan acercar memoria y cálculo para reducir la latencia y el coste de ejecutar modelos grandes. La empresa afirma que su tecnología puede ser mucho más rápida y barata que el hardware actual, aunque aún debe demostrarlo en producción.

¿Por qué Anthropic necesita más chips?
Claude tiene una demanda creciente y la inferencia consume mucha capacidad de cómputo. Cada respuesta generada por el modelo tiene un coste, así que Anthropic necesita más capacidad y mejor eficiencia.

¿Esto amenaza a Nvidia?
A corto plazo, no. Nvidia mantiene una posición muy fuerte por hardware, software y ecosistema. Pero el interés por Fractile muestra que los grandes clientes quieren alternativas especializadas para reducir costes en inferencia.

Scroll al inicio