Groq irrumpe en Europa: el rival silencioso que desafía a NVIDIA en la era de la inferencia de la IA

En el imaginario colectivo, hablar de inteligencia artificial generativa es hablar de potentes supercomputadores, gigantescos centros de datos y, por supuesto, de NVIDIA. Sin embargo, muchas veces se olvida que el ciclo de vida de la IA se divide en dos etapas muy distintas: el entrenamiento y la inferencia. Y es en esta segunda, más cotidiana y menos glamourosa, donde se está librando la próxima gran batalla del silicio.

Entrenar vs. utilizar: dos mundos distintos

Durante el entrenamiento, los modelos aprenden a predecir —token a token— cuál es la mejor continuación de un texto. Este proceso exige una capacidad de cálculo brutal, que se ha convertido en el feudo casi exclusivo de las GPU, especialmente las de NVIDIA. La compañía californiana no solo domina en hardware, sino también en software, gracias a su ecosistema CUDA que ha facilitado el desarrollo masivo de modelos LLM en los últimos años.

Pero la historia cambia radicalmente cuando pasamos a la inferencia, es decir, cuando el modelo ya entrenado comienza a responder a las preguntas de los usuarios. Aquí lo importante ya no es tanto la potencia bruta, sino la eficiencia: baja latencia, estabilidad y consumo energético reducido.

Las LPUs entran en escena

Es en esta etapa donde han aparecido nuevos jugadores con propuestas muy especializadas. Uno de los más prometedores es Groq, una startup estadounidense que ha diseñado desde cero un chip orientado específicamente a la inferencia de modelos de lenguaje. En lugar de competir frontalmente en el costoso mercado del entrenamiento de modelos, Groq se centra en optimizar su uso diario: generar respuestas rápidas y eficientes sin necesidad de grandes infraestructuras.

En lugar de construir centros de datos propios, Groq ha comenzado a desplegar sus chips en instalaciones de terceros, como el centro de datos que acaba de inaugurar en Finlandia junto a Equinix. Con este movimiento, Groq inicia su expansión europea en un momento clave: cuando los grandes proveedores de IA comienzan a replantearse su estrategia de hardware.

Un cambio de paradigma en el mercado de chips

Los números avalan esta transición. Un estudio de McKinsey & Company estima que, a corto plazo, el mercado de hardware para inferencia será el doble de grande que el de entrenamiento en centros de datos, y hasta tres veces superior en dispositivos periféricos (como smartphones o edge devices). Por su parte, Barclays pronostica que, en dos años, los gigantes tecnológicos gastarán más en chips de inferencia que en los de entrenamiento. De cumplirse, este vuelco implicaría una pérdida del 50 % de cuota de mercado para NVIDIA, unos 200.000 millones de dólares que otras compañías, como Groq, están listas para disputar.

La IA cotidiana necesita nuevos actores

Con la expansión de herramientas como ChatGPT, Gemini o Claude, la inferencia ya no es una tarea residual: es la esencia del uso diario de la inteligencia artificial. Los usuarios no necesitan esperar minutos por una respuesta ni pagar fortunas por cada consulta generada. Lo que se busca es inmediatez, eficiencia y escalabilidad. Y ahí, las LPUs podrían convertirse en el nuevo estándar.

¿El principio del fin del monopolio?

Que Groq haya abierto su primer centro de datos en Europa no es casualidad. Es un mensaje directo a un mercado que busca soberanía digital, sostenibilidad energética y alternativas tecnológicas que no dependan exclusivamente de gigantes como NVIDIA. Si la inferencia es el futuro —y todo apunta a que lo será—, entonces el presente acaba de dar un giro inesperado.

El pastel ya no está en entrenar modelos colosales, sino en hacer que funcionen con rapidez, fiabilidad y bajo coste. En ese terreno, el dominio de NVIDIA se resquebraja. Y Groq, silenciosamente, se postula como el gran contendiente de los próximos años.

Scroll al inicio