Tachyum ha dado un golpe de efecto en el competitivo tablero de los semiconductores de inteligencia artificial. La compañía con sede en EE. UU. —y presencia en Eslovaquia y Chequia— comunicó la firma de un acuerdo vinculante de financiación Serie C por 220 millones de dólares, que, según la empresa, se abonará en el plazo de un mes por parte de un inversor europeo. En paralelo, ese mismo inversor ha cursado un pedido de compra por 500 millones de dólares de sus chips Prodigy, una arquitectura que Tachyum define como “procesador universal” al unificar en un único silicio capacidades de CPU, GPGPU para HPC y aceleración de IA.
La inyección eleva el total captado por Tachyum a más de 300 millones de dólares a lo largo de tres rondas y, en palabras de la firma, posiciona a la compañía para impulsar su hoja de ruta hacia una salida a bolsa potencial en 2027. La operación llega en pleno auge de los centros de datos para IA, con proyectos de escala sin precedentes y una presión creciente por reducir costes y consumos en el entrenamiento e inferencia de modelos cada vez más grandes.
Qué promete Prodigy y por qué importa
En el corazón del anuncio está Prodigy, el chip que Tachyum defiende como alternativa disruptiva frente al binomio CPU + GPU predominante en los centros de datos de IA. La compañía sostiene que cada chiplet del paquete Prodigy integra 256 núcleos de 64 bits de alto rendimiento y que el conjunto ofrecería hasta 3 veces el rendimiento de los mejores x86 en cargas generales y hasta 6 veces el de las GPGPU de referencia para HPC en escenarios específicos. La propuesta se completa con la promesa de elevar la utilización de los servidores y recortar CAPEX y OPEX al eliminar la necesidad de contar con aceleradores dedicados para cada tipo de carga.
Más allá de las cifras, el enfoque “universal” busca atacar un punto doloroso del data center moderno: la fragmentación. Hoy conviven CPUs de propósito general, GPUs orientadas a IA/HPC y aceleradores especializados. Cada bloque introduce complejidad de integración, software y orquestación, y sufre periodos de infrautilización cuando la carga no encaja. Un chip capaz de ejecutar de forma eficiente IA generativa, HPC y cloud con un único modelo de programación —tal y como plantea Tachyum— sería atractivo para operadores que buscan densidad, simplicidad y previsibilidad de costes.
Un mercado hambriento de gigavatios (y de eficiencia)
El contexto juega a favor del relato de Tachyum. El crecimiento de modelos fundacionales y LLM lleva a los hiperescalares y a gobiernos a proyectar campus de gigavatios, con instalaciones que superan con holgura los 100 MW por emplazamiento y planes plurianuales para alcanzar varios gigavatios de potencia instalada. En paralelo, el sector vive un cuello de botella de suministro y costes: los aceleradores de gama alta marcan precios inéditos, la energía se ha convertido en un factor estratégico de primer orden y el TCO se dispara cuando la utilización real cae por debajo de las expectativas.
Es precisamente en ese punto donde Tachyum sitúa la oportunidad de Prodigy: reducir el coste de entrenar e inferir con modelos ultra grandes —la empresa alude a arquitecturas que van desde 1 billón de parámetros hasta 10 billones o incluso cifras superiores— y hacerlo sin sacrificar precisión ni desempeño en tareas reales. La tesis: si un único tipo de procesador sirve para construir y servir modelos con alta eficiencia, el coste capital y operativo por token, por consulta o por iteración puede bajar a niveles viables para más actores.
La operación financiera: 220 millones en efectivo y un pedido de 500 millones
En lo estrictamente financiero, el acuerdo de 220 millones de dólares en Serie C —que la empresa espera recibir “en el plazo de un mes”— llega acompañado de un pedido en firme de 500 millones para Prodigy. Según Tachyum, el inversor europeo lidera la ronda y ha participado en otras salidas a bolsa recientes en EE. UU. (tanto directas como vía SPAC). La combinación de capital y demanda comprometida ofrece a la compañía el combustible necesario para culminar el tape-out del chip —el hito de diseño que antecede a la fabricación— y empezar la rampa industrial.
La firma asegura que ha seguido actualizando el diseño de Prodigy a la espera de la financiación y que, tras esta ronda, cerrará el proceso de tape-out y comunicará especificaciones y rendimiento actualizados “en un futuro próximo”. Hasta entonces, el mercado deberá manejarse con las guías y promesas disponibles, a la espera de hojas de datos definitivas y pruebas independientes.
Europa en el mapa: IPCEI y carrera por la soberanía de la IA
Tachyum subraya su selección en el programa IPCEI (Importante Proyecto de Interés Común Europeo) vinculado a semiconductores e IA. El objetivo de estos programas es movilizar inversión pública y privada para acelerar proyectos estratégicos que fortalezcan la soberanía tecnológica del continente. En paralelo, la compañía apunta a un impulso de 30.000 millones de euros para centros de datos de IA en Europa durante los próximos dos años, cifras en sintonía con el discurso político y empresarial de la región, donde la capacidad de cómputo y la eficiencia energética se han instalado como prioridades industriales.
Para una empresa que aspira a competir en la élite de la siliconización de la IA, contar con un pie en Europa y otro en EE. UU. abre puertas tanto en fabricación como en adopción: desde alianzas con foundries hasta pruebas de referencia en HPC e IA soberana, pasando por pilotos con operadores de nube privada y administraciones públicas.
Mega-proyectos globales y demanda tractora
El anuncio no oculta el telón de fondo: proyectos de escala centenaria o milmillonaria de dólares en infraestructuras de IA, con campus que suman gigavatios de potencia y despliegues en EE. UU., Oriente Medio y Asia. Ese panorama, unido a la efervescencia de modelos multimodales con billones de parámetros, configura un tirón de demanda para cualquier propuesta que reduzca coste por FLOP, consumo por entrenamiento y tiempo de salida a producción. La ventana de oportunidad es tan grande como competitiva: gigantes consolidados en GPU, CPU y ASICs de IA ya pelean por cada nodo, cada wafer y cada rack.
Lo que se sabe (y lo que falta) del producto
Hoy por hoy, el cuadro público de Prodigy deja certezas y preguntas:
- Arquitectura y posicionamiento. Prodigy se presenta como procesador universal capaz de ejecutar IA/ML, HPC y nube en una arquitectura homogénea.
- Núcleos por chiplet. Cada chiplet integraría 256 núcleos de 64 bits custom orientados a alto rendimiento.
- Promesas de rendimiento. La compañía afirma ×3 sobre x86 tope de gama y ×6 sobre GPGPU líderes en HPC en escenarios concretos.
- Eficiencia y economía. La propuesta asegura mayor utilización de servidor y ahorro de CAPEX/OPEX al evitar hardware especializado adicional.
- Estado del proyecto. Con la Serie C en marcha, Tachyum prevé finalizar el tape-out y comunicar especificaciones actualizadas próximamente.
Quedan por conocer en detalle aspectos críticos para operadores y desarrolladores: nodos de fabricación, frecuencias, TDP, ancho de banda de memoria (incluida la posible integración con HBM), interconexión entre chiplets, modelo de programación y ecosistema software (compiladores, runtimes, bibliotecas de IA, compatibilidad con frameworks y virtualización). También serán determinantes benchmarks verificables en entrenamiento e inferencia, así como en HPC y workloads cloud comunes.
Qué significa para los centros de datos de IA
Si Prodigy cumple las expectativas que la compañía coloca sobre la mesa, el impacto potencial sería notable en varios frentes:
- Consolidación de silicio. Menos tipos de aceleradores por rack, gestión unificada y aprovisionamiento más sencillo.
- Densidad y energía. Mayor rendimiento por vatio y por unidad de espacio traducidos en menor coste por token o por consulta.
- Soberanía y diversificación. Un nuevo actor de alto rendimiento reduce la dependencia de proveedores únicos en la cadena de cómputo para IA.
- Tiempos de despliegue. Si el modelo de programación es maduro, la integración podría agilizar el paso de PILOT a PROD.
El reverso de la moneda es conocido por cualquier CIO o arquitecto de plataformas: sin software maduro y ecosistema amplio —desde drivers hasta bibliotecas optimizadas—, incluso un gran hardware tarda en ganar tracción en producción. Aquí la compañía se juega buena parte del éxito.
Una señal al mercado… y una invitación a la prudencia
En términos de señal, 220 millones en caja y 500 millones en pedidos constituyen un respaldo significativo para una empresa en fase pre-tape-out. Para la industria, confirma que hay capital dispuesto a apostar por arquitecturas alternativas que prometen romper el coste de la IA a gran escala. Para los compradores potenciales, el mensaje razonable es doble: interés real por diversificar más allá de GPU tradicionales y, al mismo tiempo, prudencia hasta ver silicio y software en pruebas comparables.
Como resume el propio consejero delegado, Radoslav Danilak, el objetivo es llevar al mercado un chip “disruptivo” para una batalla de supremacía en IA que se libra en parámetros, latencias, energía y euros por inferencia. Si Prodigy convierte la promesa en realidad, Tachyum pasará de aspirante a contendiente en la primera división del cómputo para IA.
Preguntas frecuentes
¿Qué es Prodigy y por qué se le llama “procesador universal”?
Es el chip de Tachyum que, según la compañía, integra en un solo diseño las funciones de CPU, GPGPU para HPC y acelerador de IA. La meta es ejecutar IA/ML, HPC y workloads cloud con una arquitectura homogénea, mejorando la utilización de los servidores y reduciendo CAPEX/OPEX.
¿En qué punto de desarrollo está Prodigy y cuándo podría llegar al mercado?
Tachyum afirma que, con la Serie C de 220 millones, finalizará el tape-out y comunicará especificaciones y rendimiento actualizados en breve. La empresa habla de una posible OPV en 2027, pero todavía debe completar fabricación, validaciones y construcción del ecosistema software.
¿Qué rendimiento promete frente a x86 y GPU actuales?
La firma asegura hasta ×3 frente a x86 tope de gama en cargas generales y hasta ×6 sobre GPGPU líderes en HPC en determinadas pruebas. Son afirmaciones del fabricante que requerirán verificación independiente cuando haya silicio disponible.
¿Cómo impactaría en un centro de datos de IA real?
Si cumple lo prometido, permitiría consolidar silicio (menos tipos de aceleradores), elevar la densidad y el rendimiento por vatio, y bajar el coste por entrenamiento e inferencia. El éxito práctico dependerá de benchmarks verificables, disponibilidad de software y soporte de los principales frameworks de IA y plataformas cloud.
vía: tachyum