Nvidia acelera la carrera por la memoria HBM4 a 10 Gbps para resistir la ofensiva de AMD

El futuro del hardware de inteligencia artificial se libra en un terreno que hace apenas una década parecía secundario: la memoria. Nvidia, líder indiscutible en aceleradores para IA, está presionando a sus socios tecnológicos para llevar la próxima generación de memoria de alto ancho de banda (HBM4) hasta los 10 Gbps por pin, muy por encima de los 8 Gbps marcados por el estándar oficial de JEDEC.

La compañía busca reforzar su futura plataforma Vera Rubin, prevista para 2026, y mantener así una ventaja estratégica frente a los próximos aceleradores MI450 Helios de AMD. Esta pugna no es solo un asunto de cifras técnicas; también es una cuestión de liderazgo en una industria que mueve miles de millones y que tiene implicaciones geopolíticas de primer orden.


El papel crucial de la memoria HBM

La memoria de alto ancho de banda (HBM, por sus siglas en inglés) es un tipo de DRAM apilada en 3D y conectada a través de un interposer de silicio. Su ventaja frente a memorias tradicionales como GDDR es clara: mayor ancho de banda, menor consumo energético y una integración más eficiente junto a la GPU o CPU.

HBM se ha convertido en la columna vertebral de los sistemas de cálculo más avanzados, desde superordenadores hasta centros de datos de IA. La tendencia actual es clara: cuanto más grandes son los modelos de lenguaje y las simulaciones científicas, más necesidad hay de memoria ultrarrápida y con mayor capacidad.


De HBM1 a HBM4: una década de saltos gigantes

En apenas diez años, HBM ha pasado de ser una innovación experimental a convertirse en un estándar de facto en la computación de alto rendimiento (HPC).

  • HBM1 (2015): debutó con las GPU AMD Fiji, ofreciendo hasta 128 GB/s por pila. Fue la primera vez que se apiló memoria sobre un interposer, reduciendo la latencia y el consumo respecto a GDDR5.
  • HBM2 (2016-2017): duplicó la velocidad y la capacidad, alcanzando 8 GB por pila y hasta 256 GB/s de ancho de banda. Nvidia la utilizó en su Tesla P100 y AMD en sus Radeon Vega.
  • HBM2E (2019-2020): alcanzó los 3,6 Gbps por pin y 460 GB/s por pila, consolidando su papel en centros de datos y supercomputación.
  • HBM3 (2022): introdujo hasta 819 GB/s por pila y capacidades de 24 GB, siendo adoptada en aceleradores de IA de Nvidia y AMD.
  • HBM3E (2023-2024): llegó hasta 1,2 TB/s por pila y 36 GB de capacidad, utilizada en los Nvidia H100 y B200, que hoy lideran los clústeres de IA.
  • HBM4 (2025-2026): el nuevo estándar JEDEC fija 8 Gbps por pin y más de 2 TB/s de ancho de banda por pila, pero Nvidia pretende subir la apuesta a 10 Gbps, con lo que cada GPU podría superar los 15 TB/s en bruto.

Rubin vs Helios: dos caminos hacia el rendimiento extremo

La plataforma Vera Rubin de Nvidia está diseñada para cargas de inferencia y entrenamiento masivo de modelos de IA. En su configuración CPX, se publicita con hasta 1,7 petabytes por segundo de ancho de banda en un rack NVL144 completo. Para alcanzar estas cifras, Nvidia necesita que cada GPU tenga memorias HBM4 a 10 Gbps.

El reto es técnico y económico. Aumentar la velocidad implica mayor consumo, más calor y un estrés adicional en el chip base. TrendForce advierte que Nvidia podría optar por una estrategia dual: versiones premium con HBM4 a 10 Gbps para Rubin CPX, y modelos más económicos con 8 Gbps.

Por su parte, AMD prepara MI450 Helios, basada en arquitectura CDNA 4. Aunque no ha llegado aún al mercado, se sabe que cada GPU soportará hasta 432 GB de HBM4, una cifra que podría darle ventaja en escenarios donde la capacidad es crítica. Además, CDNA 4 incluirá optimizaciones específicas para IA, buscando equilibrar la balanza frente a la apuesta de Nvidia por la velocidad extrema.


El papel de los proveedores: Samsung, SK hynix y Micron

En esta batalla, los fabricantes de memoria son piezas fundamentales.

  • Samsung está migrando su chip base HBM4 a un nodo de 4 nm FinFET, lo que promete mayores frecuencias y menor consumo. Podría darle ventaja en el segmento de alto rendimiento.
  • SK hynix sigue siendo el líder en volumen y uno de los principales proveedores de Nvidia. Su experiencia en HBM3E le permite estar bien posicionada para dar el salto a HBM4.
  • Micron ya ha confirmado muestras de HBM4 con interfaz de 2.048 bits y más de 2 TB/s de ancho de banda, aunque no ha especificado si buscará los 10 Gbps que persigue Nvidia.

Nvidia, consciente de los riesgos de suministro, contempla validaciones más largas y una estrategia de múltiples proveedores para garantizar el éxito de Rubin.


HBM y geopolítica: un recurso estratégico

El dominio de la memoria HBM no es solo un asunto empresarial. Estados Unidos, Corea del Sur y Taiwán concentran casi toda la producción, lo que la convierte en un recurso estratégico en plena rivalidad con China. Controlar el suministro de HBM significa tener ventaja en inteligencia artificial, defensa y economía digital.

No es casualidad que los gobiernos estén incentivando la producción local y los acuerdos de suministro. Cada salto de velocidad o capacidad en HBM4 no solo afecta a Nvidia o AMD, sino también al equilibrio de poder tecnológico global.


Tabla comparativa de las generaciones de memoria HBM

GeneraciónAño aproximadoCapacidad máxima por pilaVelocidad por pinAncho de banda por pila
HBM120151 GB – 4 GB1 GbpsHasta 128 GB/s
HBM22016-2017Hasta 8 GB2 GbpsHasta 256 GB/s
HBM2E2019-2020Hasta 16 GB3,6 GbpsHasta 460 GB/s
HBM32022Hasta 24 GB6,4 GbpsHasta 819 GB/s
HBM3E2023-2024Hasta 36 GB9,2 GbpsHasta 1,2 TB/s
HBM42025-2026Más de 64 GB (previsto)8 Gbps (JEDEC) / 10 Gbps (objetivo Nvidia)Más de 2 TB/s (JEDEC) / 2,56 TB/s (10 Gbps)

Conclusión

El enfrentamiento entre Nvidia y AMD en torno a la memoria HBM4 será uno de los capítulos más relevantes de la próxima generación de hardware. La apuesta de Nvidia por una HBM4 de 10 Gbps busca garantizar que su plataforma Rubin mantenga la delantera en rendimiento bruto. AMD, en cambio, podría encontrar su baza en ofrecer mayor capacidad y eficiencia con MI450 Helios.

En cualquier caso, el salto de HBM4 representa un nuevo umbral tecnológico. La industria se prepara para superar los límites actuales, en un momento en el que cada gigabit adicional y cada terabyte por segundo de ancho de banda pueden decidir el liderazgo en la inteligencia artificial y la supercomputación.


Preguntas frecuentes

¿Qué es HBM y por qué es tan importante en inteligencia artificial?
HBM es un tipo de memoria DRAM apilada en 3D con un ancho de banda muy superior al de memorias tradicionales. Es clave en IA y HPC porque permite mover grandes volúmenes de datos a gran velocidad, reduciendo cuellos de botella.

¿Cuál es la principal novedad de HBM4 frente a HBM3E?
HBM4 dobla la interfaz a 2.048 bits y supera los 2 TB/s por pila. Nvidia busca llevarla a 10 Gbps por pin, lo que elevaría aún más el ancho de banda.

¿Qué ventajas ofrecerá AMD con MI450 Helios frente a Rubin de Nvidia?
AMD apostará por hasta 432 GB de memoria HBM4 por GPU y mejoras arquitectónicas con CDNA 4, buscando atraer a clientes que necesitan más capacidad en lugar de más velocidad.

¿Qué países dominan la producción de HBM?
Corea del Sur (Samsung y SK hynix), Taiwán (a través de su ecosistema de semiconductores) y Estados Unidos (Micron) concentran la producción mundial. Esto convierte a la HBM en un recurso estratégico en la competencia tecnológica global.

vía: Noticias de tecnología

Scroll al inicio