Nvidia, la reconocida empresa tecnológica, ha presentado en la conferencia de computación SC23 su último avance en el ámbito de la supercomputación: la GPU HGX H200 con arquitectura Hopper. Esta innovación, combinada con una CPU Nvidia Grace, da lugar al superchip Grace Hopper GH200, una potencia en rendimiento de IA que alcanza los impresionantes 200 exaflops.
La HGX H200, que se basa en la eficiente arquitectura Hopper, incluye los núcleos NVIDIA H200 Tensor y la avanzada tecnología de memoria HBM3e. Esta configuración está especialmente diseñada para acelerar procesos en inteligencia artificial generativa y en grandes modelos de lenguaje. Con 141GB de memoria y una velocidad de 4,8 TB por segundo, la H200 duplica el ancho de banda de su predecesora, la Nvidia A100.
Un aspecto destacado de la H200 es su capacidad para duplicar la velocidad de inferencia en modelos de lenguaje de gran tamaño, como Llama 2 de Meta, que cuenta con 70.000 millones de parámetros. Además, su tecnología de interconexiones de alta velocidad NVIDIA NVLink y NVSwitch permite avances significativos en las cargas de trabajo de computación de alto rendimiento.
La H200 está dirigida a centros de datos, incluyendo aquellos que operan bajo demanda, en la nube híbrida y en el extremo. Es compatible con infraestructuras de grandes compañías como Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud.
El superchip Grace Hopper GH200 se presenta como una solución integrada diseñada para aplicaciones de HPC e IA a gran escala. Los centros que utilizan GH200 proporcionan un rendimiento de IA de unos 200 exaflops, lo que impulsa significativamente la innovación científica. Este chip ya está en uso en varios centros de supercomputación de renombre mundial, como el Centro de Supercomputación Jülich en Alemania y el Centro Nacional de Aplicaciones de Supercomputación de la Universidad de Illinois Urbana-Champaign en Estados Unidos.
Nvidia también ha anunciado NVIDIA DGX GH200, un superordenador con memoria masiva para IA emergente. Este sistema ofrece 144 terabytes de memoria compartida, proporcionando a los desarrolladores una capacidad de memoria casi 500 veces mayor para construir modelos gigantes. Con un enfoque en la eficiencia energética, el Grace Hopper Superchip elimina la necesidad de una conexión tradicional PCIe CPU-a-GPU, aumentando el ancho de banda y reduciendo significativamente el consumo de energía de la interconexión.
La NVIDIA DGX GH200 representa un hito en la supercomputación, siendo el primer superordenador en superar la barrera de los 100 terabytes de memoria accesible a las GPUs a través de NVLink. Esta innovación es un avance significativo para la comunidad científica que trabaja con modelos de IA de billones de parámetros, ofreciendo una plataforma avanzada para resolver desafíos extraordinarios.