Microsoft Azure ha anunciado hoy su nueva serie NDv6 GB300 de máquinas virtuales, destacando con un cluster de producción a escala de supercomputadora con sistemas NVIDIA GB300 NVL72. Este desarrollo, pensado especialmente para las exigentes cargas de trabajo de inferencia de IA de OpenAI, marca un hito en la industria.
El cluster, compuesto por más de 4,600 GPUs NVIDIA Blackwell Ultra, está conectado a través de la plataforma de redes NVIDIA Quantum-X800 InfiniBand. Gracias a un enfoque sistémico innovador, Microsoft ha mejorado radicalmente la memoria y el networking para lograr la escala masiva de computación necesaria para el alto rendimiento en inferencia y entrenamiento de modelos de IA avanzada.
Este logro es fruto de años de colaboración entre NVIDIA y Microsoft en la construcción de infraestructura de IA a medida para los desafíos más grandes del sector. “Entregar el primer cluster de producción NVIDIA GB300 NVL72 a escala para IA de frontera es un logro que refleja nuestro compromiso conjunto para optimizar cada parte del centro de datos de IA moderno”, señaló Nidhi Chappell, vicepresidente corporativo de Microsoft Azure AI Infrastructure.
En el corazón de la nueva serie de máquinas virtuales, se encuentra el sistema rack-scale NVIDIA GB300 NVL72, enfriado por líquido. Cada rack integra 72 GPUs Blackwell Ultra y 36 CPUs NVIDIA Grace, ofreciendo 37 terabytes de memoria rápida y 1.44 exaflops de rendimiento FP4 Tensor Core por VM. Este sistema es crucial para modelos complejos de IA como los de razonamiento y sistemas agénticos de IA multimodal generativa.
La plataforma NVIDIA Blackwell Ultra se destaca tanto en entrenamiento como en inferencia. En recientes pruebas de referencia MLPerf Inference v5.1, los sistemas NVIDIA GB300 NVL72 lograron un rendimiento récord utilizando NVFP4, alcanzando hasta 5 veces más rendimiento por GPU en comparación con la arquitectura NVIDIA Hopper.
Para conectar más de 4,600 GPUs en una supercomputadora unificada, el cluster de Microsoft Azure utiliza una arquitectura de red NVIDIA de dos niveles. Dentro de cada rack, la tecnología NVIDIA NVLink Switch proporciona 130 TB/s de ancho de banda directo, convirtiendo todo el rack en un acelerador unificado con una memoria compartida. Para la escala más allá del rack, se emplea la plataforma NVIDIA Quantum-X800 InfiniBand, que ofrece 800 Gb/s de ancho de banda por GPU.
El avance en la entrega del primer cluster de producción NVIDIA GB300 NVL72 a esta escala representa un gran paso hacia el futuro de la IA. Microsoft está reimaginando cada capa de su centro de datos, estableciendo las bases para futuras innovaciones y desbloqueando nuevos potenciales con la colaboración de clientes como OpenAI.
Fuente: Zona de blogs y prensa de Nvidia