NVIDIA Blackwell NVL72 dispara los modelos Mixture of Experts con 10x más rendimiento
La nueva generación de modelos de inteligencia artificial ya tiene una arquitectura clara favorita: Mixture of Experts (MoE). Y NVIDIA acaba de mover ficha para convertirla en algo realmente utilizable a gran escala. Su sistema GB200 Blackwell NVL72, un “rack” completo de GPUs que funciona como si fuera una sola unidad lógica, promete hasta 10 veces más rendimiento para estos




