
NVIDIA redefine la inferencia en IA: grandes clústeres, redes de alta velocidad y silicio fotónico para un futuro a escala masiva
La compañía apuesta por infraestructuras centralizadas para modelos de razonamiento, desdibujando los límites entre entrenamiento e inferencia, y optimizando el consumo energético mediante óptica co-integrada La industria del entrenamiento de modelos de IA ha seguido un patrón claro: agrupar tantas GPUs como sea posible, interconectarlas con redes ultrarrápidas y alimentar esos sistemas con cantidades masivas de datos. Pero con la