Tendencias Destacadas en Hot Chips: Inferencia, Redes y Innovación en IA Basadas en NVIDIA

En la próxima conferencia Hot Chips, que se llevará a cabo del 24 al 26 de agosto en la Universidad de Stanford, las innovaciones en el razonamiento y la inferencia de la inteligencia artificial (IA) y las redes serán temas prioritarios. Este foro, clave para los arquitectos de procesadores y sistemas de la industria y el ámbito académico, mostrará las últimas novedades que prometen impulsar las fábricas de IA y el lucrativo mercado de los centros de datos.

NVIDIA se unirá a gigantes de la industria como Google y Microsoft en una sesión tutorial el domingo 24, dedicada al diseño de arquitecturas de gran escala para centros de datos. Además, expertos de NVIDIA participarán en cuatro sesiones y un tutorial para detallar cómo sus tecnologías están llevando la inferencia de la IA a un nuevo nivel.

En estas presentaciones, se abordará cómo la tecnología de redes de NVIDIA, incluyendo el ConnectX-8 SuperNIC, facilita el razonamiento a escala de rack y centro de datos. También se destacarán los avances en el renderizado neuronal y las mejoras en inferencia, posibilitadas por la arquitectura Blackwell y la GPU GeForce RTX 5090, que ofrecen capacidades de gráfica y simulación de última generación.

Otro enfoque será el uso de conmutadores ópticos empaquetados que emplean fotónica de silicio para transmitir información más rápidamente y con menos consumo de energía, habilitando fábricas de IA eficientes de alto rendimiento a escala gigavatio. Además, el GB10 Superchip de NVIDIA servirá como motor del superordenador de escritorio DGX Spark, diseñado para maximizar el rendimiento de la IA generativa.

NVIDIA también destacará cómo su plataforma de redes, compuesta por NVLink, NVLink Switch y NVLink Fusion, permite la conectividad ampliada, facilitando el intercambio de datos de baja latencia y gran ancho de banda entre GPUs y componentes computacionales.

La conferencia no solo abordará innovaciones tecnológicas, sino también colaboraciones en proyectos de código abierto para optimizar trabajos de IA, incluyendo bibliotecas como TensorRT-LLM y NCCL, que son utilizadas en millones de flujos de trabajo. Además, NVIDIA ha trabajado junto a proveedores de marcos abiertos para ofrecer optimizaciones de modelos para diferentes plataformas, facilitando a los desarrolladores el uso de microservicios como NIM en modelos populares.

La participación de NVIDIA en Hot Chips subraya su compromiso con el avance de la computación acelerada y la inferencia de IA, proporcionando herramientas esenciales para desarrolladores, investigadores y científicos de datos.
Fuente: Zona de blogs y prensa de Nvidia

Scroll al inicio