NVIDIA y Google Impulsan su Alianza con los Nuevos Anuncios de Blackwell y Gemini

NVIDIA y Google han fortalecido su relación de larga data con nuevos avances en innovación de inteligencia artificial, enfocándose en la optimización del stack informático. Esta colaboración ha dado lugar a contribuciones significativas en software comunitario como JAX, OpenXLA, MaxText y llm-d, que soportan directamente los modelos de vanguardia de Google, Gemini, y la familia de modelos abiertos Gemma.

Una de las novedades más destacadas es la implementación en producción de NVIDIA Blackwell en Google Cloud. Google Cloud ha sido pionero al ofrecer máquinas virtuales (VMs) A4 y A4X, potenciadas por NVIDIA HGX B200 y NVIDIA GB200 NVL72. Estas VMs cuentan con la innovadora arquitectura de hipercómputo de inteligencia artificial de Google, permitiendo a las organizaciones desplegar aplicaciones de inteligencia artificial a gran escala con servicios como Vertex AI y Google Kubernetes Engine (GKE).

La introducción de estas VMs permite un rendimiento de más de un exaflop por rack y una escalabilidad sin problemas a decenas de miles de GPUs, gracias a la infraestructura de red Jupiter de Google y las avanzadas redes con NVIDIA ConnectX-7 NICs. Además, la infraestructura de refrigeración por líquido de tercera generación de Google garantiza un rendimiento constante y eficiente, incluso para las cargas de trabajo de IA más exigentes.

Google tambien ha anunciado que los modelos Gemini podrán ser implementados en las instalaciones con NVIDIA Blackwell en Google Distributed Cloud. Esta solución gestionada permite la implementación de modelos en entornos aireados, ayudando a sectores con estrictos requerimientos de seguridad y privacidad, como el sector público, la salud y los servicios financieros, a utilizar IA de manera segura.

La colaboración entre NVIDIA y Google también ha optimizado el rendimiento de inferencia para los modelos Gemini y Gemma. Gracias a estas optimizaciones, se pueden manejar grandes volúmenes de consultas de usuarios en la infraestructura acelerada por NVIDIA dentro de Google Cloud. Además, los modelos ligeros Gemma han sido optimizados para la inferencia utilizando la biblioteca NVIDIA TensorRT-LLM, y estarán disponibles como microservicios NVIDIA NIM.

Para apoyar a la comunidad de desarrolladores, ambas empresas han trabajado en mejorar marcos de código abierto como JAX para que se escalen de manera eficiente en GPUs Blackwell. También han lanzado una nueva comunidad de desarrolladores conjunta que fomenta la colaboración e innovación, ayudando a los desarrolladores a construir, escalar y desplegar la próxima generación de aplicaciones de IA con mayor facilidad. Esta colaboración refuerza la posición de liderazgo de NVIDIA y Google en el desarrollo y despliegue de inteligencia artificial avanzada.
Fuente: Zona de blogs y prensa de Nvidia

Scroll al inicio