En un hito importante para la computación en la nube, CoreWeave ha anunciado la disponibilidad de los sistemas NVIDIA GB200 NVL72 a gran escala para sus clientes, lo que la convierte en una de las primeras compañías en ofrecer esta tecnología avanzada. Empresas de vanguardia en inteligencia artificial como Cohere, IBM y Mistral AI ya están utilizando estos sistemas para entrenar y desplegar modelos y aplicaciones de IA de última generación.
CoreWeave, reconocida como la primera proveedora de servicios en la nube en poner a disposición general la tecnología NVIDIA Grace Blackwell, ha mostrado resultados excepcionales en las pruebas de referencia MLPerf con la plataforma NVIDIA GB200 NVL72. Esta potente plataforma acelerada para el cómputo en rack está diseñada para el razonamiento y los agentes de IA, y ahora, los clientes de CoreWeave tienen acceso a miles de GPUs NVIDIA Blackwell. Mike Intrator, CEO de CoreWeave, explicó que «trabajamos en estrecha colaboración con NVIDIA para ofrecer a los clientes las soluciones más recientes y poderosas para el entrenamiento de modelos de IA y el servicio de inferencias».
El despliegue de estas capacidades permitirá a los centros de datos en la nube transformarse en fábricas de inteligencia a gran escala, convirtiendo datos crudos en insights en tiempo real con velocidad, precisión y eficiencia. Las empresas líderes en IA están utilizando las capacidades del GB200 NVL72 para sus aplicaciones de IA, modelos avanzados y desarrollo de nuevas técnicas.
Cohere está aprovechando las capacidades de las Superchips Grace Blackwell para desarrollar aplicaciones de IA empresarial seguras y personalizadas. La plataforma North de Cohere permite a los equipos construir agentes de IA personalizados para automatizar flujos de trabajo empresariales y obtener insights en tiempo real. Según Autumn Moulder, vicepresidenta de ingeniería en Cohere, «con acceso a algunos de los primeros sistemas NVIDIA GB200 NVL72 en la nube, estamos encantados de ver cómo nuestros trabajos se adaptan fácilmente a la arquitectura NVIDIA Grace Blackwell».
Por su parte, IBM está utilizando estos sistemas para entrenar sus modelos Granite de nueva generación. Estos modelos, preparados para el entorno empresarial y de código abierto, ofrecen un rendimiento excelente mientras maximizan la seguridad, velocidad y eficiencia de costos. Según Sriram Raghavan, vicepresidente de IA en IBM Research, «esta colaboración con CoreWeave aumentará las capacidades de IBM para construir modelos avanzados y eficientes en costos capaces de potenciar aplicaciones de IA empresarial y agentes de IA».
Mistral AI, basada en París y líder en el desarrollo de modelos de IA de código abierto, también está beneficiándose de la infraestructura de CoreWeave equipada con GB200 NVL72. Thimothee Lacroix, cofundador y director de tecnología en Mistral AI, comentó sobre las nuevas posibilidades que esta tecnología ofrece para el desarrollo de modelos e inferencias.
CoreWeave continúa ampliando su capacidad y ahora ofrece instancias con rack-scale NVIDIA NVLink a través de 72 GPUs Blackwell y CPUs Grace, con la posibilidad de escalar hasta 110,000 GPUs con tecnología NVIDIA Quantum-2 InfiniBand. Estas instancias proporcionan la escala y rendimiento necesarios para construir y desplegar la próxima generación de modelos de razonamiento e inteligencia artificial.
Fuente: Zona de blogs y prensa de Nvidia