UALink 200G 1.0: la interconexión abierta que promete revolucionar la escalabilidad de la inteligencia artificial

La carrera por construir infraestructuras más rápidas, eficientes y abiertas para cargas de trabajo de inteligencia artificial (IA) ha dado un paso clave. El consorcio UALink, que agrupa a más de 85 actores del ecosistema tecnológico —incluidos AMD, Intel, Meta, Microsoft, Google, AWS, Apple y Cisco— ha publicado la especificación UALink 200G 1.0, un nuevo estándar abierto para conectar hasta 1.024 aceleradores o GPUs en una única agrupación computacional.

Pensado específicamente para responder a las crecientes exigencias de los modelos fundacionales, la IA generativa y la inferencia en tiempo real, UALink 200G representa una alternativa abierta y colaborativa al estándar propietario NVLink de NVIDIA. Aporta una solución de alto ancho de banda (200 Gbps por línea), baja latencia y eficiencia energética, lo que permite construir clústeres de IA más escalables y accesibles.

Una solución diseñada para escalar la IA

Según la propia organización, UALink está optimizado para:

  • Conectar hasta 1.024 aceleradores mediante una arquitectura de tipo scale-up, ideal para tareas de entrenamiento e inferencia distribuida.
  • Operar con un modelo determinista de memoria compartida, lo que mejora la coherencia entre nodos y acelera el procesamiento paralelo.
  • Ofrecer una eficiencia de hasta el 93% del ancho de banda teórico, gracias a su protocolo de bajo nivel que combina la velocidad del Ethernet con la latencia de los switches PCIe.

Todo esto con un consumo energético reducido y un menor coste total de propiedad (TCO), dos elementos cada vez más cruciales en los centros de datos de IA, donde las operaciones de entrenamiento de grandes modelos pueden requerir semanas de cálculo continuo.

¿Por qué es relevante para el futuro de la IA?

Las soluciones actuales de interconexión, como NVLink o PCIe, comienzan a mostrar límites ante la necesidad de escalar a cientos o miles de unidades de cómputo trabajando en paralelo. El auge de los LLMs y el uso intensivo de GPUs en la inferencia de modelos multimodales están forzando a la industria a repensar el hardware subyacente.

“UALink es la primera especificación de interconexión con semántica de memoria totalmente abierta y optimizada para cargas de trabajo de IA. No se trata solo de velocidad, sino de eficiencia operativa y escalabilidad real”, afirma Kurtis Bowman, presidente del consorcio UALink.

Además, su diseño abierto y estandarizado busca fomentar un ecosistema de hardware interoperable, permitiendo a múltiples fabricantes desarrollar aceleradores y switches compatibles, lo que puede disminuir la dependencia de proveedores únicos y abrir nuevas vías para la innovación.

Un nuevo campo de juego para centros de datos y entrenadores de modelos

La disponibilidad pública de la especificación UALink 200G 1.0 marca el inicio de una nueva etapa para la infraestructura de IA. Empresas de nube, laboratorios de investigación y startups que entrenan modelos pueden ahora optar por soluciones que no estén atadas a tecnologías cerradas y que permitan una mejor integración de IA a gran escala en entornos heterogéneos.

Con la publicación del estándar, se espera que durante este año comiencen a llegar al mercado las primeras implementaciones comerciales de aceleradores y switches compatibles con UALink.

Para el sector de la inteligencia artificial, que cada vez necesita más rendimiento, interoperabilidad y soberanía tecnológica, UALink representa un paso estratégico hacia un futuro más abierto, eficiente y colaborativo.

Fuente: Noticias cloud

Scroll al inicio