En un mundo donde la inteligencia artificial (IA) cobra cada vez más importancia, la demanda de almacenamiento de datos eficiente y escalable ha crecido exponencialmente. Se estima que para el año 2028 las empresas generarán cerca de 400 zettabytes de datos anualmente, en su mayoría datos no estructurados como audios, videos, imágenes y más. Este aumento en la producción de información está impulsando a la industria de la IA a buscar nuevas soluciones de almacenamiento que puedan manejar esta carga masiva de forma efectiva.
En este contexto, ha emergido una solución innovadora: el RDMA para almacenamiento compatible con S3. Esta tecnología utiliza el acceso remoto directo a memoria (RDMA) para acelerar el protocolo de almacenamiento basado en la API S3, optimizándolo específicamente para facilitar el procesamiento de datos y cargas de trabajo de IA.
Tradicionalmente, el almacenamiento de objetos se ha utilizado como una opción económica para aplicaciones que no requieren un rendimiento muy alto, como archivos, copias de seguridad y registros de actividad. No obstante, en el acelerado mundo de la inteligencia artificial, los clientes demandan cada vez más rendimiento. Al incorporar tecnología de networking de NVIDIA, el RDMA para almacenamiento compatible con S3 promete un almacenamiento de objetos más rápido y eficiente gracias a la transmisión de datos mediante RDMA.
Para los usuarios, esta innovación significa un mayor rendimiento por terabyte de almacenamiento, un menor coste por watt, y latencias significativamente inferiores en comparación con el protocolo TCP, usado tradicionalmente para el transporte de datos. Además de un coste reducido, las ventajas incluyen la portabilidad de cargas de trabajo, aceleración del almacenamiento, y una menor utilización del CPU, lo que permite destinar este recurso a entregar valor IA a los clientes.
NVIDIA ha desarrollado bibliotecas de cliente y servidor RDMA que permiten integrar estas capacidades en soluciones de almacenamiento existentes, facilitando la transferencia de datos de forma más rápida y aumentando la eficiencia en las cargas de IA. Estas bibliotecas para clientes pueden ejecutarse en nodos de computación de GPU de IA, permitiendo acceder a los datos de almacenamiento de objetos a velocidades mucho mayores que con el acceso TCP tradicional, mejorando así el rendimiento de las cargas de trabajo de IA y la utilización de la GPU.
La arquitectura del sistema es de código abierto, lo que significa que tanto otros proveedores como clientes pueden contribuir a las bibliotecas de cliente o desarrollar su propio software que soporte las APIs de RDMA para almacenamiento S3 compatible.
NVIDIA está colaborando con diversos socios para estandarizar esta tecnología. Empresas claves del almacenamiento de objetos como Cloudian, Dell Technologies y HPE han comenzado a incorporar bibliotecas RDMA para S3 en sus productos de almacenamiento de alto rendimiento, ampliando así el alcance y la adopción de esta tecnología.
Esta iniciativa no solo busca mejorar la eficiencia sino también impulsar la reducción de costes en proyectos de IA, promoviendo la aprobación e implementación más rápida de estos. Las bibliotecas RDMA para almacenamiento compatible con S3 ya están disponibles para socios seleccionados y se espera que estén disponibles de forma general a través del NVIDIA CUDA Toolkit en enero próximo. Esta acción es parte del programa NVIDIA-Certified Storage, que busca certificar y estandarizar soluciones de almacenamiento empresarial.
La llegada del RDMA para almacenamiento compatible con S3 representa un paso significativo hacia el futuro de la gestión de datos a gran escala y asequible, imprescindible para cubrir las crecientes necesidades de la industria de la inteligencia artificial.
Fuente: Zona de blogs y prensa de Nvidia




