Meta Expande su Silicio Personalizado para Potenciar sus Cargas de Trabajo en IA

En el dinámico panorama de la inteligencia artificial de 2023, Meta ha dado un paso significativo con el desarrollo de su acelerador personalizado para entrenamiento e inferencia, conocido como MTIA (Meta Training and Inference Accelerator). Esta familia de chips de silicio, creada para optimizar las cargas de trabajo de inteligencia artificial de la empresa, promete revolucionar su infraestructura tecnológica en un tiempo récord.

La compañía tiene previsto desarrollar y desplegar cuatro nuevas generaciones de chips en los próximos dos años, un ritmo mucho más acelerado que los ciclos típicos en la industria. Estos avances pretenden mejorar procesos como la clasificación, las recomendaciones y las cargas de trabajo de la inteligencia artificial generativa (GenAI), a medida que las demandas de sus actuales operaciones de inteligencia artificial continúan aumentando y evolucionando.

La estrategia de Meta se centra en un enfoque diversificado, combinando el uso de su propio silicio personalizado MTIA con el abastecimiento de tecnologías de diversos líderes del sector. Esto se realiza con el objetivo de escalar la capacidad de su infraestructura mientras se mantiene la centralidad del MTIA en su estrategia de inteligencia artificial.

En la actualidad, Meta ha desplegado cientos de miles de chips MTIA para cargas de trabajo de inferencia que abarcan contenidos orgánicos y publicidad en sus aplicaciones. Estos chips, diseñados para satisfacer las exigencias específicas de sus operaciones, forman parte de una solución personalizada de pila completa que maximiza la eficiencia computacional y reduce los costos en comparación con los chips de uso general.

En cuanto al desarrollo futuro, Meta trabaja en cuatro generaciones de chips que prometen avances significativos en computación, ancho de banda de memoria y eficiencia. Mientras que el chip MTIA 300 ya se utiliza en producción para el entrenamiento en clasificación y recomendaciones, las generaciones MTIA 400, 450 y 500 atenderán principalmente a la producción de inferencia GenAI, mirando hacia el futuro próximo y hasta 2027.

La modularidad del silicio permite que estos nuevos chips se integren fácilmente en los sistemas de rack existentes, acelerando el tiempo de producción. Además, para mantener una ventaja competitiva, Meta implementa un enfoque de desarrollo rápido e iterativo, lanzamiento cada seis meses o menos, lo cual le permite adaptarse rápidamente a las evoluciones tecnológicas y del mercado, reduciendo los costos de desarrollo e implementación.

A diferencia de otros chips en el mercado, que se enfocan en tareas de preentrenamiento GenAI de gran escala, la serie MTIA 450 y 500 ha sido optimizada inicialmente para la inferencia GenAI. Este enfoque permite que los chips también soporten otras funciones como el entrenamiento e inferencia en clasificación y recomendaciones, asegurando su utilidad frente al crecimiento esperado en la demanda de inferencia GenAI.

Construido sobre ecosistemas estándares de software y hardware de la industria, como PyTorch y el Proyecto Open Compute (OCP), el desarrollo de MTIA facilita su adopción sin fricciones. La compatibilidad de sus sistemas y soluciones de rack con los estándares OCP asegura una integración sin esfuerzo en los centros de datos de Meta.

Por último, la variedad de chips desarrollados es un testamento de la convicción de Meta de que no existe un solo chip capaz de satisfacer todas las necesidades. Por ello, avanzan con una variedad de chips optimizados para diferentes cargas de trabajo, un enfoque que promete llevar a la empresa al liderazgo en innovación, acercándola a su ambición de crear una superinteligencia personal accesible para todos.
Fuente: Zona de prensa de Meta.

Scroll al inicio