DeepSeek revienta el tablero: un modelo abierto de ~680.000 millones de parámetros que desafía a GPT-5 y Gemini 3 Pro
La guerra de la inteligencia artificial de última generación acaba de subir otro peldaño. La china DeepSeek ha publicado en Hugging Face los pesos de DeepSeek-V3.2-Speciale, un modelo Mixture-of-Experts con del orden de cientos de miles de millones de parámetros (alrededor de 6,7×10¹¹) y licencia MIT, lo que lo convierte, de facto, en uno de los modelos abiertos más potentes




