Hace poco más de un año, DeepSeek dejó una idea incómoda sobre la mesa: competir en inteligencia artificial no era solo cuestión de “tener más GPUs”, sino de abaratar y democratizar el acceso a modelos potentes, incluso bajo un escenario de restricciones tecnológicas. Aquella sacudida —con un chatbot que presumía de costes y precios muy por debajo de los líderes estadounidenses— disparó una carrera distinta: menos obsesionada con el brillo mediático y más centrada en velocidad de iteración, eficiencia y despliegue.
A comienzos de 2026, el mapa se parece menos a una liga con dos o tres favoritos y más a un pelotón donde cada semana hay novedades. El patrón se repite: nuevas versiones, ajustes finos, variantes especializadas y un enfoque que combina open source (o “pesos abiertos”), precios bajos y una integración agresiva con productos ya masivos. En paralelo, el debate sobre la eficacia de los controles de exportación se vuelve más complejo: la presión existe, pero el ritmo de publicación de modelos en China sigue aumentando.
Del “modelo estrella” al modelo como producto continuo
La lógica emergente es la del software moderno: lanzar pronto, medir, corregir… y volver a lanzar. En lugar de esperar un gran hito anual, varias firmas chinas parecen empujar hacia un ciclo de mejoras más corto, con dos metas claras:
- Capturar usuarios con precios o acceso más asequible.
- Encajar la IA en ecosistemas existentes (apps, comercio electrónico, productividad, cloud), incluso si eso significa priorizar utilidad real frente a titulares sobre benchmarks.
Esta estrategia resulta especialmente visible fuera de los mercados más saturados. En países en desarrollo, el atractivo de herramientas que funcionan “bien” y cuestan menos puede pesar más que la última métrica de laboratorio. En esa línea, un reportaje de Associated Press recogía cómo la propuesta de DeepSeek estaba encontrando tracción en lugares donde el precio, la disponibilidad y la capacidad de adaptación importan tanto como el rendimiento puro.
Moonshot apuesta por agentes y “trabajo en equipo” dentro del modelo
Entre los movimientos recientes destaca Moonshot AI con el lanzamiento de una nueva iteración de su familia Kimi. En su comunicación técnica, la compañía subraya una idea clave: el futuro inmediato no es solo “responder bien”, sino hacer cosas. Eso implica agentes capaces de planificar, dividir tareas, usar herramientas y mantener contexto.
En el caso de Kimi K2.5, la firma describe una arquitectura orientada a tareas agénticas con swarm inference: el sistema puede activar hasta 100 subagentes, coordinar llamadas a herramientas y ejecutar flujos largos (hablan de escenarios con más de 1.500 invocaciones de herramientas en una misma tarea). También mencionan el salto de escala en entrenamiento —15 billones de tokens— y mejoras de eficiencia frente a versiones previas.
Dicho de otra forma: si el chatbot “clásico” era conversación, la siguiente fase aspira a ser ejecución. Y eso encaja con lo que muchas empresas piden: menos demos y más automatización real (desde análisis y reporting hasta tareas operativas y de desarrollo).
Alibaba y la presión por convertir la IA en plataforma
En paralelo, Alibaba sigue empujando su familia Qwen como parte de una estrategia que mezcla investigación, producto y posicionamiento cloud. En los últimos trimestres, el grupo ha insistido en ampliar capacidades multimodales y de razonamiento, y en facilitar el uso de modelos dentro de su ecosistema de servicios.
La compañía ya venía mostrando la dirección con versiones como Qwen3-Max-Preview, presentadas como modelos pensados para tareas generales a gran escala y para integrarse en flujos empresariales. En la práctica, el objetivo es claro: no basta con un “buen modelo”; hay que convertirlo en plataforma (API, herramientas, integraciones, despliegue, costes), porque ahí es donde se gana la adopción sostenida.
La referencia inevitable: OpenAI y el efecto “precio/eficiencia”
La aceleración china se entiende también por contraste. OpenAI y sus rivales estadounidenses compiten en la frontera del rendimiento, pero el golpe reputacional de DeepSeek puso el foco en otro indicador: cuánto cuesta servir cada respuesta y qué margen hay para abaratar sin perder demasiado.
En una entrevista citada por The Wall Street Journal, Sam Altman llegó a describir el modelo R1 de DeepSeek como “impresionante”, al tiempo que surgían comparaciones sobre precios y costes de entrenamiento. Ese debate —más allá de si todas las cifras publicadas son comparables— alimenta una presión competitiva: si el mercado percibe que “se puede hacer más con menos”, la conversación deja de ser solo tecnológica y pasa a ser económica.
Un tablero con más jugadores… y más urgencia
Además de los grandes nombres, la carrera incluye a actores que están reforzando su papel en IA, como Baidu y ByteDance, en un contexto donde las decisiones sobre licencias, apertura del código y costes de acceso pueden alterar la adopción más rápido que cualquier benchmark.
La lectura de fondo es sencilla: el mercado entra en una fase donde la cadencia importa casi tanto como el salto de calidad. Y donde muchas compañías prefieren ganar cuota con modelos suficientemente buenos, baratos y fáciles de integrar, antes que perseguir una única “corona” de rendimiento.
Preguntas frecuentes
¿Por qué las empresas chinas publican modelos de IA tan rápido en 2026?
Porque compiten por adopción: iterar rápido permite mejorar producto, reducir costes y captar usuarios antes de que el mercado se consolide.
¿Qué significa que un modelo sea “agéntico”?
Que no solo conversa: puede planificar tareas, usar herramientas (búsqueda, código, APIs), ejecutar pasos encadenados y devolver resultados operativos.
¿El enfoque “open source” en IA cambia realmente el mercado?
Puede acelerar la adopción, sobre todo si permite ajustar el modelo a necesidades locales, abaratar el despliegue y reducir dependencia de un único proveedor.
¿Qué papel juegan los costes (precio por uso) frente a los benchmarks?
En muchos casos, el coste total y la facilidad de integración pesan más que ganar una prueba concreta: para una empresa, “funciona y encaja en mi stack” suele mandar.



