DeepSeek ha dado un golpe sobre la mesa en el competitivo mundo de la inteligencia artificial con el lanzamiento de su nuevo modelo DeepSeek V3.1, un sistema que representa un salto sustancial respecto a su antecesor, DeepSeek V3. Con un planteamiento híbrido inédito hasta ahora, esta versión combina rapidez en respuestas sencillas con razonamiento profundo para tareas complejas, reforzando además su compromiso con el código abierto.
La compañía, que ya había ganado notoriedad con V3, busca ahora posicionarse como alternativa real frente a gigantes como Google, Microsoft, Anthropic u OpenAI. Y lo hace con una propuesta sólida: más velocidad, más capacidad de contexto, agentes más eficaces y, sobre todo, la posibilidad de adaptarse a distintos tipos de uso con un mismo modelo.
Una evolución esperada, pero con sorpresa
Durante meses se había especulado con la actualización natural de la plataforma. Sin embargo, la presentación de DeepSeek V3.1 no solo confirmó lo previsto, sino que introdujo un concepto novedoso dentro de la familia: la inferencia híbrida.
Este avance permite que el modelo alterne entre dos modos diferenciados:
- Modo Non-Think: pensado para ofrecer respuestas rápidas y directas, sin razonamientos largos ni multietapas. Ideal para conversaciones cotidianas, consultas rápidas o generación de textos sencillos.
- Modo Think: diseñado para abordar problemas complejos, con un razonamiento detallado, por pasos, y mayor capacidad de análisis.
De este modo, la IA no se limita a un estilo único de interacción, sino que puede adaptarse dinámicamente a la naturaleza de la tarea, algo especialmente útil en entornos profesionales y de investigación.
Según la propia compañía, esta flexibilidad convierte a V3.1 en “un modelo versátil, capaz de ajustarse tanto a tareas simples como a problemas que requieren mayor elaboración”.
Más rápida y con mejor entrenamiento
Una de las mejoras más destacadas de V3.1 es la velocidad de razonamiento. El nuevo modelo ha demostrado superar en rapidez a la versión R1-0528, incluso en procesos complejos, reduciendo notablemente los tiempos de espera.
Esto ha sido posible gracias a una ampliación en su entrenamiento:
- Tokens de entrenamiento: pasa de los 500.000 millones de V3 a 840.000 millones de tokens en V3.1.
- Contexto: se duplica, de 64K tokens a 128K tokens, lo que permite trabajar con textos mucho más largos sin perder coherencia ni precisión.
- Parámetros: mantiene los 671.000 millones, de los cuales se activan 37.000 millones por token, lo que asegura consistencia y potencia de cálculo.
En la práctica, esto significa que V3.1 puede manejar desde conversaciones extensas hasta análisis de grandes volúmenes de datos, proyectos de programación complejos o la redacción de informes largos sin fragmentar el contenido.
Mejor integración con herramientas y agentes más eficaces
Otra de las grandes apuestas de DeepSeek con V3.1 es el refuerzo de las capacidades como agente de IA. El modelo no solo responde mejor, sino que actúa con mayor eficacia al interactuar con herramientas externas.
Las pruebas de referencia, como SWE y Terminal-Bench, han mostrado un rendimiento superior en comparación con versiones anteriores. Esto se traduce en un mejor razonamiento por pasos y en la capacidad de ejecutar tareas multietapa con mayor precisión.
Para el usuario, esto significa que la IA puede:
- Planificar mejor procesos largos.
- Usar herramientas de forma más inteligente.
- Resolver problemas de programación o búsqueda compleja en menos pasos.
Cambios en la API y compatibilidad ampliada
DeepSeek también ha actualizado su API, manteniendo la filosofía de dividir entre dos endpoints según la necesidad:
- deepseek-chat: optimizado para el modo Non-Think, respuestas rápidas.
- deepseek-reasoner: orientado al modo Think, razonamiento detallado.
Como novedad, la API es ahora compatible con el formato de Anthropic, lo que facilita la integración en entornos donde ya se utilizan modelos de esta compañía. Además, incorpora un sistema de function calling estricto en fase beta, pensado para mejorar la interacción con aplicaciones y sistemas externos.
Filosofía de apertura: pesos disponibles en Hugging Face
Fiel a su línea de transparencia, DeepSeek mantiene disponibles los pesos del modelo en Hugging Face, tanto en su versión base como en la completa. Esto permite a desarrolladores e investigadores experimentar directamente con el modelo, ajustarlo a sus necesidades o incluso entrenarlo con datos propios.
Este compromiso con el código abierto es uno de los grandes diferenciadores frente a competidores como OpenAI o Anthropic, que apuestan por modelos más cerrados.
Subida de precios a partir de septiembre
No todo son buenas noticias. DeepSeek ha anunciado que, a partir del 5 de septiembre de 2025, entrarán en vigor nuevos precios para su API.
- Input API (cache hit): 0,07 $ por millón de tokens.
- Input API (cache miss): 0,56 $ por millón de tokens.
- Output API: 1,68 $ por millón de tokens.
Hasta esa fecha, se mantienen las tarifas anteriores, que incluían descuentos en horas de menor demanda.
Aunque la subida ha generado cierta preocupación entre desarrolladores independientes, la compañía defiende que el nuevo esquema refleja el salto de calidad y eficiencia del modelo.
Comparativa entre DeepSeek V3 y V3.1
Característica | DeepSeek V3 (2024) | DeepSeek V3.1 (2025) |
---|---|---|
Parámetros | 671B (37B activados/token) | 671B (37B activados/token) |
Entrenamiento | Hasta 500B tokens | Hasta 840B tokens |
Contexto | 64K tokens | 128K tokens (doble) |
Modos de inferencia | Un solo modo (Non-Think) | Inferencia híbrida: Think y Non-Think |
Velocidad de razonamiento | Correcta pero más lenta en casos complejos | Mucho más rápida que R1-0528 |
Agentes y herramientas | Uso básico de funciones | Mejor integración, razonamiento por pasos |
Benchmarks | Buen rendimiento general | Mejores resultados en SWE y Terminal-Bench |
API | deepseek-chat | deepseek-chat + deepseek-reasoner |
Disponibilidad | Open source (Hugging Face) | Open source (Hugging Face, actualizada) |
Precios | Tarifas iniciales más bajas | Subida de precios en septiembre 2025 |
Desafío a los gigantes de la IA
Con V3.1, DeepSeek no solo busca corregir las limitaciones de su versión anterior, sino también presentar una alternativa real frente a las grandes tecnológicas.
- Google y Microsoft cuentan con una ventaja en infraestructura y ecosistemas de integración.
- OpenAI mantiene el liderazgo en popularidad y despliegue comercial.
- Anthropic ha ganado tracción con su enfoque de seguridad y explicabilidad.
DeepSeek, sin embargo, apuesta por un modelo más abierto, flexible y con precios aún competitivos, dirigido tanto a desarrolladores como a empresas que buscan independencia tecnológica.
Un futuro de agentes inteligentes
Más allá de la velocidad o el contexto, la gran apuesta de DeepSeek con V3.1 es la preparación para la era de los agentes autónomos. Modelos capaces de no solo responder preguntas, sino de ejecutar tareas complejas en nombre del usuario, interactuando con aplicaciones, APIs y otros sistemas.
Con las mejoras introducidas, la compañía busca posicionarse como líder en este segmento emergente, que muchos consideran la próxima gran ola de la inteligencia artificial.
Preguntas frecuentes (FAQ)
1. ¿Qué es la inferencia híbrida de DeepSeek V3.1?
Es la capacidad del modelo para alternar entre un modo rápido (Non-Think) y un modo profundo (Think), lo que le permite adaptarse tanto a tareas simples como a problemas complejos.
2. ¿Cuál es la principal mejora respecto a DeepSeek V3?
V3.1 duplica el contexto hasta 128K tokens, amplía el entrenamiento a 840.000 millones de tokens y mejora la velocidad de razonamiento en comparación con modelos anteriores.
3. ¿DeepSeek V3.1 es de código abierto?
Sí. Los pesos del modelo están disponibles en Hugging Face, lo que permite a investigadores y empresas experimentar y personalizarlo libremente.
4. ¿Cuánto costará usar la API de DeepSeek V3.1?
A partir del 5 de septiembre de 2025, el input costará 0,07 $ por millón de tokens (cache hit), 0,56 $ (cache miss) y el output 1,68 $ por millón de tokens.