La nueva versión DeepSeek-R1-0528 posiciona al modelo de lenguaje abierto más cerca de los líderes propietarios como GPT-4 y Claude
La compañía de inteligencia artificial DeepSeek ha lanzado una nueva actualización de su modelo de lenguaje R1, bautizada como DeepSeek-R1-0528, que promete mejoras significativas en razonamiento, precisión y rendimiento general. Con este paso, el modelo se consolida entre las mejores opciones open source del mercado, acercándose al nivel de modelos cerrados como GPT-4 de OpenAI o Claude de Anthropic.
Según el anuncio de DeepSeek, el nuevo modelo ha sido afinado para reducir las “alucinaciones”, es decir, respuestas falsas o inventadas, un problema común en los sistemas LLM (modelos de lenguaje de gran escala). Además, se han incorporado mejoras que optimizan el razonamiento lógico, la comprensión contextual y la respuesta ante tareas complejas.
Un modelo de código abierto en ascenso
Lanzado originalmente en 2023, DeepSeek R1 ya figuraba en el top 10 de los modelos de IA según varios rankings independientes de evaluación de LLMs. La versión 0528, fechada el 28 de mayo de 2025, refuerza esta posición con mejores puntuaciones en benchmarks como MMLU, GSM8K y ARC, utilizados para medir capacidades cognitivas, resolución de problemas matemáticos y comprensión científica.
Aunque DeepSeek no ha revelado todos los detalles técnicos del entrenamiento, sí ha confirmado que el modelo ha sido entrenado y ajustado con datos seleccionados para minimizar errores y mejorar la solidez factual, uno de los retos clave de los modelos actuales.
Menos errores, más inteligencia
Uno de los aspectos destacados de esta nueva versión es su capacidad para generar respuestas más fiables en dominios especializados como medicina, derecho y tecnología, donde los modelos abiertos suelen mostrar mayores tasas de error. La reducción de alucinaciones y la mejora de la veracidad de las respuestas convierten al DeepSeek-R1-0528 en una opción viable para su integración en entornos corporativos, educativos y científicos, donde la precisión es crítica.
Además, los desarrolladores subrayan que el modelo mantiene velocidad de inferencia competitiva y que puede ejecutarse eficientemente en entornos locales o en servidores propios, una ventaja frente a los modelos que dependen exclusivamente de APIs en la nube.
Camino hacia una IA abierta más confiable
Con esta actualización, DeepSeek reafirma su apuesta por el desarrollo de inteligencia artificial abierta, segura y altamente competente, en contraste con los modelos de grandes corporaciones que, aunque potentes, funcionan bajo estrictas licencias comerciales y con costos más elevados.
Los responsables de la compañía han señalado que seguirán lanzando versiones iterativas de R1 a lo largo de 2025 y que trabajan en un nuevo modelo de próxima generación, R2, previsto para finales de año. Mientras tanto, el modelo R1-0528 ya está disponible para descarga y pruebas en plataformas como Hugging Face.
Un modelo con proyección internacional
Aunque DeepSeek tiene sede en China, su enfoque abierto y sus estándares de calidad le han permitido ganar presencia internacional. La comunidad de desarrolladores y empresas interesadas en modelos de código abierto ha recibido con entusiasmo la nueva versión, que representa un paso más hacia la democratización del acceso a IA avanzada sin renunciar al rendimiento.
En resumen, DeepSeek-R1-0528 ofrece:
- Mejoras en razonamiento lógico y coherencia contextual
- Reducción significativa de alucinaciones
- Rendimiento competitivo frente a modelos propietarios
- Disponibilidad gratuita bajo licencia abierta
- Optimización para ejecución eficiente en múltiples entornos
Con esta evolución, DeepSeek confirma su ambición de liderar el ecosistema de inteligencia artificial abierta, ofreciendo un modelo potente, versátil y más fiable para todo tipo de usuarios y desarrolladores.
Fuente: notebookcheck