¿Devstral-Small-2-24B es el nuevo “rey local” del código?

Mistral AI vuelve a sacudir el ecosistema de modelos de lenguaje para desarrolladores con el lanzamiento de Devstral-Small-2-24B-Instruct, una versión “pequeña” en parámetros, pero muy ambiciosa en prestaciones. Su promesa es clara: acercarse al rendimiento de los grandes modelos de código… sin necesidad de un clúster ni de enviar el código fuente a la nube.

Y la pregunta se impone sola: ¿estamos ante el nuevo candidato a “rey local” del coding asistido por IA?


Un modelo pensado para trabajar como un agente, no solo para autocompletar

Devstral no es simplemente otro modelo que completa líneas de código. Está diseñado como un LLM agentic para tareas de ingeniería de software, es decir, preparado para:

  • Explorar y comprender grandes bases de código.
  • Editar múltiples ficheros de forma coherente.
  • Integrarse con herramientas externas y flujos tipo “software engineering agent”.

En benchmarks como SWE-bench Verified, uno de los más exigentes para medir la capacidad de aplicar cambios reales en repositorios de código, Devstral Small 2 alcanza un 68 %, situándose en la misma liga que gigantes cerrados como GLM 4.6 o Qwen 3 Coder Plus, pese a ser mucho más ligero.


24.000 millones de parámetros… que caben en tu GPU

Uno de los grandes atractivos de Devstral-Small-2 está en su relación potencia-requisitos:

  • 24B parámetros en FP8, afinado para instruct y chat.
  • Diseñado para correr en una sola RTX 4090 o en un Mac con 32 GB de RAM.
  • Ventana de contexto de 256k tokens, suficiente para tragarse monolitos, microservicios y documentación entera sin pestañear.

Esto lo coloca en una zona muy interesante:
lo bastante grande como para razonar sobre proyectos complejos, pero aún desplegable on-premise o en un portátil potente, sin depender siempre de servicios externos.

Para equipos preocupados por confidencialidad del código, cumplimiento normativo o simple coste de API, es un argumento clave.


Licencia Apache 2.0: pista libre para empresas

Otro punto a favor: Devstral-Small-2 se publica bajo licencia Apache 2.0, una de las más amigables para uso corporativo:

  • Uso comercial permitido.
  • Posibilidad de modificar y adaptar el modelo a dominios específicos.
  • Sin necesidad de liberar cambios internos, siempre que se respeten los términos de la licencia.

Mistral invita explícitamente a empresas que necesiten más contexto, conocimiento de dominio o capacidades especiales a contactar con ellos, lo que sugiere que veremos variantes afinadas para sectores concretos.


Salto respecto a la generación anterior

Comparado con la primera generación Devstral Small 1.x, la nueva versión trae varias mejoras importantes:

  • Capacidades de visión: puede analizar imágenes (por ejemplo, capturas de pantalla, diagramas o mocks de UI) además de texto.
  • Mejor rendimiento general y en benchmarks de ingeniería.
  • Arquitectura actualizada con rope-scaling al estilo Llama 4 y un softmax de atención escalable, lo que mejora estabilidad y calidad en contextos muy largos.
  • Mejor generalización a distintos entornos de desarrollo y tipos de prompt.

En la práctica, esto significa que Devstral-Small-2 no solo “sabe programar”, sino que está optimizado para tareas de agente, donde hay que leer, decidir, llamar herramientas y modificar varias partes de un proyecto de forma consistente.


Integración: de la terminal a tus propios agentes

Mistral acompaña el modelo con Mistral Vibe, una CLI pensada para usar Devstral directamente desde el terminal del desarrollador:

  • Instalación vía uv, script curl o pip.
  • Configuración simple con ~/.vibe/config.toml y .env.
  • Integración directa en el root del proyecto: basta con ejecutar vibe.

Además, Devstral-Small-2 se puede usar con scaffoldings ya conocidos:

  • Cline, Kilo Code, Claude Code, OpenHands, SWE Agent, etc.
  • Soporte recomendado para vLLM y transformers.
  • Integraciones en llama.cpp, Ollama y LM Studio en camino (aunque Mistral advierte que las implementaciones actuales pueden no ser del todo precisas y recomienda probarlas con conjuntos de prompts de validación).

Para entornos de devops, sysadmin y equipos de plataforma, esto abre la puerta a:

  • Agentes que lean playbooks, scripts de automatización y Terraform/Ansible/Kubernetes completos.
  • Asistentes que generen o refactoricen pipelines CI/CD o scripts de mantenimiento.
  • Bots internos que respondan dudas sobre infra y código… sin salir de la red corporativa.

¿Cómo se compara con los gigantes de la IA?

En la tabla de benchmarks que acompaña al modelo se ve el contexto real:

  • Modelos masivos como DeepSeek v3.2, Kimi K2 Thinking, Claude Sonnet 4.5 o GPT 5.1 Codex siguen liderando en rendimiento bruto, sobre todo en Terminal Bench y tareas complejas.
  • Sin embargo, la mayoría de esos modelos son cerrados y remotos, con costes por token y dependencia total de un proveedor.

Devstral-Small-2 juega otra liga:
no pretende destronar a los modelos flagship en la nube, sino ofrecer un equilibrio muy competitivo entre calidad, coste y soberanía del entorno.

Para muchos equipos de desarrollo, esa combinación puede pesar más que arañar unos puntos extra en un benchmark.


¿Nuevo rey local del código?

¿Es Devstral-Small-2 el nuevo “local coding king”?
Depende de qué se entienda por “rey”:

  • Si se busca máximo rendimiento absoluto, los modelos cerrados top-tier siguen por delante.
  • Si la prioridad es ejecutar localmente, mantener el código en casa, pagar una sola vez el hardware y trabajar con una licencia abierta, Devstral-Small-2 tiene una candidatura muy seria.

Con 24B parámetros, 256k de contexto, visión, licencia Apache 2.0 y orientación clara a agentes de software, Mistral coloca sobre la mesa un modelo que muchos equipos de ingeniería querrán probar al menos una vez.

La coronación, como siempre, la decidirán los desarrolladores: los que lo integren en sus flujos diarios y comprueben si de verdad les ayuda a entregar código mejor y más rápido… sin sacrificar el control sobre su propia infraestructura.

Fuente: Devstral Small 2 24B Instruct 2512

Scroll al inicio