En apenas dos años, los modelos pequeños de inteligencia artificial diseñados para tareas concretas superarán ampliamente a los modelos de lenguaje de propósito general. Así lo predice Gartner, que estima que en 2027 el uso de estos modelos especializados será al menos tres veces mayor en el entorno empresarial. El motivo: la necesidad de precisión contextual, eficiencia y menor coste operativo.
Mientras que los grandes modelos de lenguaje (LLMs) han revolucionado la interacción con la IA gracias a sus capacidades lingüísticas generalistas, su rendimiento cae cuando se les exige exactitud en tareas específicas, especialmente aquellas que requieren conocimiento de dominio o contexto sectorial.
Eficiencia, precisión y nuevos modelos de negocio
“Los modelos de IA más pequeños y específicos ofrecen respuestas más rápidas y requieren menos potencia de cómputo, lo que reduce costes de mantenimiento y operación”, explica Sumit Agarwal, vicepresidente y analista de Gartner. Estas ventajas han empezado a pesar más en los planes de digitalización de las organizaciones, que ya valoran más la adaptabilidad que la versatilidad genérica.
Los modelos pequeños pueden desarrollarse a partir de LLMs existentes mediante técnicas como la recuperación aumentada (RAG) o el ajuste fino (fine-tuning), aplicando datos empresariales propios. En este escenario, los datos privados se convierten en activos estratégicos, lo que exige un esfuerzo paralelo en limpieza, curación, versionado y estructuración.
Este nuevo enfoque no solo optimiza el rendimiento de los modelos, sino que abre la puerta a la monetización de activos de IA propietarios, generando nuevas líneas de ingresos mediante la comercialización o el licenciamiento de modelos a terceros, incluso competidores. Para Gartner, esto marca un giro desde el enfoque proteccionista hacia una colaboración basada en conocimiento compartido.
Recomendaciones para implantar modelos específicos
Gartner propone varias estrategias para aquellas organizaciones interesadas en adoptar esta tendencia:
- Lanzar pilotos contextualizados en departamentos donde la precisión y el conocimiento del negocio sean clave.
- Adoptar enfoques compuestos, combinando múltiples modelos y pasos de flujo de trabajo, en lugar de depender de un único modelo generalista.
- Fortalecer la preparación de datos, asegurando que los conjuntos utilizados sean relevantes, estructurados y trazables.
- Capacitar a los equipos, invirtiendo en formación de perfiles técnicos y funcionales: desde arquitectos de IA hasta expertos legales en cumplimiento normativo.
Un ecosistema más abierto, más inteligente
La creciente demanda de modelos ajustados al negocio empuja también hacia un ecosistema más abierto, interoperable y especializado. Empresas de sectores tan diversos como la banca, la logística, la salud o la industria ya están explorando formas de transformar su conocimiento operativo en modelos de IA que les proporcionen ventaja competitiva.
“Estamos asistiendo a un cambio estructural en cómo las organizaciones entienden la inteligencia artificial: menos como una herramienta generalista y más como un reflejo computacional de su propia inteligencia organizativa”, concluye Agarwal.
Con este panorama, la inteligencia artificial del futuro inmediato parece estar menos en los gigantescos modelos generalistas y más en modelos compactos, rápidos, bien entrenados y profundamente conectados con el corazón de cada negocio.