El desarrollador y divulgador tecnológico Javi López (@javilop) ha publicado en X un extenso hilo que ha generado un intenso debate en la comunidad tecnológica. En él, sostiene que en un futuro próximo todo el software, desde el frontend hasta el backend y la infraestructura, se ejecutará directamente sobre modelos de lenguaje (LLM), eliminando la necesidad de código tal y como lo conocemos.
López parte de una idea que resume en dos afirmaciones:
- El software se ejecutará en la capa del LLM.
- El software será una commodity, como la electricidad.
Según explica, la tendencia actual de crear aplicaciones mediante instrucciones en lenguaje natural a través de herramientas como Claude, Grok o ChatGPT es solo el primer paso. El siguiente salto, afirma, es prescindir por completo del código intermedio, permitiendo que la lógica de negocio, la memoria y la persistencia se gestionen de forma nativa en el propio modelo.
“No vamos a necesitar código en Python, HTML o CSS. Todo, absolutamente todo, se ejecutará directamente en el LLM”, asegura López.
Del “flujo de bits” a la ejecución total en el modelo
Para ilustrar su visión, López cita a Elon Musk: “Any input bitstream to any output bitstream” (cualquier flujo de bits de entrada a cualquier flujo de bits de salida). En la práctica, esto significaría que una aplicación como un upscaler de imágenes no requeriría capas de software tradicionales; el modelo recibiría la entrada, interpretaría la acción del usuario y generaría directamente la respuesta visual, sin programación explícita.
En este escenario, el software dejaría de desarrollarse como hasta ahora. El valor estaría concentrado en un número muy reducido de empresas: los proveedores de LLM multimodales más avanzados y las compañías con capacidad de ejecutar estas cargas a gran escala.
Persistencia y entrenamiento con datos sintéticos
Uno de los argumentos críticos habituales es que los LLM actuales no son deterministas y carecen de memoria persistente. López sostiene que esto cambiará, y que los modelos del futuro contarán con persistencia “pero no de la forma simplista en la que concebimos hoy una base de datos”.
Para llegar ahí, sugiere el uso de datos sintéticos generados por los propios agentes, capaces de crear aplicaciones end-to-end en bucle cerrado, registrando estados de interfaz y entradas para alimentar el entrenamiento de nuevos modelos fundacionales.
Implicaciones estratégicas e inversión
En el plano económico, López advierte que identificar y posicionarse temprano en las empresas que dominen esta capa tecnológica podría suponer una ventaja competitiva decisiva. La clave, dice, estará en aquellas que aseguren el acceso a GPUs y desarrollen LLMs con capacidades multimodales masivas.
En su propio tono irónico, concluye invitando a los lectores a reflexionar: “Tras leerlo, no habrá término medio: o lo rechazarás por completo (y te equivocarás) o saldrás converso y te daré la bienvenida a mi secta”.
Preguntas frecuentes (FAQ)
1. ¿Qué significa que el software se ejecute “en la capa del LLM”?
Que la lógica, persistencia y presentación de una aplicación se gestionen de forma interna en el modelo de lenguaje, sin necesidad de código tradicional.
2. ¿Cómo afectaría esto a los programadores?
Transformaría su papel: pasarían de escribir código a diseñar instrucciones, flujos y objetivos para que la IA los ejecute directamente.
3. ¿Qué empresas podrían beneficiarse más de este cambio?
Las que desarrollen LLMs multimodales líderes y las que dispongan de la infraestructura para ejecutarlos de forma masiva y eficiente.
4. ¿Cuándo podría hacerse realidad esta visión?
Aunque López habla de un futuro “más pronto que tarde”, la adopción masiva dependerá de avances en hardware, optimización de modelos y aceptación en entornos de producción.