Durante años, buena parte del debate sobre la Inteligencia Artificial General (AGI, por sus siglas en inglés) se ha contado como una carrera hacia “el gran modelo”: un sistema monolítico, cada vez más capaz, que un día cruza la línea y empieza a igualar —o superar— lo que hacen los humanos en la mayoría de tareas. Pero un nuevo trabajo de investigadores de Google DeepMind invita a cambiar el foco: la AGI podría emerger antes como un “mosaico” de agentes especializados que colaboran, más que como una sola superinteligencia centralizada.
La tesis no es solo filosófica. Tiene consecuencias prácticas: si la inteligencia general aparece como capacidad colectiva (por coordinación, delegación y mercados de tareas), entonces los mecanismos de seguridad y control centrados en un único sistema se quedan cortos. Y, lo más importante para el “aquí y ahora”: DeepMind argumenta que el auge de agentes con herramientas, capacidad de actuar y comunicarse entre sí vuelve esto una preocupación urgente de seguridad, no una especulación a largo plazo.
“Patchwork AGI”: cuando lo general nace de lo especializado
El documento —titulado Distributional AGI Safety— plantea lo que denomina la hipótesis de la “AGI de retales” (patchwork AGI): un escenario en el que el “salto” hacia capacidades generales no proviene de un solo modelo omnipotente, sino de muchos agentes sub-AGI con habilidades complementarias que se coordinan dentro de una red.
La imagen es fácil de visualizar si se piensa en cómo trabajan hoy muchas organizaciones humanas: nadie lo sabe todo, pero la empresa “como conjunto” puede ejecutar proyectos complejos gracias a roles distintos, especialización y coordinación. DeepMind traslada esa lógica a un futuro (y, en parte, a un presente) donde agentes de IA:
- se delegan tareas entre sí,
- rutan subtareas al agente “mejor” para cada función,
- y combinan herramientas y capacidades hasta lograr un resultado que ningún agente aislado podría completar.
El artículo incluso describe un ejemplo tipo: para producir un informe financiero, un agente orquestador podría encargar la búsqueda de información a otro, la extracción de datos a un tercero, el análisis con ejecución de código a un cuarto, y después sintetizarlo en un texto final. El “sistema” acaba teniendo una capacidad global (hacer análisis financieros completos) que no está contenida en una sola pieza.
Por qué esta visión encaja con la economía real de la IA
DeepMind también introduce un argumento económico que suena especialmente plausible para el mundo empresarial: no siempre es rentable usar “el modelo más caro y capaz” para todo. Aunque existan sistemas punteros, en la práctica muchas tareas se resuelven con soluciones “suficientemente buenas” porque el coste marginal de lo mejor no compensa.
De ese incentivo —sostiene el texto— puede emerger un ecosistema parecido a una economía: miles de agentes especializados, ajustados para nichos concretos, compitiendo por precio, latencia y adecuación al caso de uso. En ese paisaje, el progreso se parece menos a “construir un dios de silicio” y más a crear routers, coordinadores y sistemas de orquestación capaces de combinar agentes como si fueran piezas de una cadena de suministro digital.
Y aquí aparece una frase con carga: en esta visión, la AGI no sería tanto “una entidad” como un estado del ecosistema, una madurez colectiva donde el papel humano se desplaza hacia la orquestación y la verificación.
El giro de seguridad: no basta con alinear agentes “uno a uno”
Si la AGI emerge como red, el riesgo cambia de forma. La seguridad tradicional (alinear un único modelo, poner barreras, evaluar capacidades de un sistema aislado) puede no capturar lo que ocurre cuando muchos agentes interactúan, negocian, compiten, se coordinan o se coluden.
El paper insiste en que la investigación en seguridad se ha centrado sobre todo en “salvaguardar sistemas individuales”, bajo la suposición del modelo monolítico, y que el escenario alternativo ha recibido menos atención de la que merece.
La preocupación no es solo que aparezcan fallos en un agente concreto, sino que surjan comportamientos emergentes al combinar muchos: dinámicas colectivas difíciles de anticipar, incentivos que se retroalimentan, rutas inesperadas para alcanzar objetivos o para explotar recursos.
La propuesta de DeepMind: “economías sandbox” para agentes
En lugar de quedarse en el diagnóstico, el trabajo propone un marco de “seguridad AGI distribucional”: pasar de evaluar y alinear agentes individuales a diseñar entornos donde lo colectivo se pueda controlar, auditar y limitar.
La idea central es crear economías virtuales tipo sandbox (impermeables o semi-permeables) donde las “transacciones” entre agentes estén gobernadas por mecanismos robustos (enfoque de mercado), con auditabilidad, reputación y supervisión para mitigar riesgos colectivos.
Dicho de forma llana: si el futuro se parece a un “mercado de agentes” que se contratan y subcontratan tareas, entonces hay que construir reglas de mercado, controles y contabilidad que hagan ese mercado seguro antes de conectarlo de lleno al mundo real.
Lo que cambia para empresas y usuarios
Aunque el documento se mueve en el terreno de la seguridad y la teoría de sistemas, su lectura deja dos mensajes prácticos:
- La “revolución de agentes” no es solo UX (asistentes más listos): es un cambio de arquitectura, donde la potencia puede venir de la coordinación.
- La supervisión tendrá que escalar: no basta con preguntar “¿es seguro este modelo?”, sino “¿qué pasa cuando decenas o cientos de agentes interactúan, se reparten tareas y comparten herramientas?”.
Para empresas que ya están desplegando agentes (atención al cliente, operaciones internas, soporte técnico, análisis, automatización), esta perspectiva empuja a tomarse en serio cosas que a veces se tratan como detalles: trazabilidad de acciones, controles de permisos, registros auditables, reputación de herramientas y límites de interacción. En el mundo “patchwork”, esos detalles son el sistema.
Preguntas frecuentes
¿Qué significa que la AGI pueda surgir como una “red de agentes” y no como un único modelo?
Que capacidades generales podrían aparecer por la coordinación de múltiples agentes especializados (cada uno “bueno en lo suyo”), de forma que el conjunto haga tareas que ningún agente aislado lograría.
¿Qué es “patchwork AGI” (AGI de retales) y por qué preocupa a la seguridad?
Es la hipótesis de una AGI distribuida en un ecosistema de agentes. Preocupa porque los riesgos pueden emerger de interacciones colectivas, no solo de fallos en un sistema individual.
¿Por qué una descarga o despliegue masivo de agentes puede acelerar este escenario?
Porque cuantos más agentes con herramientas y capacidad de coordinarse existan, más probable es que aparezcan cadenas de delegación y colaboración que multipliquen capacidades en la práctica.
¿Qué son las “economías sandbox” para agentes y para qué servirían?
Son entornos controlados donde los agentes pueden interactuar bajo reglas (mecanismos, auditoría y reputación) para observar, medir y frenar riesgos colectivos antes de que esos agentes operen sin red en sistemas reales.
Fuentes:
- Google DeepMind (arXiv), Distributional AGI Safety (18–19 de diciembre de 2025). (arXiv)




