La fiebre por Moltbook, una red social “tipo Reddit” diseñada para que agentes de Inteligencia Artificial publiquen, comenten y se organicen sin intervención directa de humanos, ha pasado en cuestión de días del asombro colectivo a la alarma. La razón no es filosófica ni futurista, sino de las de siempre: seguridad básica. Una vulnerabilidad permitió exponer información sensible y reabrió una pregunta incómoda para todo el sector: ¿qué ocurre cuando se viraliza una plataforma creada a toda velocidad para “agentes” que, por definición, operan con credenciales y capacidad de ejecutar acciones?
En ese contexto, el CEO de OpenAI, Sam Altman, tomó distancia del “hype” y lo resumió con una frase que ya circula por la industria: Moltbook podría ser “una moda pasajera”, aunque —matizó— lo realmente importante es la tecnología que lo hace posible. Altman lo planteó durante su intervención en el Cisco AI Summit en San Francisco, donde defendió que el salto relevante no es una red social de bots, sino la combinación de software + uso general del ordenador (la idea de agentes capaces de operar herramientas y sistemas como lo haría una persona).
El punto de inflexión: una filtración que expuso credenciales y datos privados
La popularidad de Moltbook creció al mismo ritmo que sus riesgos. La firma de ciberseguridad Wiz alertó de un fallo que dejó accesible información privada vinculada a la plataforma. Según Reuters, la exposición incluyó mensajes privados entre agentes, correos electrónicos de más de 6.000 propietarios y más de un millón de credenciales.
Otros análisis técnicos describen un patrón clásico: backend mal configurado y barreras de acceso insuficientes. TechRadar, citando a investigadores, habla de una arquitectura que terminó permitiendo el acceso a 1,5 millones de tokens/llaves de API, alrededor de 35.000 direcciones de correo y mensajes privados, y subraya que el problema se corrigió tras el aviso.
El detalle es relevante porque, en el mundo de los agentes, una “simple” filtración de claves no se queda en el robo de datos: puede significar suplantación de identidades de agentes, abuso de APIs de terceros, publicación de contenido no autorizado o, en escenarios más serios, el encadenamiento hacia otros sistemas donde el agente tenga permisos.
Vibe coding, velocidad y deuda de seguridad
Moltbook también se convirtió en símbolo de un método de desarrollo que va ganando terreno: el llamado “vibe coding”, donde gran parte del código se genera con ayuda de modelos, y el creador actúa más como “orquestador” que como programador tradicional. En declaraciones recogidas por Reuters, el fundador Matt Schlicht llegó a afirmar que no escribió “ni una sola línea” del sitio, lo que alimentó el debate sobre si la industria está normalizando lanzar productos complejos sin los controles mínimos de ingeniería y seguridad.
Este choque entre velocidad y protección no es nuevo, pero aquí se vuelve más delicado: el producto no solo maneja cuentas, posts y mensajes; maneja agentes que pueden estar conectados a servicios reales. En otras palabras, Moltbook no es solo una red social: es un escaparate (y, potencialmente, un punto de control) de automatizaciones.
“La moda” frente a lo estructural: OpenClaw y la era de los agentes
El matiz de Altman no fue casual. Al rebajar Moltbook como fenómeno, elevó lo que hay debajo: OpenClaw, un bot/entorno open source asociado a este ecosistema que, según Reuters, ilustra hacia dónde va el mercado: asistentes capaces de encargarse de tareas como correos, gestiones y operaciones cotidianas. Por eso su frase se interpretó como una advertencia: puede que Moltbook se desinfle, pero el modelo mental de “agentes con capacidad operativa” no va a desaparecer.
La discusión se amplificó porque Moltbook ha sido presentado por algunos como un vistazo a una “internet de agentes”. Y, como suele ocurrir con cualquier demostración pública de autonomía, la industria se divide entre quienes ven señales de futuro y quienes ven, sobre todo, superficie de ataque. Medios como The Wall Street Journal han descrito el fenómeno como algo que se descontroló rápido, generando tanto fascinación como preocupación por la seguridad y el comportamiento emergente.
Lo que deja el caso Moltbook: una lección incómoda para empresas
Más allá del morbo tecnológico, el episodio deja una conclusión bastante tradicional: si una plataforma pretende gestionar agentes a escala, su seguridad no puede ser “iterativa”; tiene que ser fundacional. Y eso implica, como mínimo, tres ideas:
- Separar identidades y permisos: un agente no debería tener credenciales reutilizables ni llaves eternas.
- Reducir el radio de explosión: si se filtra un token, que no sirva para controlar “cualquier cosa”.
- Auditar y monitorizar: porque los agentes, por diseño, automatizan… también los errores.
Altman ha podido llamar “moda” a Moltbook, pero la filtración lo convirtió en algo más útil: un caso real —y temprano— de cómo la era de los agentes va a exigir estándares de seguridad que muchos productos virales todavía no están preparados para cumplir.
Preguntas frecuentes (FAQ)
¿Qué es Moltbook y por qué se ha hecho viral entre la industria de la Inteligencia Artificial?
Es una plataforma tipo foro/red social pensada para publicaciones de agentes de IA, que ha captado atención por mostrar interacciones entre bots y por el debate sobre autonomía y “sociedades” de agentes.
¿Qué tipo de datos se expusieron en la brecha de seguridad de Moltbook?
Los informes citan exposición de mensajes privados, correos electrónicos de propietarios y un gran volumen de credenciales/tokens de API, lo que puede facilitar suplantaciones y abuso de servicios conectados.
¿Qué dijo Sam Altman exactamente sobre Moltbook y por qué importa su matiz?
Altman restó importancia al fenómeno social (“podría ser una moda”), pero defendió que la tecnología de agentes que operan ordenadores y herramientas —como OpenClaw— “ha llegado para quedarse”.
¿Qué medidas deberían aplicar las empresas si empiezan a usar agentes conectados a APIs internas y externas?
Buenas prácticas básicas: llaves de corta duración, permisos mínimos, segmentación por tareas, registro de acciones, control de salida a Internet y revisión continua de integraciones, para limitar el impacto de una filtración.



