OpenAI ha incorporado a Peter Steinberger, creador de OpenClaw, con la intención de acelerar su apuesta por los “agentes personales”: asistentes capaces de ejecutar tareas de principio a fin, coordinándose entre sí y conectándose a servicios reales, más allá del clásico chatbot. El anuncio, realizado el 15 de febrero de 2026, llega acompañado de un compromiso relevante para la comunidad: OpenClaw seguirá siendo open source y pasará a gestionarse bajo una fundación, con apoyo continuado de OpenAI.
La noticia se conoció tras una publicación del consejero delegado de OpenAI, Sam Altman, que defendió la contratación con un elogio poco habitual incluso en el mundo de la IA: calificó a Steinberger como “un genio” y aseguró que su visión sobre “agentes muy inteligentes” que interactúan entre sí “se convertirá rápidamente” en parte central de la oferta de productos de la compañía. La frase clave del mensaje fue, sin embargo, la que intenta apagar las alarmas típicas cuando una gran tecnológica se acerca a un proyecto comunitario: OpenClaw “vivirá en una fundación” y OpenAI “seguirá apoyándolo”.
De proyecto viral a pieza estratégica en la carrera por los agentes
OpenClaw se ha convertido en pocas semanas en uno de esos proyectos que funcionan como termómetro del mercado: cuando algo se vuelve útil de verdad, la adopción se dispara… y las empresas grandes empiezan a moverse. De acuerdo con información publicada en medios internacionales, el asistente open source llegó a superar las 100.000 estrellas en GitHub y atrajo alrededor de 2.000.000 de visitantes en una sola semana, un nivel de tracción poco común para una herramienta nacida fuera de los grandes laboratorios.
Parte del atractivo está en la promesa de “hacer”, no solo “responder”. En la descripción que han recogido varios medios, OpenClaw se orienta a tareas concretas como organizar correos, gestionar trámites con compañías o manejar operaciones cotidianas que hoy obligan a saltar entre aplicaciones. Esa idea —IA conectada a herramientas, con capacidad de ejecutar acciones— es precisamente el terreno donde la industria cree que se librará la próxima batalla, tanto en consumo como en empresa.
Steinberger, por su parte, ha explicado públicamente que su objetivo no era montar “otra gran compañía” alrededor del proyecto, sino empujar la tecnología hacia un punto en el que los agentes sean accesibles para cualquiera. En su comunicación, plantea que unirse a OpenAI es el camino más rápido para llevar esa visión a más gente, sin renunciar a que OpenClaw permanezca abierto e independiente gracias al cambio de gobernanza hacia una fundación.
¿Qué cambia con la “fundación” y por qué importa?
En el ecosistema open source, el término “fundación” suele ser una palabra cargada de intención: implica separar la evolución del proyecto de los intereses inmediatos de una empresa concreta, reforzar la neutralidad y abrir la puerta a una gobernanza más comunitaria. Que OpenAI prometa apoyo sin convertir OpenClaw en un producto cerrado busca reducir el temor a la “absorción” típica: el proyecto se integra de facto en una estrategia corporativa, se fragmenta o pierde rumbo, y la comunidad se queda sin control.
Aun así, el movimiento no deja de ser una señal estratégica. Si OpenAI ficha al creador de una plataforma de agentes open source, es porque quiere acelerar esa capa de producto. La compañía lleva tiempo insinuando que el futuro será “multiagente”: no un único asistente generalista, sino múltiples agentes especializados que colaboran (uno busca información, otro ejecuta acciones, otro supervisa riesgos), con resultados más útiles y medibles. La contratación sugiere que OpenAI quiere convertir esa idea en algo utilizable a escala.
Lectura para sysadmins y desarrolladores: potencia, sí; pero también superficie de ataque
Para perfiles técnicos, la noticia tiene otra lectura inmediata: los agentes personales son, por diseño, un sistema con permisos. Si un agente puede leer correo, tocar calendario, abrir tickets o ejecutar acciones, el debate deja de ser “qué responde” y pasa a ser “qué puede hacer” y “con qué credenciales”.
Esa realidad ya se ha colado en la conversación pública. Algunas autoridades han advertido del riesgo de brechas y exposición de datos si herramientas de este tipo se despliegan o configuran mal. Y, además, el propio fenómeno “plugins y habilidades” abre un frente clásico de seguridad: la cadena de suministro. En el caso de OpenClaw, se han citado incidentes relacionados con la publicación de extensiones maliciosas, un recordatorio incómodo de que la automatización basada en agentes necesita controles parecidos a los de cualquier plataforma extensible.
Para equipos de sistemas y desarrollo, la llegada de los agentes a la “primera división” implica, como mínimo:
- Principio de mínimo privilegio (tokens con alcance limitado, permisos por acción, caducidad corta).
- Aislamiento y revisión de extensiones (firmas, repos de confianza, análisis estático/dinámico).
- Trazabilidad (logs de acciones, auditoría, “quién hizo qué” cuando el “quién” es un agente).
- Secret management serio (rotación, vaults, no incrustar credenciales en conectores).
- Entornos de prueba antes de producción (simulación, “dry-run”, límites de gasto/acciones).
En otras palabras: el hype puede ser nuevo, pero el patrón es antiguo. Cuando una herramienta ejecuta acciones en nombre del usuario, se convierte en infraestructura, y la infraestructura exige disciplina.
Un síntoma de la próxima fase de la IA
El fichaje de Steinberger encaja con una tendencia clara: la IA se está desplazando del “asistente conversacional” a la “capa operativa”. Las empresas ya no compiten solo por el modelo que mejor redacta o programa, sino por quién integra mejor los flujos de trabajo: correo, documentos, ERP, soporte, compras, despliegues, analítica. En ese terreno, tener talento que ya ha construido un producto que “la gente usa” —y que ha resistido el estrés de la viralidad— es una ventaja.
Queda por ver cómo se materializa el rol de Steinberger dentro de OpenAI y qué significa, en la práctica, “apoyo” a un proyecto open source cuando su creador pasa a una gran organización. Pero el mensaje de Altman no deja demasiado espacio a dudas: OpenAI cree que los agentes personales y el enfoque multiagente van a ser núcleo de su estrategia a corto plazo. Y, con OpenClaw, parte de esa historia se seguirá escribiendo en abierto.
Preguntas frecuentes
¿Qué es OpenClaw y para qué sirve?
OpenClaw es un asistente open source orientado a “agentes” capaces de ejecutar tareas reales (como gestionar flujos de correo, automatizar acciones o coordinar procesos) más allá de mantener una conversación.
¿Seguirá siendo open source tras la incorporación de su creador a OpenAI?
Sí. El plan anunciado es que OpenClaw pase a una fundación y se mantenga como proyecto open source, con apoyo continuado de OpenAI.
¿Qué implica que un proyecto pase a una fundación open source?
Normalmente significa un modelo de gobernanza más neutral: decisiones técnicas más abiertas, posibilidad de contribuciones de múltiples actores y cierta separación entre el proyecto y los intereses directos de una empresa concreta.
¿Qué riesgos de seguridad tienen los agentes personales conectados a correo, calendario o herramientas internas?
El riesgo principal es el acceso indebido a datos o acciones no autorizadas por mala configuración, permisos excesivos o extensiones maliciosas. En entornos profesionales, se recomienda mínimo privilegio, auditoría, control de conectores y gestión robusta de secretos.




