La preocupación ya no se limita a un debate teórico sobre el futuro de la Inteligencia Artificial. En Washington, el secretario del Tesoro de EE.UU., Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, mantuvieron una reunión con responsables de algunos de los mayores bancos de Wall Street para abordar un riesgo muy concreto: qué ocurre cuando una IA avanzada no solo ayuda a escribir código, sino que también puede encontrar vulnerabilidades y convertirlas en ataques útiles a una velocidad difícil de igualar por equipos humanos. La cita, adelantada por Bloomberg y posteriormente recogida por otros medios, reunió a directivos de Citigroup, Morgan Stanley, Bank of America, Wells Fargo y Goldman Sachs; Jamie Dimon, de JPMorgan, fue invitado pero no asistió.
El motivo de esa reunión fue Claude Mythos Preview, el nuevo modelo de Anthropic, que la propia compañía ha decidido no lanzar de forma general por el riesgo que representa en ciberseguridad. Según Anthropic, Mythos ha demostrado capacidad para identificar y explotar vulnerabilidades en todos los grandes sistemas operativos y en los principales navegadores web, además de descubrir miles de fallos de alta severidad en software crítico. La empresa ha limitado su acceso a un grupo reducido de organizaciones dentro de Project Glasswing, una iniciativa defensiva en la que participan actores como AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks.
El mensaje que se desprende del movimiento de Washington es potente: la IA ofensiva ya ha entrado en el radar de la estabilidad financiera. No porque Mythos haya atacado a los bancos, sino porque su mera existencia cambia el equilibrio entre defensores y atacantes. Si una herramienta así puede acelerar la búsqueda de fallos en navegadores, estaciones de trabajo, software de terceros, pasarelas de autenticación o entornos internos, entonces la banca sistémica ya no está ante una amenaza “de futuro”, sino ante una presión inmediata para reforzar parcheo, segmentación, detección y respuesta. Esa es precisamente la razón por la que la Administración estadounidense ha querido alertar a las entidades antes de que modelos de esta categoría se extiendan más.
Pero el alcance real del problema va mucho más allá de Wall Street. La propia formulación de Project Glasswing habla de proteger “el software más crítico del mundo”, y la Linux Foundation ha subrayado que el software open source sostiene gran parte de la infraestructura esencial sobre la que funcionan hospitales, bancos, telecomunicaciones, transporte y servicios digitales. Si una IA como Mythos puede encontrar fallos a escala en ese sustrato tecnológico, la preocupación no debería limitarse a la gran banca estadounidense. También afecta a mercados energéticos, operadores de agua, telecomunicaciones, logística, sanidad, industria, administraciones públicas y plataformas cloud.
Esa ampliación del foco ya se está reflejando también a nivel institucional. NIST publicó el 7 de abril de 2026 una nota conceptual para desarrollar un perfil específico de su AI Risk Management Framework orientado al uso confiable de IA en infraestructuras críticas, incluyendo desafíos de gobernanza ligados a sistemas OT, ICS y entornos ciberfísicos. Es decir, Washington no solo teme que la IA ayude a atacar software corporativo, sino que empieza a asumir que su impacto puede trasladarse a sectores donde un fallo no significa solo una filtración de datos, sino una interrupción física o una degradación de servicios esenciales.
La gran cuestión ahora es lo que viene después. Anthropic ha impuesto restricciones porque considera que este tipo de capacidades aún requieren un despliegue controlado, pero la propia empresa admite que no pasará mucho tiempo antes de que capacidades parecidas proliferen. Ahí aparece el escenario que más inquieta a muchos expertos: no solo modelos cerrados y limitados a grandes socios, sino futuras IA del mismo nivel, más baratas, más fáciles de ejecutar o incluso abiertas, que reduzcan radicalmente la barrera de entrada para ciberataques avanzados. No hay confirmación de que hoy exista un modelo abierto equivalente a Mythos en ese terreno, pero el temor regulatorio y empresarial nace justo de esa posibilidad: que lo que ahora está contenido en un perímetro restringido termine convirtiéndose en una capacidad ampliamente disponible.
Eso explica por qué esta historia no debe leerse solo como una anécdota sobre Anthropic o como un sobresalto pasajero en Wall Street. Lo que está en juego es un cambio de escala en ciberseguridad. Durante años, encontrar y encadenar vulnerabilidades complejas fue una tarea reservada a perfiles muy especializados. Si los grandes modelos empiezan a automatizar parte de ese trabajo con eficacia suficiente, la presión no caerá solo sobre los bancos, sino sobre cualquier organización que dependa de software heredado, mantenimiento insuficiente o cadenas de suministro digitales complejas. Y ahí entran desde grandes utilities hasta pymes industriales, pasando por organismos públicos y proyectos open source que sostienen internet desde abajo.
La reacción de EE.UU. anticipa precisamente ese nuevo mapa. Primero se convoca a la banca sistémica, porque un incidente allí puede contagiar al sistema financiero global. Pero la lógica de fondo es mucho más amplia: si una IA puede acelerar la explotación de fallos en software crítico, entonces cualquier mercado intensivo en infraestructura digital entra en zona de riesgo. Y cuanto más se acerque esa capacidad a modelos accesibles, reproducibles o abiertos, mayor será la necesidad de repensar defensa, certificación, divulgación responsable, parcheo y resiliencia como si ya estuviéramos en una nueva fase de la ciberseguridad. Porque, probablemente, eso es exactamente lo que está empezando.
Preguntas frecuentes
¿Qué preocupa exactamente de Claude Mythos?
Lo que preocupa no es un uso comercial normal de la IA, sino su capacidad para descubrir vulnerabilidades y desarrollar exploits con un nivel que Anthropic considera lo bastante sensible como para restringir su acceso.
¿Por qué se reunió el Tesoro de EE.UU. con los bancos?
Porque los reguladores y el Gobierno quieren que las entidades sistémicas entiendan el posible impacto de modelos como Mythos sobre sus sistemas y refuercen sus defensas antes de que estas capacidades se generalicen.
¿La preocupación afecta solo a Wall Street?
No. La lógica del riesgo se extiende a energía, agua, salud, transporte, telecomunicaciones, industria, cloud y software open source crítico, sectores todos ellos muy dependientes de infraestructura digital vulnerable a explotación automatizada.
¿Ya existen modelos open source al nivel de Mythos en ciberseguridad ofensiva?
No hay confirmación pública de un modelo abierto equivalente en este momento. La inquietud está en que Anthropic y otros actores dan por hecho que capacidades similares terminarán proliferando, y ese escenario incluiría eventualmente modelos más accesibles o abiertos.












