Tenable descubre una falla crítica en la nueva tecnología de seguridad de GPT-5 de OpenAI

En menos de 24 horas desde su lanzamiento, investigadores eluden el sistema de protección del modelo y revelan los riesgos del uso indiscriminado de la IA generativa.

18 de agosto de 2025 — Lo que debía ser un hito en la seguridad de la inteligencia artificial se convirtió rápidamente en motivo de preocupación. Apenas un día después del lanzamiento oficial de GPT-5, investigadores de Tenable Research consiguieron realizar un “jailbreak” al modelo de OpenAI y demostraron que aún es posible manipular sus restricciones para obtener respuestas peligrosas, incluyendo instrucciones sobre cómo fabricar artefactos explosivos.

Una promesa de seguridad rota en tiempo récord

OpenAI presentó a GPT-5 como su modelo más avanzado hasta la fecha, con mejoras en precisión, velocidad y comprensión del contexto. Uno de los puntos más destacados de la presentación fue el nuevo sistema de seguridad integrado, diseñado para impedir usos indebidos y reforzar la confianza en la IA generativa.

Sin embargo, los investigadores de Tenable lograron vulnerar esas barreras en menos de 24 horas. Utilizando una técnica conocida como crescendo, el equipo consiguió que el modelo respondiera a preguntas que deberían haber sido bloqueadas.

El hallazgo supone un golpe para las expectativas en torno a la robustez del sistema de seguridad de OpenAI y pone sobre la mesa la dificultad de crear protecciones absolutas en tecnologías tan poderosas.

Un riesgo para empresas y gobiernos

“El hecho de que hayamos podido sortear las restricciones en tan poco tiempo demuestra que, pese a las innovaciones anunciadas, todavía existen brechas explotables”, explicó Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe en Tenable.

Dutto subraya que el incidente es una advertencia para las empresas e instituciones que confían en modelos de IA generativa: “No basta con apoyarse únicamente en las barreras técnicas que proporcionan los fabricantes. Se necesitan políticas internas claras, capacitación a los equipos y una supervisión constante del uso de estas herramientas”.

El experto también señaló que confiar ciegamente en la seguridad de terceros puede exponer a organizaciones de sectores críticos —como finanzas, salud o infraestructura— a riesgos significativos.

La seguridad como un proceso continuo

El descubrimiento refuerza la idea de que la seguridad en IA no es un destino final, sino un proceso en evolución. Cada avance en capacidades abre también la puerta a nuevos vectores de ataque, lo que obliga a una vigilancia permanente y a la actualización continua de las estrategias de protección.

“Se trata de una carrera que nunca se detiene”, comentan analistas del sector. “A medida que los modelos de IA se hacen más potentes, también se vuelven más atractivos para los atacantes, y las defensas deben evolucionar al mismo ritmo”.

OpenAI bajo presión

Aunque OpenAI no ha emitido comentarios inmediatos sobre este caso, la compañía se encuentra en el centro de un debate creciente: ¿es responsable liberar modelos tan avanzados si sus sistemas de seguridad aún no han sido plenamente validados?.

En el pasado, la empresa ya enfrentó críticas por la facilidad con la que versiones previas de sus modelos podían ser “jailbreakeadas”. Con GPT-5, las expectativas de mayor solidez eran elevadas, pero el hallazgo de Tenable pone en entredicho la eficacia de las nuevas medidas.

El papel de Tenable y la gestión de exposición

El trabajo de Tenable se enmarca en lo que la empresa define como Exposure Management: la identificación y cierre de brechas de ciberseguridad que pueden dañar el valor, la reputación y la confianza en una organización.

Con más de 44.000 clientes en todo el mundo, Tenable se ha consolidado como un referente en la protección de infraestructuras críticas, TI y entornos cloud. Su objetivo, en este caso, no fue explotar la vulnerabilidad, sino alertar de los riesgos inherentes al uso de IA generativa sin un control adecuado.

Una advertencia que trasciende el caso GPT-5

El episodio deja al descubierto un hecho incómodo: la carrera por desarrollar y comercializar modelos de inteligencia artificial cada vez más potentes podría estar dejando en segundo plano la cuestión de la seguridad.

Para las organizaciones que ya adoptan IA en procesos críticos, el mensaje es claro: la responsabilidad de un uso seguro no recae solo en los fabricantes, sino también en los usuarios. La vigilancia, la formación y las políticas de control serán claves para evitar que estas tecnologías se conviertan en armas en manos equivocadas.


Preguntas frecuentes (FAQ)

1. ¿Qué significa hacer un “jailbreak” a un modelo de IA?
Es un proceso mediante el cual se manipulan las restricciones de un sistema para que responda a peticiones que normalmente debería bloquear, como instrucciones ilegales o dañinas.

2. ¿Qué es la técnica “crescendo” usada por Tenable?
Es un método de manipulación progresiva de prompts que lleva al modelo, paso a paso, a entregar información sensible o prohibida, evadiendo los filtros de seguridad.

3. ¿Por qué es importante este hallazgo?
Porque demuestra que, incluso con sistemas de seguridad avanzados, los modelos de IA siguen siendo vulnerables y pueden ser explotados para fines maliciosos.

4. ¿Qué pueden hacer las empresas para protegerse?
Adoptar políticas internas de uso responsable de IA, capacitar a sus equipos sobre riesgos y establecer monitoreo constante de las interacciones con modelos generativos.

5. ¿Qué impacto puede tener en OpenAI?
El hallazgo puede aumentar la presión regulatoria y la desconfianza hacia sus modelos, en un momento en que la compañía busca consolidarse como proveedor seguro para empresas y gobiernos.

Scroll al inicio