OpenAI Aumenta los Recompensas por Vulnerabilidades Críticas a $100.000

Elena Digital López

El gigante de la inteligencia artificial OpenAI ha anunciado que incrementará su pago máximo por recompensas de bugs hasta $100.000, frente a los $20.000 anteriores. Este cambio forma parte de un plan más amplio de la empresa para externalizar el descubrimiento de vulnerabilidades críticas y de alto impacto en su infraestructura y productos.

El nuevo programa de recompensas es solo una parte de una serie de iniciativas de seguridad más amplias que OpenAI está implementando, que incluyen financiamiento para proyectos de investigación en seguridad, un equipo continuo de pruebas adversariales (red teaming), y colaboraciones con comunidades de software de código abierto.

Recompensas Más Altas para Vulnerabilidades Críticas

Además de los pagos más altos por encontrar vulnerabilidades críticas, OpenAI ha indicado que ofrecerá promociones adicionales en forma de bonificaciones para los informes que califiquen durante períodos limitados de tiempo. Este enfoque tiene como objetivo incentivar a los investigadores de seguridad a identificar y abordar debilidades en los sistemas de la compañía antes de que puedan ser explotadas por actores maliciosos.

Expansión del Programa de Subvenciones en Ciberseguridad

OpenAI también ha anunciado una expansión de su Cybersecurity Grant Program, que ha financiado ya 28 iniciativas de investigación desde su lanzamiento en 2023. Estos proyectos han abordado cuestiones cruciales como la inyección de comandos en los modelos de IA, la generación de código seguro, y el desarrollo de defensas autónomas en ciberseguridad.

El programa ahora está invitando a los investigadores a proponer proyectos que aborden temas como el parcheo de software, la privacidad de los modelos, la detección de amenazas y respuesta, la integración de seguridad, y la resiliencia frente a ataques sofisticados.

Microsubvenciones y Créditos API

Además, OpenAI ha presentado microsubvenciones en forma de créditos de API para ayudar a los investigadores a crear prototipos rápidamente y desarrollar soluciones de seguridad creativas. Esto busca acelerar la innovación en el campo de la ciberseguridad y la inteligencia artificial.

Colaboraciones y Red Teaming

En paralelo, OpenAI está colaborando con expertos de laboratorios académicos, gubernamentales y comerciales para evaluar las brechas de habilidades y mejorar la capacidad de sus modelos para identificar y parchear vulnerabilidades.

La empresa también se ha asociado con la startup respaldada por capital riesgo SpecterOps para realizar pruebas continuas de red teaming adversariales en sus entornos corporativos, en la nube y de producción. El objetivo de estos ataques simulados es identificar debilidades potenciales antes de que sean explotadas por actores maliciosos.

Compromiso con la Seguridad

Este enfoque de seguridad de múltiples frentes subraya el compromiso de OpenAI con la creación de una infraestructura robusta y segura, no solo para proteger sus propios sistemas, sino también para impulsar la seguridad en la industria tecnológica en general.

Scroll al inicio