OpenAI ha dado un paso decidido en su estrategia de ciberseguridad con el anuncio de una ampliación significativa de su programa de bug bounty, cuyo objetivo es identificar vulnerabilidades en sus sistemas antes de que puedan ser explotadas. La compañía ha elevado la recompensa máxima hasta los 100.000 dólares, quintuplicando así el anterior límite de 20.000 dólares, con el fin de premiar las investigaciones más relevantes y de alto impacto.
El programa, gestionado a través de Bugcrowd desde su lanzamiento en abril de 2023, ya ha reconocido y recompensado más de 200 hallazgos válidos. Esta mejora en las recompensas se acompaña de incentivos promocionales por tiempo limitado, como el que está vigente hasta el 30 de abril de 2025, centrado en vulnerabilidades relacionadas con el control de acceso (como IDOR), con gratificaciones que oscilan entre 400 y 13.000 dólares.
Una estrategia integral que va más allá de los incentivos económicos
El refuerzo del programa de recompensas se enmarca en una estrategia de ciberseguridad mucho más amplia. OpenAI ha ampliado también su Cybersecurity Grant Program, mediante el cual ha financiado hasta la fecha 28 proyectos centrados en áreas como la generación de código seguro, la detección de inyecciones de prompt o las defensas autónomas impulsadas por IA.
Actualmente, la compañía busca propuestas de investigación en cinco nuevas áreas clave:
- Aplicación automatizada de parches
- Privacidad de modelos
- Detección y respuesta ante amenazas
- Integración de seguridad en entornos IA
- Seguridad en sistemas agentic (IA autónoma)
Además, se han introducido microgrants en forma de créditos de API para apoyar el desarrollo de prototipos prometedores sin necesidad de financiación inicial tradicional.
Más allá de la comunidad de investigadores externos, OpenAI también está apostando por defensas internas basadas en inteligencia artificial para responder de forma autónoma y en tiempo real ante potenciales amenazas. A ello se suma una colaboración con la firma especializada SpecterOps, orientada al despliegue de red teaming adversario continuo, que simula ataques reales sobre sus infraestructuras corporativas, cloud y de producción.
Con más de 400 millones de usuarios activos cada semana, la seguridad es un pilar fundamental para OpenAI. Estas acciones refuerzan su compromiso no solo con la protección de su ecosistema, sino también con su visión de un desarrollo seguro y responsable en su camino hacia la Inteligencia Artificial General (AGI).