OpenAI ha anunciado el lanzamiento de un nuevo programa público de recompensas, o bug bounty, centrado en identificar riesgos de abuso y problemas de seguridad específicos de la inteligencia artificial. La iniciativa, denominada Safety Bug Bounty, amplía el alcance del programa tradicional para incluir escenarios que, sin ser fallos de seguridad clásicos, pueden derivar en daños reales.
Según explica OpenAI en un comunicado, el objetivo es reforzar la protección de sus sistemas en un momento en el que la evolución de la IA está generando nuevas superficies de riesgo. “A medida que la tecnología avanza, también lo hacen las formas en las que puede ser mal utilizada”, señala la compañía.
Un paso más allá de la seguridad tradicional
El nuevo programa complementa el actual Security Bug Bounty, activo desde 2023, que ya ha permitido detectar cientos de vulnerabilidades. El enfoque ahora es más amplio: OpenAI quiere recibir reportes sobre riesgos de abuso y comportamientos potencialmente dañinos, incluso cuando no encajen en la definición clásica de vulnerabilidad.
El programa, gestionado a través de Bugcrowd, contempla varias categorías clave:
- Riesgos de IA agéntica, como prompt injection o exfiltración de datos en agentes.
- Problemas de integridad de cuentas y plataforma, incluyendo evasión de controles.
- Exposición de información propietaria, como fugas de datos o comportamientos del modelo que revelen información sensible.
Especialmente relevante es el foco en los riesgos “agentic”, en línea con la evolución hacia sistemas autónomos capaces de ejecutar acciones.
OpenAI delimita el alcance del programa. Los jailbreaks no serán elegibles si no implican un riesgo real de daño. Es decir, no se premiarán respuestas inapropiadas sin impacto tangible.
Sí podrían considerarse aquellos fallos que faciliten un daño directo y tengan una vía clara de mitigación. Además, los accesos no autorizados a funcionalidades o datos seguirán siendo competencia del programa de seguridad tradicional.
Seguridad en la era de la IA
El lanzamiento refleja un cambio de enfoque: la seguridad ya no se limita a proteger sistemas frente a fallos técnicos, sino también a cómo se pueden abusar las capacidades de la IA.
En este contexto, muchas amenazas no pasan por explotar vulnerabilidades clásicas, sino por manipular el comportamiento de sistemas inteligentes. De ahí la necesidad de nuevas vías de colaboración con investigadores.
La compañía también prevé campañas privadas centradas en riesgos específicos, como los vinculados a contenidos biológicos o modelos avanzados como GPT-5.
La iniciativa encaja con una tendencia clara: pasar del fallo puntual a la identificación de riesgos operativos y de abuso en sistemas complejos, especialmente donde la IA ejecuta acciones.
En la práctica, estos programas se acercan más a la validación continua de exposición que al pentesting tradicional. Con este movimiento, OpenAI refuerza su defensa y contribuye a redefinir la seguridad en la era de la IA.















