Google ha anunciado el lanzamiento de su AI Vulnerability Reward Program (AI VRP), un programa de recompensas que busca incentivar la detección de vulnerabilidades en sus productos basados en inteligencia artificial. Con esta iniciativa, la compañía ofrece premios de hasta 30.000 dólares a los investigadores que descubran fallos de seguridad en aplicaciones como Google Search, Gemini o Workspace.
El programa, que amplía y perfecciona el anterior Abuse Vulnerability Reward Program, nace tras el éxito de las recompensas por errores en productos de IA, que ya han permitido pagar más de 430.000 dólares en incentivos a la comunidad investigadora desde su puesta en marcha.
Entre las categorías incluidas en el nuevo esquema se encuentran ataques que permitan la modificación no autorizada de cuentas o datos, exfiltración de información sensible, phishing habilitado por IA, robo de modelos o manipulación del contexto de un entorno de IA. Google ha definido distintos niveles de productos —Flagship, Standard y Other— para ajustar el importe de las recompensas en función de la criticidad del sistema afectado.
La compañía ha escuchado las sugerencias de la comunidad de investigadores y ha unificado las tablas de recompensas para los casos de abuso y seguridad, con el fin de simplificar el proceso de revisión y priorizar los hallazgos de mayor impacto.
No obstante, Google ha aclarado que cuestiones como los “prompt injections”, jailbreaks o problemas de alineamiento quedan fuera del alcance de este programa, al considerar que su análisis requiere procesos más amplios y colaborativos. En estos casos, los investigadores podrán seguir notificando incidencias directamente a través de las herramientas de reporte integradas en sus productos de IA.
Con este nuevo paso, Google refuerza su compromiso con una seguridad colaborativa, reconociendo la labor de la comunidad de bug hunters y adaptando sus programas de recompensas a los retos específicos que plantea la inteligencia artificial.