La carrera por integrar modelos de lenguaje (LLM) en las empresas ha disparado la innovación… y también los riesgos. El último informe de Cobalt sobre el estado de la seguridad en aplicaciones con IA generativa revela un panorama preocupante: casi un tercio de las pruebas de penetración realizadas en estas aplicaciones detectaron vulnerabilidades graves. Y lo que es aún peor, sólo una de cada cinco se ha corregido.
El 32 % de las apps con LLM presenta fallos críticos, y casi ninguno se resuelve
El estudio, basado en más de 16.000 pruebas de seguridad y una encuesta a 450 responsables y profesionales de ciberseguridad, alerta de que la adopción de la IA generativa está superando la capacidad de los equipos de seguridad para protegerla. El 36 % de los encuestados reconoce que sus organizaciones no están preparadas para asumir los riesgos de estos sistemas.
Preocupación alta
Aunque el 72 % de los profesionales considera que las amenazas asociadas a la IA generativa son el principal riesgo de TI, un 33 % de las organizaciones aún no realiza pruebas de seguridad periódicas en sus implementaciones de IA. Las vulnerabilidades más frecuentes detectadas incluyen desde las clásicas inyecciones SQL hasta nuevas amenazas como el prompt injection (manipulación de instrucciones al modelo) o el acceso indebido a datos sensibles.
Además, el informe destaca una brecha alarmante en la remediación: aunque el tiempo medio de resolución para las vulnerabilidades críticas que sí se corrigen es de solo 19 días, el 79 % de los fallos graves permanece sin resolver. La razón, según Cobalt, es que las organizaciones solo están abordando los fallos más fáciles de solucionar, dejando sin atención los más complejos y peligrosos.
La investigación también muestra una división entre líderes y técnicos. Mientras los ejecutivos se enfocan en amenazas estratégicas a largo plazo, los equipos técnicos están más preocupados por los riesgos inmediatos, como los datos incorrectos o la filtración de información de entrenamiento. Esta desconexión puede dificultar la priorización efectiva de riesgos.
En sectores como la educación o la manufactura, donde las tasas de vulnerabilidades críticas son más altas, también se detecta una tendencia a sobreestimar la preparación real frente a los desafíos que plantea la IA.
El informe concluye con una llamada clara: “La seguridad ofensiva debe formar parte del ciclo de vida de las aplicaciones de IA desde el inicio”. Las recomendaciones incluyen:
- Integrar pruebas específicas para LLMs desde la fase de diseño.
- Fortalecer la validación de entradas y salidas.
- Controlar rigurosamente el acceso a datos y herramientas.
- Colaborar estrechamente entre equipos de seguridad y desarrollo de IA.
- Exigir garantías de seguridad a los proveedores del ecosistema IA.
En palabras de Cobalt: “La única IA que importa es una IA segura”.