La inteligencia artificial avanza a gran velocidad y con ella también crecen los riesgos. Un informe global de SailPoint revela que los agentes de IA, también llamados AI agents y cada vez más presentes en los entornos corporativos, se han convertido en una de las principales preocupaciones de los equipos de ciberseguridad.
ocho de cada diez empresas han visto cómo sus agentes realizaban acciones no previstas
Según el estudio, el 82 % de las compañías ya utiliza agentes de IA y más de la mitad reconoce que estos sistemas acceden a información sensible de manera habitual. El problema es que su comportamiento no siempre está bajo control: ocho de cada diez empresas han visto cómo sus agentes realizaban acciones no previstas, desde entrar en aplicaciones no autorizadas hasta compartir datos confidenciales o incluso revelar credenciales de acceso.
Con estos antecedentes, no sorprende que el 96 % de los responsables de tecnología encuestados considere a los agentes de IA una amenaza en aumento. Para dos de cada tres, se trata de un riesgo que ya está impactando en su día a día.
Falta de gobernanza
El informe también apunta a una falta clara de gobernanza. Aunque el 92 % de los profesionales reconoce que es crítico controlar el uso de estos agentes, solo el 44 % de las empresas cuenta con políticas específicas. Además, mientras los equipos de TI suelen tener cierta visibilidad, departamentos clave como cumplimiento, legal o la alta dirección apenas conocen qué datos están manejando estos sistemas.
Otro dato revelador: el 72 % de los encuestados cree que los agentes de IA suponen más riesgo que las identidades máquina tradicionales, ya que suelen requerir múltiples credenciales y privilegios más amplios, con procesos de autorización mucho más rápidos y menos estrictos que los que se aplican a los usuarios humanos.
Y la tendencia va a más: el 98 % de las organizaciones planea ampliar el despliegue de agentes de IA en los próximos 12 meses, lo que incrementará la exposición si no se aplican medidas de seguridad específicas.
Concluye el estudio señalando que los agentes de IA aportan valor, pero también abren una puerta peligrosa a accesos indebidos y filtraciones. La propuesta de SailPoint es apostar por soluciones de seguridad de identidad diseñadas para este nuevo tipo de usuarios digitales, capaces de limitar permisos, trazar cada acción y dar visibilidad a todos los equipos responsables de proteger el dato.
El 72 % de los encuestados cree que los agentes de IA suponen más riesgo que las identidades máquina tradicionales