A pesar de la creciente complejidad del panorama de amenazas, los riesgos internos siguen siendo una de las principales preocupaciones para los responsables de seguridad. La llegada de la IA agéntica podría intensificar este problema al introducir nuevos actores en los entornos corporativos: agentes autónomos con acceso a sistemas y datos sensibles. Según Proofpoint, los copilotos autónomos podrían llegar a superar a las personas como origen de filtraciones de información durante este año.
Muchas organizaciones ya están adoptando agentes capaces de interactuar con múltiples aplicaciones o generar código. Sin embargo, si estas tecnologías se configuran de forma incorrecta pueden activar procesos que expongan datos sensibles o debiliten los controles de seguridad. En escenarios adversos, incluso podrían ser manipuladas para ejecutar acciones no autorizadas.
Los programas tradicionales de gestión de amenazas internas se han centrado en el comportamiento humano y en el control de accesos a herramientas corporativas como el correo electrónico, la nube o las plataformas de colaboración. La IA introduce nuevos vectores de riesgo y obliga a considerar a los agentes autónomos como identidades dentro del sistema, cuyos privilegios y comportamientos también deben supervisarse.
En entornos donde humanos y agentes de IA trabajan conjuntamente aumentan los comportamientos accidentales o imprudentes. Los asistentes basados en grandes modelos de lenguaje —como Copilot, ChatGPT o Gemini— pueden facilitar la exposición involuntaria de información cuando los usuarios comparten datos sensibles en sus consultas.
Además, los incidentes internos suelen aumentar en periodos de cambios organizativos, como fusiones, adquisiciones o rotación de talento, que generan modelos de acceso complejos y responsabilidades poco claras sobre los sistemas. En ese contexto, la IA también puede facilitar actividades de espionaje corporativo al ayudar a investigar competidores o simular comunicaciones legítimas.
Al mismo tiempo, la inteligencia artificial puede mejorar la detección de estos riesgos. Según Proofpoint, su capacidad para correlacionar señales como accesos inusuales o comportamientos anómalos permitirá identificar antes los incidentes relevantes y priorizar la respuesta.
En este contexto, las organizaciones empiezan a integrar señales de identidad, comportamiento y eventos técnicos en una visión unificada del riesgo. Junto con políticas claras de uso y una gobernanza coordinada, este enfoque será clave para gestionar los riesgos internos en entornos donde humanos y agentes de IA comparten cada vez más tareas.
















