La entrada de los asistentes de inteligencia artificial en la empresa está abriendo un frente de riesgo que muchas organizaciones todavía no tienen bien acotado: cómo se usan —y hasta dónde— estas herramientas dentro del día a día. En ese escenario, Exabeam ha ampliado su plataforma de análisis de comportamiento para incorporar la actividad en OpenAI ChatGPT, Microsoft Copilot y Google Gemini.
El planteamiento es bastante directo: si no sabes cómo interactúan los usuarios con estos asistentes —qué preguntan, qué comparten o desde dónde acceden— es muy difícil establecer qué es normal y qué no.
Pero el cambio no se queda en el uso puntual de un chatbot. Como explica Steve Wilson, Chief AI and Product Officer (CAIPO) de Exabeam, los agentes están empezando a comportarse como auténticos “trabajadores digitales”: se autentican, acceden a sistemas y participan en procesos de negocio. Ahí es donde aparece el matiz importante. Si uno de estos agentes se ve comprometido, su actividad puede no levantar sospechas. No hay un acceso extraño ni un patrón claramente malicioso. Todo parece correcto… salvo por pequeños desvíos en el comportamiento.
Ese es el terreno en el que Exabeam intenta posicionarse: aplicar su modelo de análisis de comportamiento a este nuevo tipo de “identidades”, incorporando la actividad de los asistentes de IA como una señal más dentro de los procesos de detección y respuesta.
Cubrir una superficie de ataque que crece rápido
La ampliación introduce varias capacidades que, en conjunto, buscan dar visibilidad a lo que hasta ahora quedaba fuera del radar. Desde la creación de perfiles de comportamiento —con métricas como uso de tokens o llamadas a APIs— hasta la detección de abusos sobre prompts o modelos.
También se añade control sobre identidades y privilegios de los agentes, seguimiento de su ciclo de vida completo y alineación con el Top 10 de OWASP para IA agentica, un marco que empieza a servir de referencia en este ámbito.
Según el CEO de la compañía, Pete Harteveld, la idea es clara: permitir que las organizaciones adopten IA sin perder el control ni la trazabilidad sobre lo que ocurre dentro.
El movimiento encaja con una tendencia más amplia. La conversación en seguridad está pasando de proteger modelos o datos a entender cómo se comportan sistemas cada vez más autónomos.
En paralelo, la adopción de herramientas como Copilot o ChatGPT dentro de las empresas sigue creciendo, muchas veces sin un control real. De ahí que conceptos como “shadow AI” o identidades no humanas estén ganando peso en la agenda de los equipos de seguridad.
En este contexto, el reto ya no es solo tener más visibilidad, sino interpretar mejor lo que está pasando. Y el análisis de comportamiento, que durante años se ha centrado en los usuarios, empieza ahora a aplicarse a un nuevo protagonista: los agentes de IA que ya forman parte de la operativa diaria.
















