Okta ha anunciado Agent Discovery que, integrada en su solución Okta for AI Agents, tiene la capacidad de detectar agentes desconocidos, descubrir riesgos de identidad asociados y limitar su potencial impacto antes de que se conviertan en un problema de seguridad o cumplimiento.
El movimiento se produce en un momento en el que muchas empresas están acelerando la adopción de herramientas de IA generativa y plataformas de creación de agentes sin que siempre exista una supervisión clara por parte de los equipos de TI o de seguridad. Según datos citados por la propia compañía, el 69% de las organizaciones sospechan o tienen evidencias de que empleados utilizan herramientas de GenAI prohibidas, y se prevé que antes de 2030 más del 40% de las empresas sufran incidentes de seguridad o cumplimiento directamente vinculados al uso de “shadow AI”.
Descubrir antes de que el riesgo escale
Si durante años el foco estuvo en el denominado shadow IT, ahora el reto se traslada a una capa menos visible: los agentes de IA que operan en la capa de aplicación, utilizan identidades no humanas y, en muchos casos, cuentan con privilegios amplios y de larga duración.
Agent Discovery está diseñada para detectar consentimientos OAuth y agentes creados en plataformas no autorizadas. Según detalla la compañía, la integración con el navegador —incluido Google Chrome— permite capturar señales en tiempo real y mapear la relación entre la aplicación cliente (la herramienta de IA) y la aplicación de recursos (la fuente de datos).
El objetivo es identificar conexiones en el momento en que se producen, antes de que evolucionen hacia integraciones más complejas vía API o conexiones entre aplicaciones. Además, la solución expone los permisos y alcances concedidos a cada agente, facilitando la detección de aplicaciones que han eludido revisiones formales.
Una vez identificados, estos agentes pueden registrarse como identidades gestionadas dentro de Okta, asignarles un responsable humano y aplicar políticas de seguridad coherentes con el resto del entorno corporativo.
Más allá de los agentes no autorizados
Okta anticipa que el riesgo no se limita a plataformas no sancionadas. También los entornos de IA/ML gestionados y los grandes modelos de lenguaje (LLM) considerados estratégicos —los llamados “crown-jewel environments”— requieren capacidades de descubrimiento y control continuos. La compañía prevé ampliar su alcance en esta dirección para convertir también estas identidades de alto riesgo en activos gobernados
En un mercado donde la conversación sobre identidad se consolida como nuevo perímetro de seguridad, el anuncio refuerza una tendencia clara: la protección de la IA ya no se limita al modelo o al dato, sino que pasa por controlar las identidades —humanas y no humanas— que la hacen operar. Y, en ese contexto, la visibilidad sobre el “shadow AI” se perfila como uno de los próximos grandes frentes para los equipos de ciberseguridad.
















