Superada la fase de euforia por los grandes modelos de lenguaje (LLM), el mercado avanza ahora hacia una etapa más sofisticada: la de los agentes de inteligencia artificial. Estas entidades autónomas, capaces de ejecutar tareas complejas, interactuar entre sistemas y tomar decisiones en tiempo real, están comenzando a integrarse en procesos críticos de negocio.
La madurez de la IA generativa lleva a que no importe tanto qué modelo usar, sino cómo controlar a los agentes que operan sobre esos modelos, con acceso directo a datos, aplicaciones y decisiones empresariales.
Superado el boom de los LLM, el mercado centra su atención en la seguridad y el control de los agentes inteligentes
Las razones del auge de estos agentes son tan económicas como tecnológicas. Los agentes de IA prometen automatización inteligente, reduciendo tiempos de ejecución y errores humanos en tareas de alto volumen. En ciberseguridad, ya se emplean para correlacionar alertas, analizar patrones de comportamiento o redactar informes técnicos de manera autónoma. En marketing, finanzas o atención al cliente, están orquestando flujos completos que antes requerían equipos humanos dedicados.
Las compañías que han sabido desplegarlos bajo control reportan incrementos notables en productividad. Según McKinsey & Company, en su infome “The Economic Potential of Generative AI: The Next Productivity Frontier”, los agentes podrían generar entre 2,6 y 4,4 billones de dólares anuales de impacto económico global, al permitir que cada empleado trabaje asistido por varios agentes digitales especializados. En esta “fuerza laboral híbrida”, la IA no sustituye tanto como amplifica las capacidades humanas.
Pero esta aceleración tiene un reverso: a mayor autonomía, mayor riesgo. La introducción de agentes que actúan sobre sistemas críticos plantea nuevos desafíos de seguridad, identidad y cumplimiento normativo.
Riesgos emergentes: el lado oscuro de la autonomía
Los expertos advierten que los agentes de IA pueden convertirse en un nuevo vector de ataque si no se controlan adecuadamente. En muchos casos, operan con permisos heredados o credenciales genéricas, sin límites claros sobre qué pueden o no hacer. Un agente mal configurado puede acceder a datos confidenciales, ejecutar comandos no autorizados o filtrar información sensible por error.
A esto se suma el fenómeno del shadow AI: agentes desplegados sin aprobación del área de seguridad, a menudo por equipos de negocio que buscan agilidad. Estos“agentes en la sombra” carecen de trazabilidad y supervisión, generando puntos ciegos en la red corporativa.
El problema se agrava cuando varios agentes interactúan entre sí. La orquestación autónoma puede derivar en cadenas de decisiones impredecibles o escaladas de privilegios entre sistemas. Y en el plano regulatorio, la falta de registros detallados impide demostrar cumplimiento frente a marcos como GDPR, NIS2 o DORA.
En palabras de un analista de Gartner, “cada agente de IA debería considerarse una identidad privilegiada con capacidades humanas, y por tanto, con el mismo nivel de riesgo”.
El mercado reacciona: seguridad para la era agentic
Consciente de estos desafíos, el mercado de la ciberseguridad ha empezado a moverse con rapidez. Los últimos meses han estado marcados por lanzamientos, adquisiciones y alianzas centradas en proteger esa capa “agentic” de la inteligencia artificial.
Silverfort, por ejemplo, presentó en junio su solución AI Agent Security, diseñada para gobernar y monitorizar agentes de IA como si fueran usuarios corporativos. La plataforma permite vincular cada agente a una identidad humana responsable, controlar sus permisos y aplicar políticas de acceso dinámicas. “Cada acción debe ser trazable hasta su origen”, defendió la compañía en su anuncio.
CrowdStrike también ha reforzado su apuesta por este terreno con nuevas capacidades en su plataforma Falcon. Su módulo Falcon Shield ofrece visibilidad sobre agentes desplegados en entornos SaaS y detecta comportamientos anómalos o intentos de abuso de privilegios. Además, tras la adquisición de Pangea Cyber, la empresa ha incorporado protección contra prompt injection y un marco de AI Detection and Response (AIDR).
Por su parte, Securiti, recientemente adquirida por Veeam, ha unificado seguridad, privacidad y cumplimiento en su Data Command Center. La plataforma incluye funciones específicas para agentes y copilotos de IA, integrando gestión de la postura de datos (DSPM), cortafuegos para LLM y políticas de gobernanza automatizadas.
En el ámbito de las identidades digitales, Keyfactor propone un enfoque basado en PKI: otorgar certificados únicos a cada agente para que sea verificable y auditable, con posibilidad de revocación inmediata si se detecta comportamiento anómalo. En su modelo, cada agente cuenta con una “raíz de confianza” que autentica sus acciones y permite detenerlo de forma controlada.
Otras operaciones recientes confirman esta tendencia: Check Point adquirió Lakera para blindar toda la pila de IA —desde los modelos hasta los agentes—, F5 compró CalypsoAI para integrar guardrails en sus soluciones de seguridad, y Cato Networks incorporó Aim Security para reforzar la protección de IA dentro de su nube SASE.
De la teoría al control: nuevas prácticas de defensa
La respuesta técnica se está consolidando en torno a varios ejes. El primero es la adopción de arquitecturas Zero Trust aplicadas a los agentes: ninguna acción se asume confiable, cada solicitud debe verificarse en contexto y con autenticación continua. Plataformas como la de Silverfort o Keyfactor ya aplican este principio en tiempo real, limitando privilegios y denegando cualquier acceso no justificado.
El segundo eje es la gestión avanzada de identidades no humanas. Las empresas comienzan a registrar y gobernar sus agentes igual que a sus empleados: quién los crea, qué sistemas tocan, qué credenciales utilizan y bajo qué límites operan. Este enfoque reduce el riesgo de fugas y facilita auditorías posteriores.
Firewalls de LLM, PKI y Zero Trust: las nuevas armas contra los riesgos agentic
También crecen las soluciones de firewalls para LLM, que inspeccionan instrucciones y respuestas para bloquear inyecciones maliciosas o filtraciones de datos. CrowdStrike y Securiti son ejemplos en este ámbito, con filtros semánticos que interceptan comportamientos sospechosos sin afectar la latencia.
Por último, la gobernanza de IA se convierte en pieza estructural. Las organizaciones están creando marcos internos de políticas, registro de agentes y controles de cumplimiento automatizado. Algunas integran funciones de red teaming continuo, simulando ataques contra sus propios agentes para detectar vulnerabilidades de prompt o errores de orquestación antes de que los exploten terceros.
La convergencia entre seguridad, datos e identidad está redefiniendo la forma en que las empresas entienden la confianza digital. Los agentes de IA, al operar con autonomía, requieren mecanismos de atestación y firma que demuestren qué hicieron, cuándo y bajo qué autorización.
En este sentido, la observabilidad —el seguimiento constante de decisiones, flujos y resultados— es ya una práctica prioritaria. Las organizaciones más avanzadas integran telemetría completa para reconstruir acciones y activar “kill switches” en caso de comportamiento no deseado.
Los fabricantes coinciden en que la autonomía no puede ser sinónimo de opacidad. La confianza se construye con visibilidad verificable.
Equilibrio entre innovación y control
El debate de fondo no es tecnológico, sino de modelo de gestión. La adopción masiva de agentes de IA puede ser el mayor acelerador de productividad desde la nube, pero solo será sostenible si se acompaña de estructuras de control equivalentes.
Los líderes en ciberseguridad lo resumen en una ecuación sencilla: autonomía sin gobernanza es riesgo; gobernanza sin autonomía es ineficiencia. La clave está en el equilibrio.















