La inteligencia artificial agéntica, esos modelos capaces de razonar, planificar y actuar de forma autónoma, está marcando una nueva etapa en la evolución tecnológica de las organizaciones. Su impacto en ciberseguridad es especialmente relevante. Y es que, si por un lado mejora la detección de amenazas y optimiza la operativa de los centros de seguridad (SOC), por otro amplía la superficie de exposición y obliga a replantear los marcos de control y resiliencia.
Compañías como OpenAI, Google o Anthropic han desarrollado modelos con capacidad de análisis contextual y ejecución autónoma. Integrados con nuevos marcos como el protocolo MCP (Model Context Protocol), estos sistemas pueden interactuar directamente con aplicaciones corporativas —ERP, CRM o lagos de datos— y ejecutar procesos complejos con escasa intervención humana.
Consultoras como McKinsey & Company apuntan que la IA agéntica es una de las tendencias con mayor potencial de crecimiento, por su capacidad para transformar la productividad y la toma de decisiones. Sin embargo, ese mismo potencial implica un aumento del riesgo si no se gestiona de forma adecuada.
Amenazas más ágiles y sofisticadas
Desde Commvault advierten que la IA agéntica también está elevando el nivel de sofisticación de los ataques. Entre los principales riesgos destacan:
- Phishing y ransomware automatizados: agentes capaces de detectar vulnerabilidades y adaptar sus tácticas en tiempo real.
- Ataques autónomos documentados: un informe de inteligencia de amenazas de Anthropic describió el uso de su plataforma Claude Code para desarrollar un sistema automatizado de robo de datos dirigido a 17 organizaciones, entre ellas hospitales y entidades públicas.
- Mayor exposición en la cadena de suministro: la integración de múltiples API y complementos incrementa las dependencias y los puntos críticos.
- Manipulación adversaria: riesgos como la inyección de prompts, el envenenamiento de modelos o la alteración de datos.
- Proliferación de identidades de máquina: cada agente requiere credenciales y permisos específicos, lo que añade complejidad a la gestión de accesos.
A este escenario se suma el fenómeno “Shadow AI”. Un estudio de KPMG indica que el 57 % de los empleados no informa del uso de herramientas de IA, lo que puede generar problemas operativos y reputacionales.
Cuatro prioridades para reforzar la resiliencia
Según Pranay Ahlawat, director de Tecnología e IA de Commvault, la adopción segura de la IA agéntica exige reforzar varios pilares:
- Visibilidad y control: mantener trazabilidad sobre las acciones de los agentes, especialmente en entornos críticos.
- Capacidad de reversión y contención: establecer mecanismos que permitan corregir decisiones automatizadas o limitar su impacto.
- Protección de datos orientada a la resiliencia: adaptar las estrategias de copia de seguridad y recuperación para cubrir cargas de trabajo impulsadas por IA.
- Gobernanza y capacitación: definir responsabilidades claras, alinearse con marcos como NIST, ISO, MITRE u OWASP y formar a los equipos para trabajar con estos sistemas.
“La resiliencia de la IA debe ser proactiva, no un añadido”, afirma Ahlawat. “A medida que la inteligencia artificial se integra en la infraestructura empresarial, la seguridad tiene que evolucionar al mismo ritmo, incorporando gobernanza, pruebas y recuperación como principios fundamentales”.
El directivo subraya que la IA agéntica puede actuar como multiplicador tanto de la defensa como del riesgo. “Las organizaciones que inviertan en gobernanza, resiliencia y capacitación convertirán estos agentes en aliados estratégicos. Las que la utilicen solo como automatización incrementarán su exposición. En esta nueva etapa, la ventaja competitiva dependerá de la capacidad de integrar la tecnología con control y responsabilidad”.
















