La IA se ha convertido en uno de los temas más comentados en el ámbito de la ciberseguridad. Su capacidad para transformar la forma en que las organizaciones detectan, responden y se protegen frente a las amenazas es incuestionable, pero también lo son las dudas que despierta sobre su control, fiabilidad y posible uso por parte de los atacantes.
Cuando hablamos con las organizaciones sobre la IA, solemos encontrar dos reacciones muy distintas. Algunas se inclinan hacia adelante, entusiasmados con las posibilidades: menos alertas, respuestas más rápidas e, incluso, la perspectiva de un SOC completamente automatizado algún día. Otras, en cambio, se echan hacia atrás, preocupadas por los riesgos: ¿significa esto que los atacantes podrán ejecutar miles de ataques simultáneamente y de forma automática?
La verdad es que ambas reacciones están justificadas.
Nos encontramos en los albores de un cambio hacia la IA agéntica. No se trata de lo mismo que los copilotos de IA actuales, que esperan instrucciones. La IA agéntica actúa como un operador independiente. Es capaz de planificar, adaptarse y ejecutar una secuencia de pasos por sí misma, ajustando su estrategia si encuentra resistencia.
Imagina la diferencia entre pedirle a un becario que te traiga un café y contar con un analista junior capaz de diseñar la agenda, reservar la sala, preparar la presentación y, aun así, traer el café sin necesidad de que nadie se lo pida. Ese salto es, precisamente, del que estamos hablando.
Etapa 1: Hoy (2025) – Herramientas más inteligentes, con el humano en el centro
Actualmente, la IA se utiliza para acelerar tareas específicas. Los atacantes la emplean para redactar correos de phishing convincentes, clonar voces con fines de ingeniería social o escanear vulnerabilidades en redes. Son potentes aceleradores, pero siempre hay un humano al mando. Los defensores usan la IA de forma muy similar: copilotos que resumen alertas, analizan registros o redactan informes. Las protecciones de endpoint, red, nube e identidad aportan su valor, pero la coordinación sigue siendo humana. A día de hoy, la lucha sigue liderada por las personas.
Etapa 2: Los próximos 1-2 años – Campañas autónomas
El verdadero cambio llegará cuando la IA agéntica sea capaz de ejecutar campañas de ataque completas. En lugar de limitarse a crear correos de phishing, gestionará todo el ciclo. Entregará el mensaje, capturará las credenciales, las probará en aplicaciones en la nube, se desplazará por la red, escalará privilegios y establecerá persistencia. Si se bloquea en una dirección, se reajustará al instante e intentará otra. No se cansará ni olvidará un paso.
Para los defensores, esto hará que las operaciones tradicionales y manuales de los SOC queden obsoletas. No podemos igualar en personal a un adversario que escala de forma infinita. La defensa impulsada por IA se convertirá en la norma. Los sistemas deberán aislar dispositivos, restablecer cuentas, bloquear flujos maliciosos y coordinar respuestas en cuestión de segundos, a menudo antes de que un humano vea siquiera la alerta. Los analistas pasarán a ser supervisores de la IA, aportando supervisión, estrategia y contexto, en lugar de apagar incendios en cada incidente.
Etapa 3: De tres a cinco años vista – Adversarios adaptativos
La siguiente evolución será la adaptabilidad. La IA agéntica aprenderá de los fallos y se autocorregirá. Si una credencial robada no funciona, pasará a explorar una posible mala configuración en la nube. Si un endpoint está parcheado, buscará oportunidades de movimiento lateral. Si un vector de ataque se bloquea, generará otro de inmediato. Imagina un adversario incansable que comprueba todas las puertas y ventanas al mismo tiempo, sin desanimarse y sin reducir el ritmo.
En este escenario, los defensores necesitarán una integración fluida entre endpoint, red, nube e identidad. Las señales deberán fluir de forma instantánea entre todas las capas. La defensa basada en IA necesitará disponer del contexto completo para anticipar el siguiente movimiento del atacante y bloquearlo antes de que ocurra. En este futuro, ningún ámbito de la seguridad podrá permitirse operar de forma aislada.
Lo que aún debe ocurrir para que llegue la IA agéntica
Todavía no hemos alcanzado ese punto, y es importante recordarlo. Para llegar a este nivel, el desarrollo de la IA aún enfrenta varios desafíos. En primer lugar, los modelos necesitan una memoria y persistencia más sólidas para gestionar objetivos a largo plazo sin desviarse. En segundo lugar, requieren una capacidad de razonamiento mejorada que les permita encadenar acciones en la secuencia correcta a través de distintos sistemas. En tercer lugar, necesitan mayor autonomía para interactuar de manera fiable con software, API y entornos sin depender de una supervisión constante. Por último, deben ser capaces de mejorar por sí mismos de forma segura, aprendiendo de los intentos fallidos sin caer en comportamientos impredecibles.
Estos avances ya se están investigando en laboratorios y el progreso se acelera. Hoy vemos demostraciones de agentes de IA capaces de programar, depurar y avanzar iterativamente hacia un objetivo. Traducir eso en campañas cibernéticas totalmente autónomas no es una idea descabellada, pero todavía requiere algunos avances clave.
Lo que inclinará la balanza
Que esta evolución favorezca a los atacantes o a los defensores dependerá de quién integre y despliegue la IA agéntica con mayor eficacia. Si los adversarios se adelantan, podríamos ver bandas de ransomware autónomas, fábricas de phishing impulsadas por IA y campañas de malware adaptativo operando a escala global. Si los defensores aprovechan la oportunidad, los SOC podrían transformarse en operaciones con prioridad en la IA, donde la experiencia humana se amplía de forma casi infinita gracias a la automatización.
Para los atacantes, la ventaja radicará en que la IA agéntica reducirá las barreras de entrada: campañas complejas que antes requerían equipos especializados podrán ser dirigidas por un único operador con las herramientas adecuadas. Para los defensores, el punto fuerte será la integración. Endpoint, red, nube e identidad deberán compartir señales en tiempo real. Ahí es donde las plataformas desempeñan un papel esencial: unir todas estas capas en un tejido defensivo coordinado, capaz de anticiparse y responder a amenazas con la velocidad y la coherencia que exige esta nueva era de la ciberseguridad.
Por qué los deepfakes no son toda la historia
Es fácil dejarse distraer por los deepfakes y las estafas impulsadas por IA. Son problemas reales, sí, pero no son el eje central. El verdadero cambio llegará cuando la IA agéntica empiece a conectarlo todo: robar identidades, explotar configuraciones erróneas en la nube, moverse lateralmente por las redes y mantenerse en los endpoints… todo a la vez, de forma automática y a gran velocidad. Centrarse únicamente en detectar vídeos o voces falsas es como vigilar la puerta principal mientras el atacante entra por la ventana lateral.
Dónde nos deja esto
Aún no hemos llegado al punto de ver hackers de IA autorreplicantes, pero la trayectoria es clara. La Etapa 1 ya está aquí. La Etapa 2 empieza a asomar en ataques experimentales. Y la Etapa 3 no tardará en llegar. La lección es que los defensores no pueden esperar. La automatización debe incorporarse ya a los procesos de detección y respuesta, y todas las capas de seguridad deben hablar el mismo idioma.
Porque la lucha del futuro no será de humanos contra humanos. Será de IA contra IA. Y las organizaciones que integren sus defensas y adopten herramientas de IA agéntica de forma responsable serán las que sigan en pie cuando cambien las reglas del juego.
Adam Winston, Cybersecurity CTO & CISO, WatchGuard Technologies