Cuando pienso en la dirección que está tomando la IA en las organizaciones, considero que en 2026 debemos tomar el control.
Las amenazas de la IA han evolucionado más rápido en los últimos 12 meses de lo que la mayoría de las organizaciones pueden procesar y apenas hay tiempo para ponerse al día. No nos estamos preparando para un futuro mundo agéntico; simplemente ya estamos en él. Los agentes actúan hoy en día dentro de los entornos (algunos construidos por nuestros propios equipos y otros operados o manipulados por los atacantes) y, además, toman decisiones a gran velocidad y a gran escala. Apenas hemos empezado a comprender la naturaleza de estas amenazas. Además, estamos intentando gestionar este tipo de amenazas con un guion diseñado para una era pre agéntica.
2026 tiene que ser el año en que sustituyamos ese «manual» por algo que recoja cómo se comportan realmente los agentes (tanto los nuestros como los de los actores de las amenazas), cómo fallan y a qué pueden acceder. Es hora de construir los cimientos de la seguridad adecuados para operar en un mundo dirigido por agentes.
Estas son las tres prioridades que, en mi opinión, deberían guiar a los CISO en este punto de inflexión.
Prioridad 1: construir un modelo de seguridad para la era de los agentes.
Los agentes ya operan dentro de las organizaciones, a menudo en la sombra, y la mayoría de los equipos aún no saben dónde ni cómo se utiliza la IA agéntica. Esto tiene que cambiar. Un modelo de seguridad para la economía de los agentes comienza con el conocimiento de cada agente en tu entorno: qué puede acceder, bajo qué identidad funciona y qué decisiones puede tomar. Si no se dispone de este inventario, las empresas no pueden proteger nada.
Sin embargo, en el momento en que se dispone de esa visibilidad, surge el siguiente problema: la velocidad. Los agentes se crean, modifican y despliegan a la velocidad del desarrollador, normalmente en minutos, no en meses. Esto significa que la seguridad ya no puede quedarse atrás en el proceso de desarrollo. Los equipos de seguridad necesitan controles que se conecten directamente al modo en que los agentes se crean, prueban y despliegan.
En el mundo de los agentes, quedarse atrás en la innovación simplemente no funciona.
Las estructuras de gestión tradicionales tampoco funcionan hoy en día, ya que los comités de dirección pueden ser demasiado lentos a la hora de reaccionar. Por eso, los equipos de seguridad también necesitan una gobernanza automatizada, integrada y continua que incluya la aplicación de políticas en tiempo real y una supervisión que detecte las desviaciones del comportamiento en el momento en que se produzcan.
Si no definimos ahora este modelo de seguridad para los sistemas agénticos, acabaremos perdiendo la batalla.
Prioridad 2: crear un modelo de respuesta a incidentes provocados por agentes.
Tradicionalmente, casi todas las violaciones de la seguridad han implicado ingeniería social y un componente humano en la «fatídica» secuencia. Por eso, la respuesta a incidentes (RI) se ha construido en torno a los comportamientos humanos: una persona que hace clic en algo, accede a algo o realiza un cambio que no debería haber realizado.
Sin embargo, cuando es un agente quien realiza la acción, ya sea por seguir una instrucción errónea o por malinterpretar el contexto, ese modelo se rompe. Las empresas necesitan un enfoque de respuesta a incidentes (RI) que trate a los agentes como actores autónomos y no como extensiones de un usuario.
Actualmente, ninguna organización cuenta con un manual de actuación para esta cuestión, por lo que es necesario empezar por definir qué pruebas son relevantes en una investigación de agentes: la cadena de instrucciones del agente, los resultados del modelo que recibió, la ventana de contexto en la que actuó, los permisos que utilizó y los límites de decisión que cruzó. Si no documentamos todo esto, no podremos explicar por qué un agente se comportó como lo hizo.
Además, el fracaso también tiene un aspecto diferente para los agentes. Los agentes pueden dar ciertos pasos inesperados, actuar en un contexto incompleto, seguir las instrucciones de un atacante, desviarse de su objetivo o encadenar acciones de formas que ningún ser humano haría.
Estos comportamientos crean una nueva categoría de incidentes que los equipos de IR nunca habían tenido que analizar.
Por tanto, en 2026, los directores de seguridad de la información (CISO) deben replantearse qué es lo «bueno» en lo que respecta a la respuesta ante incidentes. Esto incluye analizar qué supuestos heredados ya no se aplican, cómo debe reconstruirse el comportamiento de los agentes y cómo deben clasificar los equipos los incidentes en los que la intervención es generada por máquinas y no por humanos.
No tenemos un manual de instrucciones para incidentes agénticos, pero no podemos esperar a que aparezca. Tenemos que empezar a crearlo ya.
Prioridad 3: incorporar la capacidad de “Red Teaming” de IA.
Los equipos de seguridad no pueden improvisar su camino hasta llegar a comprender la forma de pensar de una IA malintencionada. La mayoría de los equipos defensivos están formados para proteger los sistemas, no para pensar como atacantes que se pasan el tiempo averiguando cómo hacer un mal uso de los agentes, cómo aprovechar las órdenes o cómo hacer que los sistemas no funcionen según lo previsto.
Por tanto, si una empresa no cuenta con profesionales con experiencia real en IA ofensiva, debe trabajar con un colaborador que sí la tenga. Los socios con esta competencia adoptan un enfoque diferente al de los equipos de seguridad tradicionales. Se dedican a probar modelos, a sondear a los agentes con métodos que los defensores no utilizarían de forma natural y a descubrir comportamientos que solo aparecen bajo la presión del adversario. Entienden cómo piensan los atacantes porque practican esas técnicas todos los días de forma segura, deliberada y en entornos controlados.
El red-teaming de IA también debe trabajar codo con codo con el IR. Si las organizaciones tienen dificultades para entender lo que ha hecho un agente, la respuesta es simular fallos reales: infiltraciones no deseadas, instrucciones dañinas, uso indebido de privilegios, desviación del alcance o agentes que realizan acciones que el equipo nunca previó. Los equipos de seguridad deberían realizar pruebas de estrés de estos escenarios con regularidad, porque, aunque aún no hemos vivido este tipo de situaciones, están al caer.
Y esto no debe ser un ejercicio aislado. Las empresas deben construirlo como un mecanismo permanente, una forma continua de probar cómo se comportan los agentes, cómo fallan y cómo se mantienen las defensas cuando las cosas van mal.
De la concienciación a la acción
La era agéntica ya está transformando la forma en que se perpetran los ataques, cómo se comportan los sistemas y qué se espera que controlen los equipos de seguridad. Las empresas más resistentes serán aquellas que dejen de esperar a que haya un poco más de certidumbre y comiencen a desarrollar estas competencias de inmediato.
Las empresas necesitan un modelo de seguridad que proporcione a los CISO una visibilidad real de los agentes, un enfoque de IR que pueda gestionar comportamientos que nunca antes habíamos investigado y un Red-Teaming de IA que ponga de manifiesto los puntos débiles mucho antes de que surjan en la producción.
Nada de esto es opcional. Estas son las bases que determinarán si los equipos de seguridad se adelantan a lo que está por venir o sufren permanentemente las consecuencias. 2026 es el momento de pasar de la concienciación a la acción.
James Robinson, CISO, Netskope
















