Cada gran cambio tecnológico sigue un patrón familiar. La promesa es clara, la adopción se acelera, aumenta la presión competitiva y la seguridad se queda atrás.
Lo vimos con la nube pública, un concepto amplio y poco definido que significaba cosas distintas para diferentes organizaciones. Esto creó tanto oportunidades como inquietudes. Muchas empresas ya consolidadas no estaban preparadas para este escenario y se vieron sorprendidas, bien expuestas a competidores más ágiles o por iniciativas de shadow IT que operaban fuera del control central. El resultado fue un entorno marcado por el miedo y la ambigüedad con organizaciones adoptando una postura de seguridad reactiva mientras trataban de ponerse al día.
Actualmente, la inteligencia artificial está siguiendo la misma trayectoria, solo que más rápido, con mayor alcance y con mucho más en juego. La IA es una evolución en forma de olas, y malinterpretar esas olas es uno de los mayores riesgos que enfrentan las empresas en este momento.
Las tres olas de la IA: por qué son importantes para la seguridad
La primera ola fue la de la analítica predictiva: grandes volúmenes de datos, reconocimiento de patrones y aprendizaje automático operando en segundo plano. En muchas organizaciones, esta adopción pasó casi desapercibida para la alta dirección. Desde el punto de vista de seguridad, el foco estaba en la protección de datos.
La segunda ola, la IA generativa, lo cambió todo. Herramientas capaces de producir texto, código o imágenes similares a los creados por humanos situaron la IA en el centro del debate público y corporativo. Sin embargo, esta visibilidad también generó confusión. Bajo la etiqueta genérica de “IA” se agruparon tecnologías con perfiles de riesgo muy distintos.
Los equipos de seguridad respondieron de forma predecible centrándose en lo que era más visible. Según un informe reciente publicado por Zscaler titulado “The Ripple Effect: A Hallmark of Resilient Cybersecurity”, siete de cada diez organizaciones admiten tener visibilidad limitada sobre el uso de shadow AI por parte de los empleados, y el 56% cree que es probable que datos sensibles ya estén siendo expuestos a través de herramientas de IA no autorizadas.
La respuesta más habitual ha sido aplicar controles tácticos, adaptando herramientas existentes en lugar de replantear la seguridad desde sus principios fundamentales. Pero es la tercera ola, la IA agentiva, la que está cambiando de forma radicalel panorama de amenazas.
IA agentiva: cuando los sistemas actúan, no solo ayudan
Los sistemas de IA agentiva no solo analizan o generan contenido, sino que actúan. Se conectan directamente a sistemas empresariales, toman decisiones y activan flujos de trabajo.
La encuesta muestra que el 42% de las organizaciones ya está probando IA agentiva, y el 34% la ha implementado de alguna forma. Sin embargo, la mitad de esas implementaciones carecen de gobernanza sólida o de barreras de seguridad claras.
La IA predictiva y la generativa son fundamentalmente problemas de intercambio de datos. La IA agentiva es un problema de comportamiento e integridad de sistemas.
El punto ciego: control interno frente a realidad externa
Uno de los hallazgos más preocupantes de la investigación Ripple Effect es la confianza mal colocada. Las organizaciones creen estar seguras porque controlan lo que sucede dentro de sus propias paredes, mientras pasan por alto el creciente ecosistema de socios, plataformas y cadenas de suministro impulsadas por IA que existen fuera de ellas.
Este punto ciego es especialmente peligroso a medida que la IA agentiva empieza a operar a través de los límites organizativos. La IA “interna” de hoy puede convertirse rápidamente en la automatización interconectada de la cadena de suministro de mañana.
En el momento en que los sistemas agentivos comiencen a transferir tareas entre organizaciones, la superficie de ataque se multiplicará. Defenderse de amenazas impulsadas por IA no requiere abandonar los principios de seguridad existentes, sino replantearlos y evolucionarlos para que sigan siendo eficaces en un entorno radicalmente distinto.
Muchas de las barreras necesarias para proteger la IA agentiva evolucionan a partir de controles eficaces utilizados para gestionar usuarios humanos. La principal diferencia es la velocidad, la escala y la persistencia.
Aun así, los agentes de IA deben tratarse desde el punto de vista de seguridad como si fueran usuarios humanos, con controles basados en Zero Trust. Es decir, emitir identidades, definir accesos de privilegio mínimo, establecer líneas base de comportamiento y monitorizar continuamente anomalías.
De la seguridad reactiva a la resiliencia por diseño
La lección principal tanto de la adopción de la nube como de la evolución de la IA es que la seguridad reactiva no escala. El ritmo de la innovación supera constantemente a la gobernanza, la legislación y los ciclos de adquisición. Esperar a que los marcos regulatorios maduren o a que un incidente obligue a actuar ya no es viable.
La resiliencia debe diseñarse desde el principio, no añadirse después de una interrupción. Esto implica cambiar el enfoque desde soluciones puntuales hacia agilidad arquitectónica. Las organizaciones deben construir modelos de seguridad que se adapten a medida que evolucionan las capacidades de la IA, en lugar de romperse cada vez que lo hacen.
La pregunta ya no es si la IA transformará el panorama de amenazas porque ya lo ha hecho. La verdadera cuestión es si las empresas están preparadas para defenderse antes de que los efectos en cadena las alcancen.
Martyn Ditchburn, CTO in Residence en Zscaler















