La adopción acelerada de la IA generativa multiplica los riesgos de exposición del dato y redefine el panorama de amenazas para 2026. Esta es una de las principales conclusiones del Cloud and Threat Report 2026 de Netskope, que analiza la evolución de las amenazas durante 2025 y anticipa un escenario marcado por la superposición de riesgos: a los problemas clásicos de phishing y malware se suman ahora nuevas superficies de ataque vinculadas al uso masivo —y en muchos casos no gobernado— de la inteligencia artificial.
Según el informe, el uso de aplicaciones SaaS de IA generativa se ha disparado en el último año. El número de usuarios se ha triplicado y el volumen de interacciones se ha multiplicado por seis, impulsado en gran medida por el fenómeno del shadow AI, es decir, el uso de herramientas de IA con cuentas personales o fuera del control de TI. Aunque el uso de cuentas corporativas va en aumento, el 47 % de los usuarios sigue recurriendo a aplicaciones personales, lo que incrementa de forma significativa el riesgo de fuga de información sensible.
Esta tendencia tiene un impacto directo en la seguridad del dato. Según el estudio, los incidentes de violación de políticas asociados a la IA generativa se han duplicado en un año, con una media de 223 incidentes mensuales por organización. El código fuente, los datos regulados y la propiedad intelectual concentran la mayoría de estos casos, un indicador claro de que muchos empleados utilizan estas herramientas para resumir, analizar o generar contenidos a partir de información crítica sin ser plenamente conscientes de las implicaciones de seguridad.
Gemini gana terreno
El informe también apunta a un cambio en el mapa de proveedores de IA. Aunque ChatGPT sigue siendo la herramienta más utilizada, Google Gemini ha ganado terreno de forma acelerada y podría convertirse en la plataforma SaaS de IA más usada en la primera mitad de 2026. Microsoft 365 Copilot, por su parte, consolida su presencia gracias a su integración directa en el entorno de trabajo.
Más allá de la IA generativa tradicional, Netskope alerta sobre el auge de la llamada agentic AI: sistemas capaces de ejecutar acciones autónomas y acceder a recursos internos y externos. Aunque estas arquitecturas prometen eficiencia y automatización, también amplían de forma notable la superficie de ataque y el riesgo interno, ya que un agente mal configurado o comprometido puede acelerar la exfiltración de datos o el abuso de privilegios.
Las amenazas de siempre
En paralelo, persisten amenazas bien conocidas. El phishing sigue siendo uno de los principales vectores de ataque, con 87 clics mensuales por cada 10.000 usuarios, y Microsoft se mantiene como la marca más suplantada. El malware, por su parte, continúa infiltrándose a través de canales de confianza como GitHub, OneDrive o Google Drive, mientras crecen los ataques a la cadena de suministro y el uso de técnicas más sofisticadas, incluidas aquellas asistidas por modelos de lenguaje.
De cara a 2026, el informe concluye que las organizaciones deberán asumir un modelo de riesgo acumulativo, y que la IA no sustituye a las amenazas existentes, sino que las amplifica. En este contexto, Netskope subraya la necesidad de reforzar la visibilidad, las políticas de prevención de pérdida de datos (DLP) y los controles específicos para entornos de IA, con el objetivo de equilibrar innovación y seguridad en un escenario cada vez más complejo.
















