La inteligencia artificial generativa ha dejado de ser una tecnología emergente para convertirse en un elemento omnipresente en las organizaciones. Según el informe Cloud and Threat Report: Generative AI 2025 de Netskope, en apenas un año el volumen de datos enviados a aplicaciones GenAI se ha multiplicado por 30. Esta escalada trae consigo importantes desafíos en términos de seguridad, especialmente por el uso no autorizado de estas herramientas a través de Shadow IT.
Si en 2023 apenas un 1% de los usuarios empresariales interactuaban con apps GenAI, hoy ya lo hace el 4,9 %. Y aunque esta cifra puede parecer baja, el impacto es considerable: los datos que se suben a estas plataformas —en forma de prompts, archivos o código— han pasado de una media de 250 MB mensuales a 7,7 GB por organización. Para el 25 % más activo, ese volumen supera los 20 GB mensuales, y la previsión es que se duplique a lo largo de 2025.
Además, las organizaciones ya no sólo se enfrentan a aplicaciones explícitamente GenAI como ChatGPT o Gemini. El 98 % de las empresas utilizan aplicaciones que incorporan funciones de IA generativa, como LinkedIn, Moveworks o Lattice. Eso implica que tres de cada cuatro usuarios en las organizaciones están interactuando de forma directa o indirecta con GenAI.
El auge de la Shadow AI
Según el estudio de Netskope, el 72 % del uso de GenAI en entornos empresariales se produce mediante cuentas personales, fuera del control del departamento de TI. Aunque esta cifra ha mejorado respecto al 82 % de hace un año, sigue siendo un foco crítico de exposición. A este fenómeno Netskope lo denomina «Shadow AI», y recuerda que las fugas de datos más habituales afectan a: código fuente (49% de las violaciones); Datos regulados (sanitarios, financieros…); propiedad intelectual o contraseñas y claves.
La irrupción de la IA china DeepSeek-R1 en enero de 2025 sirve como caso ilustrativo. En cuestión de días, usuarios de hasta el 91% de las organizaciones intentaron acceder a la nueva app, aunque un 75% de las compañías bloqueó su uso desde el primer momento. Netskope destaca este modelo de actuación (“bloquear primero, evaluar después”) como una estrategia eficaz para reducir riesgos sin frenar la innovación.
Una alternativa a las plataformas cloud es ejecutar modelos GenAI de forma local. Esta tendencia ha crecido del uno por ciento al 54 % en un año, gracias a herramientas como Ollama o repositorios como Hugging Face. No obstante, el uso local introduce nuevos desafíos, como la seguridad de la cadena de suministro, la posible fuga de datos entrenados o los ataques por inyecciones de prompts y técnicas de jailbreak.
¿Cómo reducir riesgos sin frenar la adopción?
Más del 99 % de las organizaciones ya aplica algún tipo de política de control sobre GenAI. Las más comunes son, según los datos del estudio de Netskope:
- Bloqueo selectivo: 83 % de las empresas bloquean al menos cuatro apps, aunque el 25% llega a bloquear 20 o más. Se evita así el uso de herramientas no autorizadas que no aportan valor claro al negocio.
- Coaching en tiempo real: un 35% de las empresas ofrece advertencias y formación contextual en el momento del uso de GenAI, una estrategia cada vez más adoptada.
- Prevención de pérdida de datos (DLP): el 47% de las organizaciones inspecciona los datos enviados a estas aplicaciones para impedir la exposición de información sensible.
El informe cierra con una perspectiva desde los equipos de seguridad, que urge a las organizaciones a adoptar marcos de gobernanza como el NIST AI Risk Management Framework, OWASP Top 10 para LLMs o MITRE Atlas. Entre las recomendaciones mencionan los expertos de Netskope el inventariar las apps GenAI en uso; evaluar los riesgos de la IA local; aplicar políticas de bloqueo, DLP y formación de usuarios; monitorizar de forma continua el uso de GenAI y su evolución normativa, porque, como recuerda Netskope, «cada prompt es una oportunidad… y un riesgo potencial».