La inteligencia artificial generativa (GenAI) se ha integrado en el día a día de muchas organizaciones, pero no sin consecuencias. El último informe de Harmonic Security, The AI Tightrope, correspondiente al primer trimestre de 2025, alerta del creciente riesgo que representa el uso no autorizado de herramientas de IA por parte de los empleados, fenómeno conocido como Shadow AI.
Sólo 3 de cada 10 empresas controla el uso interno de GenAI
El informe revela que el 55 % de los trabajadores ha utilizado herramientas GenAI sin el conocimiento o aprobación del área de TI o ciberseguridad, lo que supone un incremento del 26 % respecto al último trimestre de 2024. Este crecimiento se explica por la mayor accesibilidad a herramientas como ChatGPT, Claude, Gemini o Copilot, utilizadas en la mayoría de los incidentes analizados.
Además, el 73 % de las organizaciones ha identificado al menos un incidente relacionado con el uso no autorizado de GenAI; en el 17 % de los casos, se compartieron datos privados o sensibles con estos modelos; el 10 % de las empresas encuestadas detectó cargas de documentos confidenciales a plataformas públicas de IA. Entre los datos más críticos filtrados destacan nombres de clientes, direcciones de correo electrónico, números de identificación, información de proyectos estratégicos y código fuente propietario.
Las aplicaciones más utilizadas fueron:
- ChatGPT (40 % de los incidentes detectados)
- Microsoft Copilot (28 %)
- Google Gemini (14 %)
- Anthropic Claude (11 %)
Harmonic Security también ha observado un aumento en el uso de asistentes integrados en navegadores y plataformas SaaS, dificultando aún más su detección por parte de los sistemas tradicionales de seguridad.
La falta de visibilidad agrava el problema
Según el estudio, solo el 29 % de las empresas cuenta con soluciones técnicas capaces de identificar y mitigar estos riesgos. El 64 % está trabajando en políticas internas, pero el 41 % admite que aún no ha comenzado a formar a sus empleados sobre el uso responsable de GenAI.
Uno de los datos más preocupantes: en un análisis de 3.400 incidentes, se descubrió que el 30 % del uso de GenAI se realizaba desde dispositivos personales conectados a la red corporativa.
Harmonic Security propone una estrategia de tres frentes:
- Detección continua del uso de GenAI a nivel de endpoint y red.
- Clasificación automática del contenido compartido, con especial foco en datos confidenciales.
- Formación de los empleados sobre los riesgos del uso inadecuado de estas herramientas.
En palabras del informe: “No se trata de frenar la innovación, sino de establecer un marco seguro para que pueda desarrollarse sin poner en peligro la integridad de la organización”.