La inteligencia artificial (IA) y el aprendizaje automático (ML) se han consolidado como herramientas clave para impulsar la innovación y la eficiencia en las empresas. Sin embargo, su adopción masiva también ha dado lugar a un nuevo abanico de amenazas que desafían a los equipos de ciberseguridad. Así lo confirma el Informe de Seguridad de IA 2025 de ThreatLabz, el equipo de investigación de amenazas de Zscaler, que analiza más de 536.500 millones de transacciones de IA/ML registradas entre febrero y diciembre de 2024.
El crecimiento es vertiginoso: el volumen de transacciones de aplicaciones de IA se multiplicó por 36 respecto al año anterior. Herramientas como ChatGPT, Grammarly, Microsoft Copilot y DeepL lideran la lista, dominando tanto en volumen de uso como en cantidad de datos intercambiados. Sólo ChatGPT concentró el 45,2 % de las transacciones conocidas, transfiriendo más de 1.400 TB de datos empresariales.
Pero este uso intensivo también ha disparado las alarmas. Según el informe, el 59,9 % de todas las transacciones de IA fueron bloqueadas por las propias organizaciones debido a riesgos asociados con la privacidad, cumplimiento normativo y fuga de datos. Aplicaciones de productividad, generación de contenido y traducción figuran entre las más utilizadas… y también entre las más restringidas.
Riesgos reales, amenazas emergentes
Zscaler destaca que herramientas como ChatGPT o Microsoft Copilot han sido protagonistas de violaciones de políticas de prevención de pérdida de datos (DLP). Estas incluyen filtraciones de números de la seguridad social, historiales médicos, código fuente o registros fiscales. Más de 2,9 millones de incidentes DLP estuvieron relacionados con ChatGPT, seguida de Wordtune y Copilot.
El informe también pone el foco en el uso de IA por parte de cibercriminales. Desde deepfakes ultrarrealistas generados en segundos hasta agentes autónomos capaces de ejecutar ataques sin intervención humana, la IA está alimentando una nueva generación de amenazas. Plataformas como DeepSeek —un modelo de IA open source procedente de China— representan un arma de doble filo: democratizan el acceso a LLM avanzados, pero con escasos controles de seguridad, lo que facilita su uso por actores maliciosos.
IA por sectores: del entusiasmo financiero al riesgo sanitario
El estudio de Zscaler revela una clara segmentación por sectores. Finanzas y seguros lideran la adopción (28,4 %), seguidos por manufactura (21,6 %) y servicios (18,5 %). Sin embargo, el sector sanitario, a pesar de manejar información altamente sensible, apenas bloquea el 10,8% de sus transacciones de IA. Este dato preocupa, ya que el sector ha experimentado un notable crecimiento en el uso de estas herramientas, especialmente para apoyo diagnóstico y documentación médica.
En el otro extremo, el sector público empieza a explorar las posibilidades de la IA, centrándose en aplicaciones como Grammarly o Copilot para mejorar la comunicación institucional y la eficiencia administrativa, pero aún con medidas de seguridad limitadas.
IA: amenaza y defensa al mismo tiempo
Paradójicamente, mientras la IA es utilizada para perpetrar ataques más sofisticados, también se ha convertido en un aliado clave para defenderse de ellos. Soluciones de ciberseguridad basadas en IA permiten detectar anomalías de comportamiento, prevenir fugas de datos en tiempo real y automatizar respuestas ante incidentes.
Zscaler recomienda a las organizaciones implementar marcos de confianza cero (Zero Trust), visibilidad total sobre el uso de herramientas de IA, políticas de acceso granular, soluciones DLP efectivas y un registro detallado de interacciones con IA. El uso sin control —lo que el informe denomina “Shadow AI”— representa uno de los mayores riesgos a corto plazo.
Regulación y futuro: ¿hacia un uso responsable?
El informe también repasa el contexto regulatorio global. Mientras la UE ha aprobado su pionera Ley de Inteligencia Artificial, clasificando el riesgo de los sistemas de IA y exigiendo transparencia, Estados Unidos carece todavía de una legislación federal específica, aunque ha anunciado grandes inversiones como el proyecto Stargate, dotado con 500.000 millones de dólares.
De cara a 2026, ThreatLabz anticipa una escalada de las estafas con deepfakes, el auge de IA autónoma maliciosa, y la proliferación de falsas plataformas de IA como tapadera para distribuir malware. La conclusión es clara: la IA ha llegado para quedarse, pero asegurar su uso será tan importante como innovar con ella.