La inteligencia artificial está transformando la seguridad digital a gran velocidad, actuando al mismo tiempo como aliada y como nueva fuente de riesgo. Así lo refleja el informe State of AI Security Report 1H 2025 de Trend Micro, que analiza cómo esta tecnología está cambiando las reglas del juego tanto para los equipos defensivos como para los ciberdelincuentes.
Según el estudio, el 36 % de los deepfakes detectados ya se utilizan en intentos de fraude. Estos contenidos manipulados mediante IA se están convirtiendo en un recurso habitual para engañar a empleados, clientes o socios comerciales mediante vídeos o audios falsificados. En paralelo, el uso de identidades generadas artificialmente está facilitando el fraude con criptomonedas y la evasión de controles de verificación electrónica.
El informe también destaca el auge del modelo “jailbreak-as-a-service”, que permite eliminar las limitaciones éticas de los modelos comerciales de IA y generar respuestas sin restricciones. Esta práctica está dando lugar a un ecosistema en el que las herramientas de inteligencia artificial se reutilizan para crear software malicioso o automatizar ataques.
Amenazas crecientes y servidores desprotegidos
La superficie de ataque vinculada a la IA sigue ampliándose. Trend Micro ha identificado más de 12.000 servidores de inteligencia artificial expuestos públicamente, muchos de ellos sin autenticación ni medidas de seguridad básicas. Esta falta de protección podría facilitar el robo de datos, la manipulación de modelos o incluso el secuestro de infraestructuras a través de ransomware.
La preocupación por este nuevo escenario es compartida por la mayoría de los profesionales del sector: el 93 % de los responsables de seguridad consultados espera enfrentarse de forma cotidiana a ataques impulsados por IA. Y, según el World Economic Forum, dos tercios de las organizaciones consideran que la inteligencia artificial afectará significativamente a su estrategia de ciberseguridad en los próximos años.
Hacia una gestión responsable de los datos
“Todavía hay muchas incógnitas sobre cómo deben utilizarse los modelos de IA y qué implicaciones tiene el manejo de datos personales”, señala José de la Cruz, director técnico de Trend Micro Iberia. “La clave está en definir claramente qué datos se usan, dónde residen y qué ocurre con ellos dentro de los modelos de IA. Sin una gestión responsable y segura, las empresas quedan expuestas a nuevos vectores de ataque”.
Trend Micro recomienda adoptar un enfoque proactivo y de confianza cero, que combine el inventario actualizado del software con evaluaciones de seguridad periódicas y formación continua para los empleados. La compañía subraya la importancia de no confiar ciegamente en ningún contenido digital, especialmente imágenes, vídeos o audios generados mediante IA, y de fortalecer las políticas internas de protección del dato y detección temprana de amenazas.