La inteligencia artificial generativa ha acelerado su adopción en entornos empresariales, transformando desde la atención al cliente hasta el desarrollo de software. Pero este avance también ha ampliado el mapa de amenazas: ataques adversariales, robo de modelos, inyección de instrucciones maliciosas o fuga de datos son ya riesgos reales. Proteger la IA —y protegerse con IA— es hoy una prioridad crítica en ciberseguridad.
Los vectores de ataque son múltiples. La manipulación de prompts (prompt injection), el envenenamiento de datos (data poisoning), el model stealing o el model inversion, que permite extraer datos sensibles de modelos entrenados, exigen nuevas estrategias defensivas. Incluso los modelos de código abierto han sido utilizados como vehículo para insertar código malicioso.
Para hacer frente a estos desafíos, surgen soluciones como la monitorización del comportamiento del modelo (ML observability), técnicas de robustez ante ataques adversariales o medidas como el aprendizaje federado y el cifrado homomórfico. La trazabilidad mediante audit logs y watermarking, así como la aplicación del enfoque Zero Trust, son hoy esenciales en entornos donde los modelos se consumen a través de APIs o integraciones externas.
Una de las grandes novedades del año es la irrupción de los agentes de IA, capaces de actuar de forma autónoma y persistente. Aunque suponen un avance operativo, también representan un nuevo tipo de riesgo si son manipulados o comprometidos. Su seguridad requiere marcos de gobernanza y control adaptados a esta nueva clase de entidades digitales.
La RSA Conference 2025 ha confirmado esta preocupación. Cisco, Microsoft, IBM, OpenAI y otras muchas compañías han presentado soluciones que refuerzan la protección de modelos y agentes. Destacan plataformas como AI Defense (Cisco) o Vertex AI (Google), y nuevas herramientas de startups centradas en riesgos como el model stealing o la validación segura de modelos generativos.
En paralelo, la regulación también avanza. El Reglamento Europeo de IA, el marco del NIST estadounidense o las recomendaciones de ENISA definen el camino hacia una IA segura, ética y transparente.
Descarga el reportaje completo para conocer con detalle los vectores de ataque, los mecanismos defensivos más avanzados, los marcos regulatorios emergentes y las soluciones tecnológicas presentadas por los líderes del sector en seguridad para la IA.