La seguridad de la inteligencia artificial está entrando en una nueva fase. A medida que las organizaciones pasan de la experimentación a los despliegues en producción —con copilotos, asistentes y automatización de procesos—, el reto ya no es solo proteger modelos, sino entender qué datos los alimentan, cómo se utilizan y qué riesgos generan en tiempo real.
En este contexto, F5 y Forcepoint han anunciado una alianza en el marco de RSA 2026 para abordar la seguridad de la IA como un ciclo de vida completo, conectando la visibilidad sobre el dato con la protección en tiempo de ejecución.
El acuerdo combina las capacidades de descubrimiento y clasificación de datos del enfoque DSPM (Data Security Posture Management) de Forcepoint con las funcionalidades de protección en runtime de F5, integradas en su plataforma de entrega y seguridad de aplicaciones. El objetivo es cerrar una brecha cada vez más evidente en las organizaciones: la desconexión entre las políticas de seguridad y el comportamiento real de los sistemas de IA en producción.
la seguridad de la IA ya no puede abordarse como una extensión de la seguridad tradicional
Protección continua y visibilidad
Uno de los problemas más habituales en entornos de IA es que la gobernanza del dato, la seguridad de aplicaciones y los controles en ejecución evolucionan por separado. Esto dificulta tener una visión clara de dónde están los datos sensibles, cómo fluyen por los sistemas y qué exposición real existe.
La propuesta conjunta busca romper esos silos. Por un lado, Forcepoint aporta visibilidad sobre datos críticos en entornos cloud, SaaS, endpoints y plataformas corporativas, ayudando a determinar qué información puede utilizarse en iniciativas de IA y cuál requiere mayor control. Por otro, F5 introduce mecanismos de protección en tiempo de ejecución sobre APIs, aplicaciones y agentes, incluyendo capacidades de pruebas adversariales y “guardarraíles” para modelos de IA.
Este enfoque permite no solo identificar vulnerabilidades, sino también aplicar controles dinámicos, priorizar riesgos según casos de uso y supervisar comportamientos anómalos o usos indebidos a medida que los sistemas operan.
Más allá de la integración tecnológica, la alianza responde a un cambio de fondo en el mercado: la seguridad de la IA ya no puede abordarse como una extensión de la seguridad tradicional. La exposición crece con cada nuevo flujo automatizado, cada API y cada interacción con modelos.
En este sentido, la combinación de telemetría continua, validación de políticas y monitorización en runtime apunta a un modelo más cercano a la “garantía operativa” que a la simple prevención. Es decir, no basta con definir reglas: hay que verificar de forma constante que se cumplen en entornos dinámicos.
La iniciativa se enmarca, además, en un momento en el que los grandes proveedores están tratando de posicionarse en torno a la seguridad de la IA como una capa estructural —no solo como una funcionalidad adicional—, integrando datos, aplicaciones y operaciones bajo un mismo enfoque.
Seguridad de la IA sin rehacer la arquitectura
Otro de los mensajes clave del acuerdo es su enfoque pragmático. La propuesta permite a las organizaciones avanzar en la adopción de IA sin necesidad de rediseñar por completo su arquitectura de seguridad, algo especialmente relevante en entornos híbridos y complejos.















