Los datos, el nuevo oro… y su fuga, el nuevo riesgo
La historia de la protección del dato no empezó con la inteligencia artificial, pero su llegada ha cambiado todas las reglas. Mucho antes de que los grandes modelos de lenguaje entraran en escena, las organizaciones ya se enfrentaban al reto de controlar qué información salía de sus sistemas, cómo y por qué. En ese contexto nacieron las soluciones de Data Loss Prevention (DLP), diseñadas para actuar como guardianes silenciosos del conocimiento corporativo, capaces de detectar y frenar la fuga de datos sensibles allá donde se produzca: en el correo electrónico, en la red, en la nube o en el puesto de trabajo.
Durante años, estas soluciones han operado sobre los principales canales de comunicación y almacenamiento digital, inspeccionando archivos, mensajes y transmisiones en busca de patrones reconocibles: números de tarjetas, historiales médicos, contratos o documentación interna. Su capacidad para aplicar reglas basadas en contenido, contexto y usuarios las convirtió en aliadas clave del cumplimiento normativo y la protección frente a amenazas internas.
Sin embargo, la revolución de la IA generativa ha sacudido los cimientos sobre los que se apoyaba esta protección. Porque si el dato deja de ser estructurado y se disfraza en forma de mensaje, sugerencia o pregunta, ¿cómo evitar que se filtre sin que nadie lo advierta?
Un mercado en evolución
la capacidad de entender el contexto es tan importante como detectar el contenido.
Lo que cambia con los grandes modelos de lenguaje (LLM) es la interfaz: ya no hablamos de archivos adjuntos, sino de texto libre que el usuario introduce en una conversación con una IA. Esa capa, aparentemente inocente, puede convertirse en una fuente de filtraciones no intencionadas de primer orden.
Los incidentes ya han comenzado a documentarse. Samsung, por ejemplo, reconoció en 2023 que varios empleados introdujeron código propietario en ChatGPT para resolver tareas técnicas. Otras compañías como JPMorgan, Amazon, Apple o Deutsche Bank han optado por restringir o vetar temporalmente el uso de herramientas de IA generativa por riesgo de exposición.
Estas situaciones desafían los enfoques tradicionales de DLP, que no contemplaban el análisis semántico profundo ni ofrecían visibilidad sobre este tipo de servicios. La pregunta ya no es si estas herramientas son útiles, sino cómo deben transformarse para seguir siéndolo.
El crecimiento del mercado de DLP refleja tanto su madurez como la presión por adaptarse. A los más de 7.500 millones de dólares proyectados para 2028 se suman análisis como el de Gartner, que destacan la consolidación de estrategias convergentes: DLP + CASB + ZTNA + UEBA.
El modelo tradicional de políticas estáticas da paso a enfoques más inteligentes, dinámicos y centrados en el usuario, donde la capacidad de entender el contexto es tan importante como detectar el contenido. Este cambio se acelera con la adopción de nuevas herramientas colaborativas y la irrupción de la IA generativa en la operativa empresarial.
Principales actores y estrategias
La evolución del DLP no es homogénea, pero sí estratégica. Los principales fabricantes están adaptando sus soluciones para ofrecer visibilidad sobre el uso de IA, proteger entornos SaaS y cloud, y reforzar el análisis contextual del comportamiento del usuario. Lo que antes era un mercado centrado en la detección de patrones ahora gira en torno a comprensión semántica, clasificación dinámica y respuesta en tiempo real.
Symantec (Broadcom) ha sido pionera en incorporar protección específica frente a IA generativa. Su plataforma DLP Cloud ofrece visibilidad sobre prompts introducidos en herramientas como ChatGPT, combinando análisis contextual, integración con Web Security y control granular sobre apps SaaS.
Microsoft, a través de Purview, ha ampliado sus políticas para controlar el uso de Copilot, aplicando restricciones en función del rol del usuario, el tipo de dato y el nivel de confidencialidad. La integración con el resto del ecosistema Microsoft refuerza su alcance.
Forcepoint, con su plataforma ONE, unifica DLP, Zero Trust y análisis UEBA. Aporta control sobre entornos BYOD y flujos cloud, e incorpora detección de uso no autorizado de apps de IA.
Trellix y Proofpoint refuerzan su posicionamiento en sectores regulados como banca o sanidad. Trellix destaca por integrar DLP con XDR, mientras que Proofpoint mantiene su enfoque en el canal correo, uno de los vectores más comunes de fuga.
Otros fabricantes como Zscaler y Netskope están ganando peso. Zscaler, desde su arquitectura cloud-first, combina DLP, CASB y visibilidad sobre tráfico cifrado. Netskope, por su parte, analiza en tiempo real más de 60.000 apps cloud, incluyendo servicios de IA generativa, con políticas adaptativas y enfoque en comportamiento.
Lookout ha evolucionado desde la protección móvil hacia el DLP para SaaS, con visibilidad en Google Workspace o Salesforce, y protección extendida para interacciones generadas con IA. Y Digital Guardian sigue siendo referencia en protección de propiedad intelectual, ahora con controles específicos sobre tráfico hacia aplicaciones generativas.
Finalmente, startups como Nightfall AI, Cyberhaven o Teramind están innovando con modelos de detección semántica avanzada, NLP inverso y análisis de intención. Algunas permiten definir políticas del tipo: “alertar si el usuario describe verbalmente información confidencial aunque no mencione datos exactos”.
Innovaciones clave en curso
El análisis del intento se ha convertido en foco de innovación
El rediseño del DLP no se limita a ampliar listas de patrones. Implica nuevas tecnologías y enfoques que marcan un antes y un después en la protección del dato.
Una de las innovaciones más potentes es la clasificación automática y continua mediante IA. Los sistemas ya no dependen solo de etiquetas manuales, sino que aprenden a identificar datos sensibles en función del contenido, el contexto y el comportamiento del usuario.
Otra línea en expansión es el DLP en tiempo real en aplicaciones SaaS como Slack, Teams, Notion o Asana. Estas herramientas concentran información crítica y son especialmente vulnerables a fugas involuntarias.
El análisis del intento se ha convertido también en un foco clave. Técnicas de UEBA permiten detectar señales como copiar texto masivo, modificar permisos o realizar capturas de pantalla, anticipando posibles incidentes antes de que ocurran.
Y, finalmente, gana peso un enfoque que prioriza la interacción inteligente con el usuario. Algunos sistemas ya no solo bloquean, sino que explican, alertan y educan, ayudando al trabajador a comprender los riesgos y tomar decisiones informadas.
Estas líneas apuntan hacia una nueva generación de DLP más proactiva, contextual e integrada. Pero también más compleja y exigente en su gestión.
Lo que aún queda por resolver
Pese a los avances, quedan muchas preguntas abiertas. ¿Es suficiente el enfoque DLP clásico en un entorno de prompts, lenguaje natural y modelos generativos? ¿Cómo se controla el uso de IA externa desde dispositivos personales? ¿Dónde está el equilibrio entre protección y privacidad del empleado?
La realidad es que la tecnología avanza más rápido que las políticas. Aunque algunos fabricantes permiten bloquear o monitorizar ChatGPT, muchos usuarios acceden desde móviles o redes no corporativas. La protección del dato, por tanto, ya no puede depender solo del perímetro o del endpoint.
A todo ello se suma la presión normativa. El nuevo AI Act europeo obligará a las empresas a documentar y gobernar los datos que alimentan sistemas de IA, incluyendo trazabilidad y garantías de no exponer información confidencial. El DLP será clave en ese marco, pero su efectividad dependerá de su capacidad de integración con otras capas: identidad, comportamiento, clasificación y respuesta automatizada.
También persisten limitaciones técnicas. Ningún sistema DLP es aún totalmente eficaz detectando datos sensibles disfrazados en lenguaje natural. La detección semántica avanza, pero sigue siendo un campo con falsos positivos, ambigüedad contextual y necesidad de calibración continua.
Hacia un nuevo modelo de prevención
La era de los LLM exige una nueva generación de protección del dato. El DLP debe dejar de ser una herramienta periférica para convertirse en un mecanismo inteligente y contextual, profundamente conectado con identidad, comportamiento y lenguaje.
Ya no se trata sólo de bloquear, sino de comprender lo que ocurre, cuándo y por qué. Porque en la nueva economía del dato, el mayor riesgo no es solo la pérdida de información, sino la pérdida de control sobre lo que compartimos con la inteligencia artificial.