Para bien o para mal, la IA ya forma parte de nuestra sociedad. Y nos guste o no, no hay vuelta atrás. Mientras aprendemos a convivir con ella, tenemos el deber de mitigar su peligrosidad, pero también la oportunidad de explotar todo su potencial.
Los retos y las oportunidades son especialmente significativos para los profesionales encargados de la seguridad de la información. La IA está abriendo una era de reflexión sobre cómo esta tecnología puede transformar las operaciones de seguridad, desde la detección avanzada de amenazas hasta la respuesta automatizada y la protección de datos en entornos basados en IA. Por otro lado, los ciberdelincuentes se benefician de la creciente disponibilidad y asequibilidad de las capacidades de la IA para crear técnicas nuevas y más sofisticadas.
El lado oscuro de la IA
Los investigadores de Threat Labs de Netskope descubrieron recientemente que los clics en enlaces de phishing se triplicaron en el lugar de trabajo en 2024 y que las descargas de contenido malicioso se producían cada mes en el 88 % de las organizaciones. También descubrieron que el denominador común del éxito de estas ciberamenazas es la rápida sofisticación de las campañas de ingeniería social que los atacantes diseñan para engañar a sus víctimas, y que el contenido generado por IA contribuye significativamente a ello.
Herramientas como WormGPT o FraudGPT están dando lugar a un número cada vez mayor de imitaciones de ChatGPT. Estas herramientas han surgido como variantes oscuras y descontroladas de herramientas genAI legítimas y están ayudando a los delincuentes a crear correos electrónicos más convincentes y a escribir malware más eficiente, y se han convertido en una fuente de inspiración para más actos nocivos.
La aparición de la IA ha traído consigo una nueva forma de manipulación de audio y vídeo, que casi siempre se crea con fines maliciosos. La creación de deepfakes hiperrealistas y convincentes es cada vez más fácil y rápida, y ya estamos siendo testigos de lo útiles que resultan para una serie de actividades delictivas, desde el fraude selectivo en el lugar de trabajo hasta la desinformación masiva.
Además de intensificar las amenazas, la IA también está causando quebraderos de cabeza a los profesionales de la protección de datos. No podemos hablar sin abordar los riesgos del uso de la IA general y los riesgos de fuga de datos confidenciales. A modo de ejemplo, en 2024, aproximadamente el 6 % de los cientos de miles de usuarios australianos incluidos en un análisis de Netskope Threat Labs infringieron cada mes las políticas de seguridad de datos de su organización, una proporción significativa de los cuales fueron intentos de introducir datos confidenciales o regulados en las consultas de IA general.
Resulta evidente que la llegada de la inteligencia artificial ha propiciado la aparición de nuevos vectores de amenaza. Sin embargo, aunque la inteligencia artificial está ayudando a mejorar las
capacidades de los ciberdelincuentes, también está contribuyendo en igual medida, y tal vez en mayor medida, a las tecnologías y prácticas de ciberseguridad.
Es nuestro mejor aliado para garantizar la seguridad, tanto ahora como en el futuro
Si uno se limita a leer los titulares de las noticias, puede parecer que los delincuentes están superando al sistema de defensa. Pero esa imagen es errónea. Los equipos de seguridad tienen ventaja sobre los ciberdelincuentes porque las mentes más brillantes en inteligencia artificial y aprendizaje automático han contribuido a crear y perfeccionar herramientas de seguridad impresionantes durante más de una década.
La IA ha cambiado drásticamente el juego de la detección de amenazas gracias a su capacidad para analizar y detectar comportamientos y patrones en tiempo real con altos niveles de sofisticación y granularidad. Identificar a un usuario que hace clic en un enlace de phishing o accede a páginas de inicio de sesión falsas, que se comporta de manera inusual (lo que podría indicar un posible compromiso), que añade datos confidenciales a un aviso generado por IA o que accede o descarga contenido malicioso desde aplicaciones en la nube son todos escenarios que los motores de detección de amenazas basados en IA deberían cubrir.
Más allá de la detección, los algoritmos bien entrenados también ofrecen prevención y respuesta automatizadas y autónomas a las amenazas. Las herramientas de prevención de pérdida de datos (DLP) bloquean automáticamente las acciones de los usuarios si violan las políticas de protección de datos, por ejemplo, al intentar enviar información confidencial a cuentas personales. Las herramientas de formación de usuarios en tiempo real aportan un enfoque más suave y un complemento relevante a la formación en ciberseguridad para difundir las mejores prácticas, detectar comportamientos indeseables en el momento en que se producen y mostrar ventanas emergentes si se está realizando una acción potencialmente arriesgada. Se proporciona a los usuarios el contexto de la política, se les pregunta si desean «aceptar el riesgo» (la mayoría no lo hará), se les dirige a una alternativa o se les pide que justifiquen su acción y reciban una exención de la política, según elija el equipo de seguridad.
Al considerar las herramientas y definir las políticas, los responsables de seguridad deben asegurarse de que se abordan todos los posibles escenarios a los que se enfrentan sus empleados. La información no siempre está basada en texto y, de hecho, el 20 % de los datos confidenciales se representa en imágenes, como fotos o capturas de pantalla. Los potentes algoritmos de IA entrenados para este fin específico pueden detectar ahora posibles fugas de datos que se muestran en imágenes o vídeos.
Si estas funcionalidades parecen increíbles, hay que tener en cuenta que esto es solo el principio. La inversión en I+D en este ámbito es espectacular y los servicios de seguridad en la nube incorporan constantemente nuevas capacidades, lo que permite a las organizaciones mantenerse al día mucho más rápido de lo que habrían permitido los antiguos enfoques basados en dispositivos.
¿La conclusión? La IA está aportando capacidades asombrosas en materia de seguridad y es nuestro mejor aliado ahora y en el futuro para defendernos de las amenazas modernas y en constante evolución, incluidas las que afectan a la propia IA.
Bob Gilbert, VP de Estrategia de Seguridad en la Nube