La Inteligencia Artificial y los LLMs se han convertidos con protagonistas de cualquier conversación. Y también de las predicciones de seguridad para 2024. José Carlos Huertas, Senior Solutions Engineer en F5, subraya la necesidad de una adaptación e innovación continuas para poder defenderse de amenazas que evolucionan de forma constante y asegura que fortalecer el edge y prepararse para ataques impulsados por IA resulta fundamental para proteger el futuro digital de las organizaciones.
El directivo plantea las siguientes predicciones de seguridad para este año, con una fuerte presencia de la IA generativa.
Predicción 1: la IA generativa conversará con las víctimas de phishing
Los grandes modelos de lenguaje (LLM) facilitarán la comunicación entre los atacantes (phishers) y víctimas. Los grupos de ciberdelincuentes aprovecharán la IA generativa para traducir mensajes de las víctimas y responder a los mismos en diferentes idiomas de forma correcta. Además, podrán incorporar a sus mensajes datos disponibles públicamente para diseñar estafas más realistas.
Gracias a la IA generativa y utilizando la modalidad de phishing as-a-service, los grupos del cibercrimen organizado podrán magnificar sus ataques tanto en tamaño como en eficacia.
Predicción 2: el crimen organizado utilizará IA generativa con cuentas falsas
Existe un enorme potencial para las cuentas falsas basadas en inteligencia artificial que producen contenidos e imágenes difíciles de distinguir del contenido generado por un humano. Las estrategias de ataque generadas por cuentas falsas, que pueden incluir fraude, relleno de credenciales, desinformación o la manipulación de los mercados, pueden incrementar notablemente la productividad de los ciberdelincuentes al no tener que hacer ningún tipo de esfuerzo por igualar el realismo humano.
Predicción 3: Los estados-nación utilizarán IA generativa para desinformar
Las herramientas de IA generativa tienen el potencial de cambiar significativamente la manera en que se llevan a cabo las operaciones de desinformación, creando de forma automatizada contenido falso o campañas de desinformación dirigidas a un objetivo específico.
Durante 2023 se han aprovechado distintos conflictos para ejecutar estas acciones a pequeña escala, pero este año se espera que eventos como las elecciones presidenciales de Estados Unidos o la celebración de los Juegos Olímpicos de París impulsen este tipo de campañas.
Distintos proveedores tecnológicos y organizaciones como Adobe, Microsoft o la BBC se han unido para crear el estándar C2PA en un intento de identificar el origen de los contenidos. A pesar de ello, habrá que esperar para ver si esta iniciativa consigue su objetivo.
Predicción 4: El “hacktivismo” crecerá gracias a la IA generativa y a otros avances tecnológicos
Se espera que la actividad hacktivista relacionada con los principales acontecimientos globales crezca a medida que la capacidad de computación siga volviéndose más asequible y fácil de usar. El acceso a herramientas de inteligencia artificial, teléfonos inteligentes y ordenadores portátiles provocará la aparición de nuevos hacktivistas que podrán actuar con pocos recursos.
En los últimos años se ha experimentado un resurgimiento en el volumen de actividad hacktivista, especialmente a raíz de la invasión de Ucrania por parte de Rusia. En los conflictos más recientes, a medida que aumenta la violencia en el campo de batalla físico, los hacktivistas también han pasado a realizar ataques progresivamente más destructivos, que incluyen ataques de denegación de servicio, fugas de datos, desconfiguraciones de sitios web e intentos de alterar las infraestructuras críticas.
Es probable que los hacktivistas aprovechen los Juegos Olímpicos, distintos procesos electorales o los conflictos en curso para ganar notoriedad y simpatía para sus causas. Es también posible que las organizaciones presentes en alguno de los eventos globales del año se conviertan en víctimas.
Predicción 5: La IA generativa permitirá utilizar información en tiempo real en ataques web
Con su impresionante capacidad para crear código, los LLM se usarán para dirigir las secuencias de procedimientos durante ataques en vivo, permitiendo a los atacantes reaccionar ante las defensas del objetivo.
Al aprovechar las APIs de sistemas abiertos de IA generativa, como ChatGPT, o al crear sus propios LLM, los atacantes podrán incorporar el conocimiento y las ideas de un sistema de IA durante un ataque en vivo a un sitio web o a una red objetivo. Si el ataque a un sitio web se bloquea debido a los controles de seguridad, los ciberdelincuentes podrán utilizar un sistema de inteligencia artificial para evaluar la respuesta y sugerir formas alternativas de continuar adelante.
Pronto veremos cómo los LLM van a poder diversificar las cadenas de ataque favoreciendo la actividad de los ciberdelincuentes.
Predicción 6: LLM (grandes modelos de lenguaje con filtraciones)
Investigaciones recientes muestran la existencia de métodos muy sencillos para engañar a los LLM y conseguir sus datos de entrenamiento, que a menudo incluyen datos personales y propietarios. La necesidad de crear LLM propietarios con rapidez podría dar lugar a datos de entrenamiento expuestos, no por la acción de nuevos ataques, sino por controles de seguridad mal configurados debido a las prisas.
En 2024 veremos fallos espectaculares en las herramientas impulsadas por GenAI, como filtraciones masivas de PII (información personal de identificación), técnicas novedosas para obtener acceso no autorizado y ataques de denegación de servicio.
Al igual que con las filtraciones de la nube, el impacto de las filtraciones en LLM es potencialmente enorme, debido a la gran cantidad de datos involucrados.
Predicción 7: Vulnerabilidades generativas
Muchos desarrolladores, tanto experimentados como novatos, recurren cada vez más a la IA generativa para escribir código o comprobar si hay errores. Pero sin las protecciones adecuadas, los LLM van a crear una avalancha de código vulnerable difícil de proteger. A diferencia de lo que pasa con el software de código abierto, en el que cuando se descubre una vulnerabilidad en una librería es posible corregirla una vez para que luego sea usada por todos, con la generación de código GenAI, cada desarrollador obtiene un código único y personalizado.
Los asistentes escriben código tan rápido que es posible que los desarrolladores no tengan tiempo para revisarlo. Dependiendo de cuándo se creó el LLM, es posible que ni siquiera esté al tanto de las últimas vulnerabilidades, lo que hace imposible que el modelo construya código que evite estas vulnerabilidades o evite importar librerías con vulnerabilidades.
En la era de la IA generativa, las organizaciones que priorizan la velocidad sobre la seguridad inevitablemente introducirán nuevas vulnerabilidades.
Predicción 8: Ataques al Edge
La manipulación física, las vulnerabilidades de software y APIs, así como los desafíos de gestión son riesgos que se agravan en un contexto de edge.
El 65 de los datos empresariales se generarán y procesarán fuera de los límites tradicionales de los centros de datos o la nube. Este paradigma redefine los límites de la organización, ya que las cargas de trabajo en el edge pueden albergar información y privilegios confidenciales.
Los atacantes siempre se van a centrar en objetivos que les proporcionen un gran impacto en un corto periodo de tiempo. Si el paradigma del edge computing se gestiona de forma descuidada, en 2024 veremos una gran cantidad de incidentes importantes.
Predicción 9: Los ciberdelincuentes mejorarán sus capacidades para ataques tipo living-off-the-land
La creciente complejidad de los entornos de TI, particularmente en las arquitecturas híbridas y cloud, hará que resulte más complicado monitorizar y detectar ataques living-off-the-land (LOTL).
Se espera que los atacantes recurran con más frecuencia a técnicas LOTL, que utilizan software legítimo presente en los sistemas de las víctimas para introducirse en la red corporativa. Estos ataques pueden ser incorporados a acciones contra la cadena de suministro para lograr comprometer la infraestructura crítica objetivo e interrumpir sus operaciones.
Para evitar lo anterior es necesario mejorar la visibilidad sobre las redes de cada organización.
Predicción 10: Matriz de pobreza en ciberseguridad
Existe una creciente preocupación sobre el efecto que las tendencias de arquitectura de seguridad tendrán sobre la línea de pobreza en materia de seguridad, un concepto propuesto hace más de una década por Wendy Nather. La línea de pobreza de seguridad se define como el nivel de conocimiento, autoridad y, sobre todo, de presupuesto necesarios para lograr el mínimo indispensable de controles de seguridad.
Hoy en día, las organizaciones necesitan orquestación de seguridad, automatización, respuesta a incidentes (SOAR), gestión de eventos e información de seguridad (SIEM), herramientas de gestión de vulnerabilidades y servicios de inteligencia de amenazas, así como programas como gestión de configuración, respuesta a incidentes, pruebas de penetración, gobernanza, cumplimiento y riesgo. La cuestión clave es que muchas organizaciones optan por consumir estos controles como servicios gestionados, de modo que puedan garantizar tanto la experiencia como el coste. El mayor coste de entrada en cada uno de estos nichos significa que cada vez más organizaciones necesitarán elegir entre ellos.
En otras palabras, la idea de una línea de pobreza ya no refleja el equilibrio que existe hoy entre capacidad enfocada en un nicho y cobertura de todas las bases. En lugar de una línea de pobreza, tendremos una matriz de pobreza compuesta de diferentes dimensiones, e incluso las empresas con recursos tendrán dificultades para poder abordar todas ellas.