En la primera parte de este artículo, explicamos cómo la categorización y la IA generativa pueden ayudar a los defensores de la red. Pero, por desgracia, lo que funciona para los equipos de seguridad informática también puede ser utilizado por atacantes con objetivos más perversos. Y los actores de amenazas no son nada si no son ingeniosos. De hecho, una importante filtración de datos que afectó al famoso grupo de ransomware Conti el año pasado reveló que gasta 6 millones de dólares anuales en herramientas, servicios y salarios, y que gran parte de esa cantidad se destina a I+D.
En este incipiente juego del gato y el ratón, el sector de la ciberseguridad sólo podrá diseñar mejor sus propios productos y medidas de mitigación si estudia el uso malicioso de la IA.
Utilizar la IA categorizadora con fines maliciosos
Para los equipos de seguridad informática, los modelos de IA categorizadora constituyen la punta de lanza de la ciberdefensa. Sin embargo, para los actores de amenazas se utilizan principalmente para la selección estratégica de víctimas y la planificación de ataques. La selección de víctimas no difiere mucho de los procesos de marketing empresarial diseñados para encontrar el grupo objetivo de clientes óptimo. Comienza por definir el cliente o clientes óptimos. A continuación, utilizando los datos disponibles sobre un grupo de clientes, se intenta hacerlos coincidir con las personas.
Si no están automatizando ataques indiscriminados a un amplio grupo de usuarios (lo que en marketing sería como enviar un correo directo a cada cliente potencial),los ciberdelincuentes también pueden querer definir «víctimas óptimas». Puede tratarse de individuos más dispuestos a pagar, con menos probabilidades de presentar una denuncia policial y que requieran menos esfuerzo para ser atacados. La siguiente etapa consiste en intentar encontrarlas utilizando las fuentes de datos disponibles, como búsquedas en Shodan, OSINT basada en redes sociales, datos de ataques anteriores e información filtrada o robada. Dado que la selección de las víctimas no requiere ni tiempo ni recursos, la IA puede procesar grandes cantidades de datos y conjuntos de datos complejos para encontrar víctimas potenciales.
En teoría, la IA también podría utilizarse durante un ataque para determinar qué actividad posterior al ataque (como el cifrado, el chantaje o el robo de datos-)ofrece mayores beneficios. Un modelo de IA categorizador ejecutado localmente podría tomar esta decisión. Aunque actualmente el esfuerzo que supone es desproporcionado en relación con el beneficio, que puede no siempre ser así.
Los límites de la IA generativa
Como explicamos en el artículo anterior, la IA generativa no es «creativa» en el sentido de que todo lo que produce es una remezcla, a veces muy sofisticada, de contenidos con los que ha sido entrenada. Esto significa que puede mostrar a los usuarios exploits listos para usar, incluidas explicaciones y comentarios. Pero no podrá generar exploits zero-day de la nada. Puede ayudar en los ataques de otras de otras formas, como cuando se utilizó un modelo generativo de IA para escribir código para plugins desplegados para ayudar a ganar una competición Pwn2Own. También se ha visto que ChatGPT ayuda a crear variantes de malware polimórfico, aunque, de nuevo, sólo se reescribe con contenido conocido aprendido en el entrenamiento. Aunque un ciberdelincuente experimentado encontraría un uso limitado con dicha herramienta, puede ayudar a democratizar el acceso a dicho conocimiento entre los menos expertos de la comunidad delictiva, siempre y cuando sepan qué pedir.
Es en la creación de contenidos donde los modelos generativos de IA realmente destacan. Son capaces de producir contenidos de phishing atractivos y muy legibles, sin los errores gramaticales que siguen siendo tan comunes en muchas misivas maliciosas. Los actores de amenazas capaces de proporcionar acceso a una formación de alta calidad e incorporar la retroalimentación de las pruebas A/B a ese contenido obtendrán resultados aún mejores. El posible uso de la IA generativa para producir contenidos de «estilo de escritura» muy convincentes en los ataques de suplantación de identidad y de business email compromise (BEC) es una preocupación que ya ha puesto de relieve Europol.
También es una razón por la que empresas como la nuestra siguen investigando intensamente el espacio de la IA. Si comprendemos cómo actúan nuestros adversarios, podremos desarrollar medidas de mitigación para detectar y bloquear sus ataques con mayor eficacia. La carrera armamentística de la IA no ha hecho más que empezar.
Udo Scheneider
Cybersecurity Evangelist Europe, Trend Micro