Titulado “Empowering Defenders: How AI is shaping malware analysis”, el informe recoge los resultado del análisis de cientos de miles de muestras de malware, que VirusTotal evaluó a lo largo de un periodo de seis meses, en el marco de su iniciativa Crowdsourced AI. VirusTotal descubrió que la IA analiza código malicioso con una enorme eficacia y que es capaz de identificar un 70 % más de fragmentos de código malicioso que las herramientas tradicionales por sí solas. Los investigadores también descubrieron que la IA llega a ser hasta un 300 % más precisa que estas herramientas a la hora de detectar intentos por parte de scripts maliciosos de atacar o explotar dispositivos con vulnerabilidades comunes.
El informe de VirusTotal va en la misma línea que el Cybersecurity Forecast 2024 de Google Cloud, que afirma que “en la ciberdefensa, se utilizarán tecnologías relacionadas con la IA generativa para reforzar la detección, respuesta y atribución de adversarios a gran escala, así como para agilizar el análisis y otras tareas laboriosas, como la ingeniería inversa”. Google Cloud incluso pronostica que, en el futuro, la ciberdefensa hará uso de la IA para analizar y contextualizar grandes volúmenes de datos.
Hace unos meses, VirusTotal implantó la funcionalidad Code Insight basada en IA. Previamente, para identificar código malicioso, los responsables de seguridad se veían obligados a analizar manualmente scripts complejos. La IA no solo sirve para acelerar esa tarea —muy laboriosa—, sino también para explicarle al analista, en un lenguaje sencillo, si el código es malicioso y qué es lo que hace. Esta funcionalidad multiplica la efectividad de las herramientas de seguridad existentes, ya que proporciona a los defensores una comprensión más profunda de cómo opera y qué intenta hacer el código analizado. Con ello, mejora notablemente la capacidad para mitigar posibles amenazas.
Como explica Vicente Díaz, estratega de inteligencia de amenazas de VirusTotal, Google Cloud: “Del mismo modo que la tecnología puede crear nuevas amenazas, también puede ayudarnos a combatirlas. La capacidad de la IA para analizar scripts maliciosos y explicarnos su modus operandi tiene enormes implicaciones para la ciberseguridad. Por ejemplo, abre la puerta a que personas no expertas detecten y eviten ataques de malware, sin tener una experiencia o conocimientos de seguridad altamente especializados. La IA también puede ahorrar muchísimo tiempo a los investigadores y los expertos en ciberdefensa, y nos ayudará a protegernos contra un amplio espectro de herramientas, utilizadas por toda clase de agentes”.
En su Cybersecurity Forecast 2024, Google Cloud apunta que la IA generativa y los grandes modelos de lenguaje podrían utilizarse en phishing, SMS y otras operaciones de ingeniería social, para hacer más verosímiles los contenidos y materiales maliciosos. El estudio de VirusTotal encontró evidencias de que los agentes que están detrás de estas amenazas no solo utilizan imágenes y textos generados por IA para hacer que su malware parezca más convincente sino que, cada vez más, están creando malware camuflado como productos de IA. En estos casos, los sitios web maliciosos llegan a utilizar iconos de productos de IA conocidos para dar una falsa sensación de credibilidad. La víctima, confiada, descarga malware o facilita datos, que son robados.