Los Laboratorios de Amenazas de Netskope (Threat Labs) han publicado un nuevo análisis en el que exploran la posibilidad de desarrollar malware autónomo basado exclusivamente en instrucciones para grandes modelos de lenguaje (LLM) y en pequeñas porciones de código esencial. Este enfoque eliminaría la necesidad de incluir instrucciones tradicionalmente detectables, planteando un escenario de riesgo emergente para las defensas actuales.
Los LLM —que ya forman parte de entornos de automatización, desarrollo asistido y análisis— siguen incorporándose de forma acelerada en los procesos de negocio. Pero esa misma integración está ampliando su superficie de exposición. Según Netskope, su capacidad para generar, modificar o interpretar código introduce nuevos desafíos que los equipos de seguridad no pueden ignorar.
Principales conclusiones del análisis
Las pruebas realizadas por Threat Labs muestran que:
- GPT-3.5-Turbo y GPT-4 pueden integrarse con muestras de malware, lo que confirma la viabilidad técnica de una amenaza autónoma apoyada en LLM.
- Aunque GPT-4 cuenta con defensas para evitar la generación de código malicioso, estas pueden eludirse mediante inyecciones de rol, permitiendo producir técnicas como process injection o la finalización de procesos vinculados a antivirus y EDR.
- Tanto GPT-3.5-Turbo como GPT-4 pueden ser evadidos, pero no generan código fiable para detectar entornos virtualizados, lo que limita su eficacia real en escenarios operativos.
Las primeras pruebas con GPT-5 muestran una mayor fiabilidad en la generación de código, desplazando el reto desde la calidad técnica hacia la necesidad de sortear salvaguardas de seguridad más avanzadas.
Malware autónomo: posible, pero aún no plenamente funcional
El objetivo de Threat Labs era comprobar si un malware totalmente autónomo y dependiente del LLM podía operar sin instrucciones codificadas explícitamente. Las pruebas confirman que los modelos pueden generar código de forma dinámica, lo que permitiría a un atacante minimizar rastros y patrones detectables.
Sin embargo, la investigación también pone de relieve un freno importante: la baja fiabilidad del código generado para técnicas de evasión de virtualización. Esta limitación impide, por ahora, automatizar completamente el ciclo de vida del malware y reduce la viabilidad real de estas amenazas.
El equipo de Threat Labs continuará investigando y evaluará los requisitos arquitectónicos necesarios para diseñar un malware autónomo estable impulsado por LLM. Su objetivo es anticipar cómo podrían evolucionar estas amenazas y qué mecanismos defensivos deberán reforzar las organizaciones.
















