No hace ni dos meses que ChatGPT llegó al mercado y ya ha cautivado a medio mundo. El chatbot de OpenAI se utiliza para un montón de tareas, y entre sus funciones está la de crear código, incluido código malicioso, algo sobre lo que advirtieron muchos expertos de ciberseguridad desde los primeros días de la herramienta.
Recientemente una investigación de Check Point desveló que los ciberdelincuentes ya están haciendo pruebas con ChatGPT. Ahora, es Cyberark quien ha estado trabajando con ChatGPT para ver cómo se puede aprovechar su poder “para bien y para mal”.
Lo primero que debe saberse es que con el aprendizaje automático en su núcleo, ChatGPT genera respuestas utilizando una gran colección de datos de 2021 y anteriores. Aunque es una herramienta online, en realidad no tiene acceso a Internet y, por lo tanto, no puede consultar ni leer nada online, lo que hace que no pueda proporcionar respuestas actualizadas. Explican Eran Shimony y Omer Tsarfati, investigadores de seguridad de CyberArk que, cuando se le solicite un código, ChatGPT generará un código modificado o inferido en función de los parámetros que establezca, en lugar de simplemente reproducir ejemplos que ha aprendido previamente. Y aunque ChatGPT tiene filtros de contenido incorporados que evitan que responda preguntas sobre temas que podrían ser problemáticos, como la inyección de código la manera de eludir los filtros es insistir; “curiosamente, al pedirle a ChatGPT que hiciera lo mismo usando múltiples restricciones y pidiéndole que obedezca, recibimos un código funcional”, escriben los investigadores en un post.
Shimony y Tsarfati usaron ChatGPT para mutar el código original, creando así múltiples variaciones del mismo. “En otras palabras, podemos cambiar la salida a nuestro antojo, haciéndola única cada vez. Además, agregar restricciones como cambiar el uso de una llamada API específica hace que la vida de los productos de seguridad sea más difícil”. De forma que, gracias a la capacidad de ChatGPT para crear y mutar continuamente los inyectores, los investigadores de ciberseguridad pudieron crear un programa polimórfico difícil de detectar.
“Al utilizar la capacidad de ChatGPT para generar varias técnicas de persistencia, módulos Anti-VM y otras cargas maliciosas, las posibilidades de desarrollo de malware son enormes”, aseguran los investigadores, añadiendo que, “si bien no hemos profundizado en los detalles de la comunicación con el servidor C&C, hay varias formas de hacerlo discretamente sin levantar sospechas”.