ChatGPT es un large language model (LLM) o, lo que es lo mismo, un programa informático para el procesamiento del lenguaje natural que utiliza aprendizaje profundo y redes neuronales para reconocer, resumir, traducir, predecir y generar texto y otro contenido. Y aquí es donde radica la diferencia, porque el aprendizaje automático, que antes se esperaba que manejara solo tareas mundanas, ha demostrado ser capaz de realizar trabajos creativos complejos.
Los LLM se están refinando y las nuevas versiones se implementan regularmente, con mejoras tecnológicas que llegan con rapidez. Y como dicen desde Europol, “si bien esto ofrece grandes oportunidades para las empresas legítimas, también puede ser un riesgo para ellos y para el respeto de los derechos fundamentales, ya que los delincuentes pueden querer explotar los LLM para sus propios fines nefastos”. Así que la agencia, a través de su Europol Innovation Lab, ha llevado a cabo una serie de talleres con el objetivo investigar las posibles formas en que los delincuentes pueden explotar modelos de lenguaje extenso (LLM) como ChatGPT y cómo pueden utilizarse para ayudar a los investigadores en sus tareas diarias.
Explican los expertos de Europol en un documento titulado ChatGPT. The impact of Large Language Models on Law Enforcement, que ChatGPT, GPT-3.5, es capaz de procesar y generar texto similar al humano en respuesta a las indicaciones del usuario. Específicamente, el modelo puede responder preguntas sobre una variedad de temas, traducir texto, participar en intercambios conversacionales («chatear») y resumir texto para proporcionar puntos clave. Además, es capaz de realizar análisis de sentimientos, generar texto basado en un mensaje determinado (es decir, escribir una historia o un poema), así como explicar, producir y mejorar el código en algunos de los lenguajes de programación más comunes (Python, Java, C++, JavaScript, PHP, Ruby, HTML, CSS, SQL).
En marzo de 2023, OpenAI lanzó GPT-4, capaz de resolver problemas más avanzados con mayor precisión, ser capaz de realizar integraciones API avanzadas, además de poder procesar, clasificar y analizar imágenes como entrada.
Identifican también los investigadores las limitaciones de ChatGPt, como que, a pesar de las actualizaciones, la gran mayoría de los datos que le capacitan datan de septiembre de 2021. La mayor limitación de ChatGPT, aseguran, “es autoimpuesta”. Y es que, como parte de la política de moderación de contenido de el modelo, ChatGPT no responde preguntas que hayan sido clasificadas como dañinas o tendenciosas”. El hecho de que estos mecanismos de seguridad puedan eludirse con la ingeniería rápida correcta es lo que ha llevado a Europol Innovation Lab a describir con más detalle en su estudio cómo es esto posible y qué implicaciones surgen como resultado.
Fraude
Identifican los expertos de Europol el fraude como un área de preocupación a tener en cuenta. Explican que la capacidad de ChatGPT para redactar textos altamente auténticos sobre la base de un aviso del usuario lo convierte en una herramienta extremadamente útil para fines de phishing. “Mientras que muchas estafas de phishing básicas antes eran más fáciles de detectar debido a errores gramaticales y ortográficos obvios, ahora es posible hacerse pasar por una organización o individuo de una manera muy realista, incluso con solo un conocimiento básico del idioma inglés”, dicen los expertos a través de documento publicado por Europol.
El hecho de que el correo electrónico de phishing se pueda adaptar para realizar el llamo Fraude al CEO lleva a los expertos a asegura que “ChatGPT puede ofrecer a los delincuentes nuevas oportunidades, especialmente para delitos relacionados con la ingeniería social, dada su capacidad para responder a mensajes en contexto y adoptar un estilo de escritura específico”.
Desinformacion
Por otra parte, “las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación”. Explican los expertos de Europol que el modelo se puede usar para recopilar más información que pueda facilitar las actividades terroristas, como su financiación o el intercambio anónimo de archivos.
Por otra parte, que ChatGPT sobresalga en la producción de texto con sonido auténtico a gran velocidad “hace que el modelo sea ideal para propósitos de propaganda y desinformación, ya que permite a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo”.
Cibercrimen
La capacidad de genera código de forma automatiza se ha descubierto muy útil para “aquellos delincuentes con poco o ningún conocimiento de codificación y desarrollo”. Explican los investigadores que las medidas de seguridad que impiden que ChatGPT proporcione código potencialmente malicioso solo funcionan si el modelo comprende lo que está haciendo, de forma que si las indicaciones de lo que tiene que hacer se dividen en pasos individuales, parece fácil eludir esas medidas.
Por otra parte, las capacidades mejoradas de GPT-4 y sucesivas permitirán a un usuario más avanzado “refinar aún más o incluso automatizar sofisticados modis operandi de ciberdelincuentes”.
Recomendaciones
El último punto del documento generado por Europol plantea una serie de recomendaciones que deben tenerse en cuenta, como generar conciencia sobre el posible uso malicioso de los LLM “para garantizar que se descubran y cierren las lagunas potenciales lo más rápido posible”.
Asegurando que los LLM tienen un impacto real que ya se puede ver, “los organismos encargados de hacer cumplir la ley deben comprender este impacto en todas las áreas delictivas potencialmente afectadas para poder predecir, prevenir e investigar mejor los diferentes tipos de abuso delictivo”.
También se pide que funcionarios encargados de hacer cumplir “comiencen a desarrollar las habilidades necesarias para aprovechar al máximo modelos como ChatGPT” e incluso que se exploten las posibilidades de LLM personalizados “siempre que se tengan en cuenta los derechos fundamentales”.