Un reciente informe de Google Cloud ha revelado que grupos de ciberdelicuentes patrocinados por estados como China, Irán, Rusia y Corea del Norte están utilizando herramientas de inteligencia artificial generativa (IAG), incluyendo el modelo Gemini de Google, para optimizar y hacer más eficientes sus ciberataques.
El informe, elaborado por la unidad de Threat Intelligence de Google Cloud, detalla cómo estos actores maliciosos están empleando la IAG para automatizar tareas clave en sus operaciones, incluyendo la creación de código malicioso, la identificación de vulnerabilidades y la recopilación de información sobre sus objetivos. “Si bien la inteligencia artificial aún no ha transformado radicalmente las técnicas de ataque, sí ha permitido a los ciberdelincuentes mejorar su eficiencia y productividad”, explican los investigadores.
Hallazgos clave del informe:
- Grupos chinos e iraníes lideran el uso de IAG: Los atacantes de estos países son los que más activamente están utilizando herramientas de IAG. Se ha identificado a hackers iraníes usando Gemini para diseñar campañas de phishing más convincentes y mejorar sus tácticas de persuasión en ataques dirigidos. Por su parte, hackers chinos han empleado la IA para analizar redes y encontrar posibles puntos de acceso vulnerables.
- Rusia y Corea del Norte exploran la desinformación: Grupos de hackers vinculados a estos países han explorado la aplicación de la IAG en la creación de contenido desinformativo y en la manipulación de redes sociales para influir en la opinión pública. Se ha detectado el uso de estas herramientas para mejorar la calidad y credibilidad de campañas de desinformación, facilitando la propagación de noticias falsas y suplantaciones de identidad.
- Desafíos para la ciberseguridad global: Los expertos advierten que esta tendencia puede tener un impacto significativo en la seguridad global, no solo en términos de ataques a infraestructuras críticas, sino también en la estabilidad de procesos democráticos y económicos. Las capacidades avanzadas de la IA podrían permitir la personalización de ciberataques a gran escala, facilitando la evasión de sistemas de detección y aumentando la efectividad de las campañas maliciosas.
La inteligencia artificial generativa ha democratizado la capacidad de crear contenido y automatizar tareas. Si bien esto tiene aplicaciones positivas, también ha abierto la puerta a su uso malintencionado. Los ciberdelincuentes, incluidos aquellos respaldados por estados-nación, están viendo en la IAG una herramienta para mejorar sus operaciones y hacerlas más difíciles de detectar.
Este informe subraya la creciente necesidad de que empresas y gobiernos se prepararen para enfrentar ataques más sofisticados y personalizados, y garantizar que las herramientas de IA se utilicen de manera responsable y ética.