El rápido desarrollo de la Inteligencia Artificial tiene beneficios evidentes para la sociedad en su conjunto, aunque también genera importantes amenazas que pueden provocar atentados contra los derechos de individuos o empresas, como ya ha comenzado a ocurrir con el denominado deepfake, un fenómeno que provoca diferentes tipos de fraudes y manipulaciones contra individuos o entidades y que crece a un ritmo anual del 900 %, según datos del Foro Económico Mundial.
En opinión de Innovery, el impacto de los deepfakes puede ser más difuso que el resto de los ataques ya conocidos, afectando principalmente a la reputación y la confianza en una empresa. En algunos casos, pueden propiciar fraudes, suplantación de identidad, manipulación comercial, difamación de empleados o engaños a través de videollamadas, entre otros.
A la hora de hacer frente a las amenazas de los deepfakes, Innovery propone combatir IA con IA, desarrollando inteligencia artificial diseñada para su detección. Habla también la compañía de avanzar en soluciones de ciberseguridad que integren la detección de deepfakes, como una de sus características; Autenticar los contenidos multimedia; Realizar simulaciones y entrenamiento; Desarrollar herramientas de evaluación de riesgos; e introducir análisis forense.
Los analistas aseguran que esta modalidad de ataque se mantendrá en los próximos años, y muchos predicen que, en 2026, prácticamente el 90 % del contenido online será generado artificialmente, llevando a un deterioro de la confianza y un aumento de la amenaza para las empresas.
Por este motivo, la Unión Europea votó, hace tan solo unos días y por primera vez, en favor de una Ley de Inteligencia Artificial que regule el desarrollo de este avance tecnológico que está agitando la actualidad de todos los países occidentales, por impactar directamente en los derechos y libertades de todos los ciudadanos.
Para Juan Manuel Pascual, experto en ciberseguridad y CEO de Innovery España y Latam, “es importante que las empresas no solo implementen medidas de seguridad para proteger sus datos, sino que también estén preparadas para enfrentar los desafíos que deepfake puede provocar en el ámbito de la reputación y confianza en las empresas e instituciones”.