Tras el anteproyecto de ley orgánica aprobado recientemente por el Consejo de Ministros para proteger el derecho al honor, la intimidad y la propia imagen frente a contenidos manipulados mediante inteligencia artificial, Check Point Software Technologies ha puesto el foco en los límites reales de la tecnología para hacer frente a los deepfakes.
La iniciativa legislativa, aprobada el pasado 13 de enero, busca frenar la difusión de imágenes, vídeos y audios generados o alterados por IA que puedan suplantar a una persona o atribuirle conductas o mensajes falsos, reforzando así la protección de los derechos fundamentales en un contexto de creciente sofisticación de estas técnicas. Sin embargo, desde el punto de vista técnico, la compañía advierte de que la norma se enfrenta a una realidad compleja: la detección fiable de deepfakes sigue siendo, a día de hoy, extremadamente limitada.
Según explica Check Point, no existe actualmente ninguna solución automatizada capaz de identificar de forma segura y en tiempo real contenidos manipulados mediante IA. Además, la rápida evolución de los deepfakes está reduciendo drásticamente la capacidad de distinguir entre lo real y lo falso, no solo para los usuarios, sino también para las propias organizaciones.
“Hoy por hoy, los deepfakes son extremadamente difíciles de identificar y, en muy poco tiempo, serán prácticamente indistinguibles de un contenido real”, señala Eusebio Nieva, director técnico de la compañía para España y Portugal. En su opinión, aunque el marco legal responde a una preocupación legítima, la tecnología todavía no está preparada para sostener por sí sola una estrategia preventiva eficaz frente a este tipo de amenazas.
Desde Check Point subrayan que, en este escenario, la protección frente a los deepfakes pasa más por medidas organizativas, procesos de verificación y controles manuales que por soluciones puramente tecnológicas. La legislación puede facilitar la actuación cuando el daño ya se ha producido, pero mientras no exista una capacidad real de detección, el impacto seguirá siendo principalmente reputacional, legal y social, más que estrictamente de ciberseguridad.
















