Hoy, la pregunta ya no es solo si eres quien dices ser, sino si eres real. El auge de la inteligencia artificial generativa y la sofisticación de los deepfakes de voz están erosionando la confianza. Así lo advierte el Voice Intelligence and Security Report 2025 de Pindrop, donde se dibuja un escenario de fraude acelerado, automatizado y cada vez más difícil de distinguir del comportamiento legítimo.
el informe insiste en la necesidad de repensar la autenticación
Los datos reflejan un punto de inflexión claro. En solo un año, los intentos de fraude en contact centers crecieron un 26 %, hasta situarse en una llamada fraudulenta por cada 599, el nivel más alto de los últimos seis años. En paralelo, la actividad vinculada a voces sintéticas y reproducciones se multiplicó por 6,8 en 2024, hasta representar casi el 1 % de todas las llamadas, con picos que superaron el 2 % en el último trimestre del año. Lo que comenzó como ataques puntuales se ha convertido en un fenómeno a escala industrial.
Datos fugados
El informe señala que el detonante no es solo tecnológico, sino estructural. Las brechas de datos, que alcanzaron máximos históricos en 2023 y 2024, han alimentado el mercado negro de información personal, facilitando campañas de ingeniería social mucho más precisas. A esto se suma el acceso generalizado a herramientas de IA de bajo coste, capaces de generar voces sintéticas en tiempo casi real, con tono emocional y sin los artefactos que antes delataban a los sistemas automatizados.
Como resultado, los métodos clásicos de verificación están perdiendo eficacia. En muchos casos, el propio proceso de autenticación se convierte en la puerta de entrada al fraude.
El impacto no es homogéneo. El sector financiero sigue concentrando gran parte de la actividad maliciosa, con un incremento acumulado del 61 % en fraude bancario desde 2020, pero otros verticales están creciendo aún más rápido. En retail, el fraude casi se duplicó en 2024 y el informe anticipa que podría volver a duplicarse en 2025, impulsado por devoluciones fraudulentas y el uso masivo de voces sintéticas. En seguros y brokerage, aunque el volumen de incidentes es menor, el impacto económico por ataque es muy superior, con pérdidas medias que triplican a las del retail bancario.
Uno de los cambios más relevantes es la normalización del uso de deepfakes en interacciones atendidas por agentes humanos. En 2024, las voces sintéticas estuvieron presentes en casi el 1 % de los fraudes confirmados, con un crecimiento especialmente acusado en banca y seguros.
La IA Agéntica complica el problema
A esta dinámica se suma la llegada de la IA agéntica, capaz de realizar llamadas, recopilar información y ejecutar tareas con mínima intervención humana. El informe advierte de un nuevo reto para las organizaciones: distinguir entre un agente legítimo que actúa en nombre de un cliente y un sistema automatizado con fines maliciosos. En este contexto, ya no basta con validar la identidad; es necesario evaluar intención, comportamiento y señales de riesgo en tiempo real.
De cara a 2025, las previsiones refuerzan este diagnóstico. El fraude en contact centers podría crecer otro 8 %, mientras que el fraude asociado a deepfakes aumentaría hasta un 162 %, empujado por modelos de código abierto, herramientas de clonación de voz y ataques cada vez más automatizados. El riesgo económico potencial para las empresas se mide ya en decenas de miles de millones de dólares.
Ante este escenario, el informe insiste en la necesidad de repensar la autenticación, especialmente en interacciones complejas o de alta carga emocional.















