El reciente ciberataque a DeepSeek, la IA de código abierto de China que ha alterado el espacio global de la inteligencia artificial, ha puesto de manifiesto que, según vamos acelerando la adopción de la IA, no debemos pasar por alto las barreras de seguridad. A DeepSeek se le ha apodado el “asesino de ChatGPT” por sus innovadores modelos de lenguaje grande (LLM) R1 y V3, pues está desafiando el dominio de gigantes de la IA como OpenAI y superando a ChatGPT.
Como resultado, NVIDIA, Microsoft y Google que se habían visto impulsadas por el optimismo de la IA y las promesas de regulaciones más laxas, sintieron los efectos dominó en el mercado tras el asalto de este modelo más pequeño y más rentable. Sin embargo, poco después de su meteórico ascenso, la fama de DeepSeek se vio interrumpida drásticamente cuando un ataque de denegación de servicio distribuido (DDoS) puso su API y su plataforma de chat web en la mira de los ciberdelincuentes.
El incidente de DeepSeek no es un problema aislado en el ecosistema de la IA. De hecho, OpenAI ha sido objeto de sus propios incidentes de ciberseguridad, lo que es un claro ejemplo de lo que puede suceder cuando los sistemas de IA innovadores carecen de las redes de seguridad necesarias para contener las crisis de ciberseguridad. En un mundo donde los agentes de IA están preparados para realizar muchas tareas empresariales, incidentes como estos muestran que estos sistemas son vulnerables a amenazas que ya existen. ¿La solución? Debemos proteger los sistemas de IA (especialmente la IA agéntica), mediante controles de identidad de las máquinas. Lo que a mí me gusta denominar “interruptor de seguridad de la IA”.
Una espada de doble filo
La IA se ha convertido en una fuerza de transformación que ha generado múltiples avances. Pero este espectacular progreso conlleva un riesgo significativo. Así como la IA acelera la innovación, también potencia las capacidades de los cibercriminales. En el caso de DeepSeek, varios investigadores ya han identificado vulnerabilidades en sus sistemas, incluyendo jailbreaks que permiten salidas maliciosas como ransomware. Otro equipo de investigación descubrió, el pasado mes de enero, que una base de datos de ClickHouse quedó expuesta y se filtraron datos confidenciales, incluyendo el historial de chat de los usuarios, flujos de registros, secretos de API y detalles operativos.
Estos son solo algunos ejemplos de lo que el NIST clasifica como ataques de aprendizaje automático adversarial (AML), que explotan las debilidades de los modelos de IA durante el desarrollo, las pruebas y la implementación. Además, tácticas como la evasión, el envenenamiento, las brechas de la privacidad y los ataques a la infraestructura son áreas preocupantes para la seguridad de la IA. Por otro lado, una reciente investigación de Venafi sobre el temor de los líderes de seguridad sobre el uso de código abierto y generado por IA señaló que al 92% le preocupa el uso de código generado por IA, al 77% por el envenenamiento de datos, y al 75% el robo de modelos de IA. Temores que no van a desaparecer, ya que los ataques efectivos no solo interrumpen las operaciones, sino que tienen ramificaciones globales potenciales.
¿Qué es un interruptor de seguridad de IA y por qué lo necesitamos?
La IA presenta un potencial significativo para transformar el mundo, pero debe protegerse. Por eso, un «interruptor de seguridad» para la IA, basado en la identidad única de los modelos individuales que se entrenan, implementan y ejecutan, es más importante que nunca. Aunque el término puede evocar imágenes de un gran botón rojo escondido en un lugar recóndito, tan solo se trata de crear mecanismos para pausar, contener o deshabilitar los sistemas de IA (especialmente los agentes de IA) cuando se comportan de manera inesperada o son atacados.
Sin un interruptor de seguridad, incidentes como el ataque a DeepSeek pueden escapar al control, especialmente porque la IA (al igual que los agentes de IA) se está integrando profundamente en las empresas y los flujos de trabajo. De hecho, un interruptor de seguridad de IA eficaz puede detener las amenazas actuales (eliminando instantáneamente los sistemas de IA comprometidos para frenar a los adversarios); proteger los datos confidenciales, bloqueando el acceso a cualquier información confidencial antes de que los atacantes puedan extraerla o manipularla; y prevenir la escalada, aislando las amenazas para evitar que se propaguen a través de redes o cadenas de suministro más amplias.
La pieza que falta en el rompecabezas: la seguridad de identidad de las máquinas
¿Cómo se desarrolla un “interruptor de seguridad de la IA”? La clave está en proteger todo el ecosistema controlado por máquinas en el que opera una IA. Las identidades de las máquinas (como los certificados digitales, los tokens de acceso y las claves API) autentican y autorizan las funciones de la IA y sus capacidades para interactuar con las fuentes de datos y acceder a ellas. Es decir, los LLM y otros sistemas de IA son código, y el código necesita una verificación constante para evitar el acceso no autorizado, por ejemplo.
De lo contrario, si los atacantes comprometen estas identidades, los sistemas de IA pueden convertirse en marionetas bajo su control, creando ransomware, ampliando campañas de phishing y sembrando el caos general. Los programas de seguridad de identidad de las máquinas están diseñados para garantizar la confiabilidad de los sistemas de IA, incluso cuando estas se escalan para interactuar con redes complejas y bases de usuarios, tareas que pueden realizarse de forma autónoma a través de agentes de IA. Sin una supervisión clara, los ciberdelincuentes pueden realizar numerosos ataques, desde el envenenamiento de datos hasta vulnerabilidades de puerta trasera y mucho más.
El ataque a DeepSeek ha sido un toque de atención. Empresas, gobiernos e investigadores deben colaborar para construir marcos proactivos que se adapten tan rápido como lo hacen los adversarios impulsados por la IA. Porque todo comienza con la seguridad de la identidad de las máquinas, la base para crear confianza y resistencia en un mundo impulsado por la inteligencia artificial.
Kevin Bocek, vicepresidente senior de innovación de Venafi, una compañía de CyberArk