El auge de ChatGPT y otras aplicaciones de IA generativa han atraído rápidamente la atención de los actores maliciosos. Esta plataforma, en tan solo dos meses, superó los 100 millones de usuarios, lo que jugó a favor de los ciberatacantes que aprovecharon ese caldo de cultivo para sus fines nefastos.
Aunque ChatGPT es sin duda la herramienta de IA generativa más popular -con más de 8 veces el número de usuarios activos diarios que cualquier otra aplicación de IA-, Google Bard es actualmente la que crece más rápido, añadiendo usuarios a un ritmo del 7,1% por semana. En su trayectoria actual, Bard va camino de alcanzar a ChatGPT en poco más de un año, aunque su impacto en las empresas está aún por determinar.
Bloquear o no bloquear
Muchas organizaciones han reaccionado frenéticamente estableciendo controles para bloquear por completo el uso de ChatGPT. Este es el tipo de política más draconiana que permite a los usuarios ninguna interacción con la aplicación: no pueden iniciar sesión, enviar mensajes o, a veces, ni siquiera visitar la propia página de inicio de sesión. Los servicios financieros lideran este método, con casi el 17% de las empresas que bloquean completamente ChatGPT.
Sin embargo, una prohibición total rara vez erradica eficazmente -o incluso reduce significativamente- el uso de aplicaciones de IA en las empresas. Los empleados acaban recurriendo a la IA en la sombra -usando IA en secreto en el trabajo- para aprovechar los beneficios de esta herramienta. La IA en la sombra significa que los equipos de TI tienen aún menos visibilidad sobre la información que se comparte en estas plataformas, lo que aumenta el riesgo de fuga de datos confidenciales y otras ciberamenazas. En lugar de implantar inmediatamente políticas que bloqueen ChatGPT, Bard u otras herramientas de IA, las organizaciones deberían fomentar la adopción segura de aplicaciones de IA mediante el empoderamiento de los empleados para que utilicen las herramientas de IA preferidas, al tiempo que protegen a la organización de los riesgos.
Capacitar al usuario
Las empresas pueden adoptar algunos métodos que permitan a los trabajadores disfrutar de las ventajas de las herramientas de IA y, al mismo tiempo, proteger los datos confidenciales tanto de los propios empleados como de la organización en general:
Políticas de alerta: controles informativos para proporcionar visibilidad sobre cómo los usuarios de la organización interactúan con aplicaciones de IA comoChatGPT. A menudo se utilizan durante una fase de aprendizaje para explorar la eficacia y el impacto de un control de bloqueo, y normalmente se convierten en políticas de bloqueo, sólo después de haber sido ajustadas y probadas:
Políticas de orientación al usuario: proporcionan contexto a los usuarios que las activan, permitiéndoles decidir si desean continuar o no. En este caso, se suele recordar al usuario la política de la empresa. Por ejemplo, si la política de la empresa es no subir código fuente propietario a ChatGPT, pero el usuario lo está haciendo, puede optar por continuar con el envío después de la notificación. En el caso de las políticas de entrenamiento de usuarios de ChatGPT, los usuarios hacen clic en continuar el 57% de las veces.
Políticas de prevención de pérdida de datos (DLP): permiten a las organizaciones admitir el acceso a ChatGPT, pero controlan la publicación de datos confidenciales en los avisos. A menudo se combinan con políticas de formación de usuarios para que se les notifique que los datos que publican en ChatGPT parecen ser de naturaleza confidencial, y con políticas de alerta para proporcionar a la organización visibilidad de los datos potencialmente confidenciales que se publican. La organización configura las políticas de DLP para que se activen en cada publicación en ChatGPT e inspeccionen el contenido de la publicación antes de permitir su paso.
Proteger la información confidencial
Al hilo de todo lo expuesto, las políticas de prevención de pérdida de datos son necesarias porque los datos confidenciales se cargan en las aplicaciones de IA generativa varias veces al día. La investigación de Netskope reveló que el código fuente representa la mayor parte de los datos confidenciales expuestos a ChatGPT, con una tasa de 158 incidentes por cada 10.000 usuarios empresariales al mes.
Por cada 10.000 usuarios empresariales, también se suelen producir 18 incidentes mensuales de intercambio de datos regulados, – incluyendo datos financieros, información sanitaria e información de identificación personal – y 4 incidentes mensuales de intercambio de propiedad intelectual, excluyendo el código fuente. Adicionalmente, tienen lugar aproximadamente cuatro incidentes al mes de intercambio de contraseñas y claves, por lo general incrustadas en el código fuente, lo que sirve de recordatorio crucial a los ingenieros de software sobre los riesgos de codificar secretos en el código fuente.
La tentación persistirá, dada la capacidad de ChatGPT para revisar y explicar el código, localizar errores e identificar vulnerabilidades, pero conlleva sus propios riesgos, como se vio cuando se filtró el código fuente de Twitter en GitHub. Fue tal el peligro que Twitter emprendió acciones legales contra GitHub para eliminar el código y obligarles a revelar la identidad del autor de la filtración.
No es de extrañar que las políticas de protección frente a la pérdida de datos se centren en el código fuente propietario, las contraseñas y claves, la propiedad intelectual y los datos regulados.
Ray Canzanese, Director de Investigación de Amenazas de Netskope Threat Labs