La explosión de la Inteligencia artificial generativa ha desbordado todas las previsiones. Herramientas como ChatGPT o Google Bard son utilizadas a diario por millones de personas. Para saber cómo se están utilizando la empresa ExtraHop ha publicado un estudio basado en una encuesta realizada a más de 1.200 responsables de TI y seguridad de todo el mundo.
Preguntados sobre lo que les preocupaba del uso de herramientas de IA generativa la exposición de información de identificación personal (PII) de empleados o clientes (36 %), la exposición de secretos comerciales (33 %) y las pérdidas financieras (25 %) ocuparon un lugar más bajo.
A pesar de que menos de la mitad de las empresas participantes habían invertido en tecnología capaz de monitorizar el uso de la IA generativa por parte de los empleados, la gran mayoría, un 82 por ciento, están seguros o muy seguros de que paquete de seguridad actual puede protegerlos contra las amenazas de las herramientas de IA generativa ante una posible pérdida de datos. Además, solo el 46 % cuenta con políticas de seguridad que rigen qué datos de la empresa son o no seguros para compartir con estas herramientas.
Desde ExtraHop apuntan a que la desconexión entre la confianza de los encuestados en su capacidad para protegerse contra amenazas a pesar de su falta de tecnología de monitorización y políticas de seguridad parece indicar que muchos encuestados pueden estar confiando en firewalls de próxima generación (NGFW) como control de seguridad para bloquear el tráfico a dominios generativos de IA. “El problema de depender de los NGFW para bloquear el acceso a herramientas de IA generativa es que los NGFW no encajan bien en los flujos de trabajo de investigación de seguridad sin mucho trabajo y que los usuarios finales siempre pueden encontrar una solución alternativa para las listas de bloqueo”, aseguran los investigadores.
Los datos el estudio también indican que los usuarios están encontrando las formas de eludir las prohibiciones el uso de herramientas de IA generativa; “y una vez que los datos se envían a estas herramientas, no hay forma de recuperarlos”, recuerdan desde ExtraHop.
Casi tres cuartas partes de los encuestados han invertido o planean invertir en protecciones o medidas de seguridad de IA generativa este año. Pero los líderes quieren cierta orientación externa para garantizar que estas inversiones den sus frutos. Cuando se les preguntó su opinión sobre qué tan involucrado debería estar el gobierno en las regulaciones de IA, el 60 % dijo que el gobierno debería establecer regulaciones claras que las empresas deben seguir.