El incesante bombardeo informativo en torno a las posibilidades de herramientas de IA como ChatGPT, puede dar a entender que los consumidores, o las empresas, van a empezar a utilizar estas soluciones con cierta asiduidad. Sin embargo, también pone de relieve que se está perdiendo el control de la información que se comparte en internet.
A la vista del “Día de la Privacidad de la Información”, las personas y las organizaciones deben ser conscientes de que en el momento en que comparten algo en Instagram o publican accidentalmente en Internet un bucket de S3, pierden el control sobre quién o qué puede ver y reutilizar esa información. Como ha demostrado ChatGPT, la IA puede sacar esta información de su contexto original y volver a recomponerla.
La pregunta que nos planteamos hoy es : ¿cómo podemos utilizar la inteligencia artificial de forma responsable para que nos ayude? En última instancia, los humanos enseñan a las máquinas a aprender. En 2016, un experimento con un chatbot para Twitter llamado Tay acabó siendo un desastre. El bot no estaba suficientemente entrenado para incluir el contexto en su selección de información, por lo que su comunicación tomó una dirección inaceptable. Esto pone de manifiesto que los responsables de la información también deben velar por el manejo responsable de sus datos en Internet. Hoy en día, la IA es mucho más madura, pero se mantienen los mismos peligros.
La categorización proporciona protección
Los responsables de proteger la información de las organizaciones, como los departamentos de ciberseguridad y recursos humanos, deben hacerlo con sumo cuidado, porque cada dato tiene hoy un valor completamente distinto del que hubiera tenido hace unos años y, por tanto, debe protegerse de forma diferente. El primer paso es decidir qué datos son privados y cuáles no, para poder clasificarlos. Con los datos catalogados como privados o públicos, por ejemplo, un chatbot debidamente entrenado puede filtrarlos antes de procesarlos.
Los debates y el interés suscitados por ChatGPT deben servir de llamada de atención a las empresas para que empiecen a analizar cómo y dónde almacenan sus datos. Es preciso que determinen qué datos deben recopilar y conservar y cómo pueden utilizarse y protegerse. La categorización de los datos debe ser prioritaria como base para un uso sensato y responsable de las posibilidades de la IA. Solo cuando los datos estén debidamente categorizados podrá la IA segmentarlos correctamente.
Las organizaciones no pueden evitar este ejercicio de categorización, ya que es necesario para la seguridad de la información en otros muchos aspectos, ya se trate de IA o de informática tradicional. Las herramientas de prevención de pérdida de datos también se basan en estas categorías para evitar que se compartan accidental o intencionadamente a partes no autorizadas. Con la ayuda de políticas de DLP que se apoyan en categorías, por ejemplo, la información confidencial no puede salir de una organización ni hacerse pública en Internet.
Es necesario actuar
El temor a manejar la información de forma inapropiada está bastante justificado a la luz de los avances tecnológicos. Sin embargo, las organizaciones tienen en su mano la protección de sus datos y deben tomar medidas para que los datos sensibles y privados no se hagan públicos. Como primer paso, deben disponer de los medios necesarios para poder garantizar la visibilidad completa de todos los datos almacenados en su ecosistema informático para clasificarlos
Al igual que la IA ha avanzado, las organizaciones deben evolucionar y tomar las medidas de protección adecuadas. Por ejemplo, una plataforma de seguridad en Internet basada en la nube puede escanear datos confidenciales a punto de ser expuestos en Internet y, además, puede proteger entornos en la nube con un enfoque de confianza cero para categorizar eficazmente cada dato.
Nathan Howe, Vicepresidente de Tecnologías Emergentes y 5G, Zscaler