sábado, junio 21, 2025
Ciberseguridadtic
  • Inicio
  • Datos
    • Actualidad Datos
    • Entrevistas
    • Vídeos
    • Opinión
  • Endpoint
    • Actualidad Endpoint
    • Entrevistas
    • Vídeos
    • Opinión
  • Identidades
    • Actualidad Identidades
    • Entrevistas
    • Vídeos
    • Opinión
  • Infraestructuras
    • Actualidad Infraestructura
    • Entrevistas
    • Vídeos
    • Opinión
  • Mercado
  • Debates
    • Almuerzos TAI
      • Menos riesgos, más control: Descubre cómo simplificar la gestión de proveedores 2025
      • La videocolaboración segura como palanca estratégica: soberanía, interoperabilidad e inteligencia artificial 2025
      • Identidad digital: clave en la gestión de riesgos y cumplimiento normativo 2024
      • Desenmascarando al enemigo, Threat Attribution Engine y servicios de IA aplicada 2024
      • Colaboración segura nunca compromete la seguridad 2024
      • Unificar para identificar 2023
      • Transformando el comportamiento de los usuarios 2023
    • Debates TAI
      • El futuro es ahora: Innovación, regulación y seguridad en la era digital 2025
      • Debate endpoints: XDR, IoT 2025
      • DSPM la nueva frontera de la seguridad de los datos 2025
      • Tendencias de ciberseguridad 2025
      • La seguridad empieza por la identidad 2024
      • Debate MDR 2024
      • Debate CSPM – CNAPP 2024
      • SASE: Protegiendo su negocio en un mundo cada vez más conectado 2024
      • Debate ciberinteligencia 2024
      • Debate seguridad OT 2024
      • Debate ransomware 2024
      • Debate seguridad en movilidad 2024
      • Debate seguridad sector sanitario 2024
      • Debate Zero Trust 2024
      • Debate seguridad de las aplicaciones 2023
  • Reportajes

    DES 2025: visión de mercado desde el corazón la innovación empresarial

    IA agéntica, motor de adquisiciones y lanzamientos

    Seguridad para la inteligencia artificial: el nuevo frente crítico

    Xanthorox AI: El cibercrimen entra en la era de la autonomía total

  • Revista Online
    • Mayo 2023
    • Abril 2023
    • Marzo 2023
    • Febrero 2023
  • FORO TAI
    • BLINDANDO EL FUTURO DIGITAL EN UN MUNDO INTERCONECTADO
    • LA INNOVACIÓN COMO ALIADA DE LA CIBERSEGURIDAD
    • EMPRESA TECNOLÓGICAMENTE MODERNA Y SEGURA
    • INNOVACIÓN DISRUPTIVA
  • Suscripciones
No Result
Ver todos los resultados
  • Inicio
  • Datos
    • Actualidad Datos
    • Entrevistas
    • Vídeos
    • Opinión
  • Endpoint
    • Actualidad Endpoint
    • Entrevistas
    • Vídeos
    • Opinión
  • Identidades
    • Actualidad Identidades
    • Entrevistas
    • Vídeos
    • Opinión
  • Infraestructuras
    • Actualidad Infraestructura
    • Entrevistas
    • Vídeos
    • Opinión
  • Mercado
  • Debates
    • Almuerzos TAI
      • Menos riesgos, más control: Descubre cómo simplificar la gestión de proveedores 2025
      • La videocolaboración segura como palanca estratégica: soberanía, interoperabilidad e inteligencia artificial 2025
      • Identidad digital: clave en la gestión de riesgos y cumplimiento normativo 2024
      • Desenmascarando al enemigo, Threat Attribution Engine y servicios de IA aplicada 2024
      • Colaboración segura nunca compromete la seguridad 2024
      • Unificar para identificar 2023
      • Transformando el comportamiento de los usuarios 2023
    • Debates TAI
      • El futuro es ahora: Innovación, regulación y seguridad en la era digital 2025
      • Debate endpoints: XDR, IoT 2025
      • DSPM la nueva frontera de la seguridad de los datos 2025
      • Tendencias de ciberseguridad 2025
      • La seguridad empieza por la identidad 2024
      • Debate MDR 2024
      • Debate CSPM – CNAPP 2024
      • SASE: Protegiendo su negocio en un mundo cada vez más conectado 2024
      • Debate ciberinteligencia 2024
      • Debate seguridad OT 2024
      • Debate ransomware 2024
      • Debate seguridad en movilidad 2024
      • Debate seguridad sector sanitario 2024
      • Debate Zero Trust 2024
      • Debate seguridad de las aplicaciones 2023
  • Reportajes

    DES 2025: visión de mercado desde el corazón la innovación empresarial

    IA agéntica, motor de adquisiciones y lanzamientos

    Seguridad para la inteligencia artificial: el nuevo frente crítico

    Xanthorox AI: El cibercrimen entra en la era de la autonomía total

  • Revista Online
    • Mayo 2023
    • Abril 2023
    • Marzo 2023
    • Febrero 2023
  • FORO TAI
    • BLINDANDO EL FUTURO DIGITAL EN UN MUNDO INTERCONECTADO
    • LA INNOVACIÓN COMO ALIADA DE LA CIBERSEGURIDAD
    • EMPRESA TECNOLÓGICAMENTE MODERNA Y SEGURA
    • INNOVACIÓN DISRUPTIVA
  • Suscripciones
No Result
Ver todos los resultados
Ciberseguridadtic
No Result
Ver todos los resultados

Inicio Opinión

Nueva primera línea de defensa de las empresas: las aplicaciones de IA

Analiza en esta tribuna Ray Canzanese, Director de Investigación de Amenazas de Netskope Threat Labs, por qué las políticas de prevención de pérdida de datos son necesarias debido a que los datos confidenciales se cargan en las aplicaciones de IA generativa varias veces al día.

Rosalía ArroyoPor: Rosalía Arroyo
enero 29, 2024
57
Visualizaciones
TwitterLinkedin

El auge de ChatGPT y otras aplicaciones de IA generativa han atraído rápidamente la atención de los actores maliciosos. Esta plataforma, en tan solo dos meses, superó los 100 millones de usuarios, lo que jugó a favor de los ciberatacantes que aprovecharon ese caldo de cultivo para sus fines nefastos.

Aunque ChatGPT es sin duda la herramienta de IA generativa más popular -con más de 8 veces el número de usuarios activos diarios que cualquier otra aplicación de IA-, Google Bard es actualmente la que crece más rápido, añadiendo usuarios a un ritmo del 7,1% por semana. En su trayectoria actual, Bard va camino de alcanzar a ChatGPT en poco más de un año, aunque su impacto en las empresas está aún por determinar.

Bloquear o no bloquear

Muchas organizaciones han reaccionado frenéticamente estableciendo controles para bloquear por completo el uso de ChatGPT. Este es el tipo de política más draconiana que permite a los usuarios ninguna interacción con la aplicación: no pueden iniciar sesión, enviar mensajes o, a veces, ni siquiera visitar la propia página de inicio de sesión. Los servicios financieros lideran este método, con casi el 17% de las empresas que bloquean completamente ChatGPT.

Sin embargo, una prohibición total rara vez erradica eficazmente -o incluso reduce significativamente- el uso de aplicaciones de IA en las empresas. Los empleados acaban recurriendo a la IA en la sombra -usando IA en secreto en el trabajo- para aprovechar los beneficios de esta herramienta.  La IA en la sombra significa que los equipos de TI tienen aún menos visibilidad sobre la información que se comparte en estas plataformas, lo que aumenta el riesgo de fuga de datos confidenciales y otras ciberamenazas. En lugar de implantar inmediatamente políticas que bloqueen ChatGPT, Bard u otras herramientas de IA, las organizaciones deberían fomentar la adopción segura de aplicaciones de IA mediante el empoderamiento de los empleados para que utilicen las herramientas de IA preferidas, al tiempo que protegen a la organización de los riesgos.

Capacitar al usuario

Las empresas pueden adoptar algunos métodos que permitan a los trabajadores disfrutar de las ventajas de las herramientas de IA y, al mismo tiempo, proteger los datos confidenciales tanto de los propios empleados como de la organización en general:

Políticas de alerta: controles informativos para proporcionar visibilidad sobre cómo los usuarios de la organización interactúan con aplicaciones de IA comoChatGPT. A menudo se utilizan durante una fase de aprendizaje para explorar la eficacia y el impacto de un control de bloqueo, y normalmente se convierten en políticas de bloqueo, sólo después de haber sido ajustadas y probadas:

Políticas de orientación al usuario: proporcionan contexto a los usuarios que las activan, permitiéndoles decidir si desean continuar o no. En este caso, se suele recordar al usuario la política de la empresa. Por ejemplo, si la política de la empresa es no subir código fuente propietario a ChatGPT, pero el usuario lo está haciendo, puede optar por continuar con el envío después de la notificación. En el caso de las políticas de entrenamiento de usuarios de ChatGPT, los usuarios hacen clic en continuar el 57% de las veces.

Políticas de prevención de pérdida de datos (DLP): permiten a las organizaciones admitir el acceso a ChatGPT, pero controlan la publicación de datos confidenciales en los avisos. A menudo se combinan con políticas de formación de usuarios para que se les notifique que los datos que publican en ChatGPT parecen ser de naturaleza confidencial, y con políticas de alerta para proporcionar a la organización visibilidad de los datos potencialmente confidenciales que se publican. La organización configura las políticas de DLP para que se activen en cada publicación en ChatGPT e inspeccionen el contenido de la publicación antes de permitir su paso.

Proteger la información confidencial

Al hilo de todo lo expuesto, las políticas de prevención de pérdida de datos son necesarias porque los datos confidenciales se cargan en las aplicaciones de IA generativa varias veces al día. La investigación de Netskope reveló que el código fuente representa la mayor parte de los datos confidenciales expuestos a ChatGPT, con una tasa de 158 incidentes por cada 10.000 usuarios empresariales al mes.

Por cada 10.000 usuarios empresariales, también se suelen producir 18 incidentes mensuales de intercambio de datos regulados, – incluyendo datos financieros, información sanitaria e información de identificación personal – y 4 incidentes mensuales de intercambio de propiedad intelectual, excluyendo el código fuente. Adicionalmente, tienen lugar aproximadamente cuatro incidentes al mes de intercambio de contraseñas y claves, por lo general incrustadas en el código fuente, lo que sirve de recordatorio crucial a los ingenieros de software sobre los riesgos de codificar secretos en el código fuente.

La tentación persistirá, dada la capacidad de ChatGPT para revisar y explicar el código, localizar errores e identificar vulnerabilidades, pero conlleva sus propios riesgos, como se vio cuando se filtró el código fuente de Twitter en GitHub. Fue tal el peligro que Twitter emprendió acciones legales contra GitHub para eliminar el código y obligarles a revelar la identidad del autor de la filtración.

No es de extrañar que las políticas de protección frente a la pérdida de datos se centren en el código fuente propietario, las contraseñas y claves, la propiedad intelectual y los datos regulados.

Ray Canzanese, Director de Investigación de Amenazas de Netskope Threat Labs

Tags: ChatGPTIA GenerativaNetskope

DESTACADO

Destacado

WatchGuard: “Nuestra obsesión es ser simples, muy efectivos y ofrecer sólo lo que se necesita”

junio 20, 2025

WatchGuard ha cambiado. Quien aún la asocie únicamente al firewall se está quedando corto. La compañía, con una larga trayectoria...

Leer másDetails
Actualidad Datos

Veeam: “Proteger el dato no es sólo hacer backup. Es garantizar que lo puedes recuperar con confianza, rapidez y control”

junio 20, 2025

Los ciberataques no dan tregua. Aunque muchas empresas creen estar preparadas, lo cierto es que cuando el ransomware golpea, la...

Leer másDetails
Actualidad Endpoint

PHASR: la solución de Bitdefender que actúa antes de que empiece el ataque

junio 19, 2025

Cada vez es más difícil detectar una amenaza cuando no se comporta como tal. Y eso es precisamente lo que...

Leer másDetails
Sincategoria

Cinco claves para un sistema DLP eficaz: lo que diferencia a Symantec en la era de la IA

junio 18, 2025

Cinco claves para un sistema DLP eficaz: lo que diferencia a Symantec en la era de la IA En un...

Leer másDetails
Entornos

Factum: “La mediana empresa tiene que madurar mucho en seguridad, pero no saben cómo hacerlo”

septiembre 2, 2024 - Actualizado en septiembre 17, 2024

Factum es una empresa española. Nació en 2009 como compañía integradora especializada en todos los ámbitos de la seguridad IT...

Leer másDetails
Entrevistas

Vasu Jakkal (Microsoft): “La transformación de la IA agéntica está dando lugar a la Empresa Frontera” 

junio 18, 2025 - Actualizado en junio 19, 2025

La inteligencia artificial está redefiniendo el concepto mismo de ciberamenaza. Es un hecho. La respuesta de Microsoft es la de...

Leer másDetails
Entornos

“Sophos es la opción más sencilla, completa y consistente para cumplir con NIS2”

septiembre 2, 2024 - Actualizado en febrero 26, 2025

En un panorama de amenazas en constante evolución, las empresas no solo deben hacer frente a la seguridad de sus...

Leer másDetails
Entrevistas

WatchGuard: “Esto ya no va de vender productos. Va de vender resultados”

junio 16, 2025 - Actualizado en junio 20, 2025

Durante el roadshow "Real Security for the Real World" celebrado en Madrid y que contó con la asistencia de altos...

Leer másDetails
Sincategoria

Facilite a sus clientes la adopción de Copilot AI de forma segura con Symantec Data Loss Prevention (DLP)

junio 16, 2025

La habilitación segura de Copilot con Symantec© DLP es rápida y sencilla, ¡y puede ser el camino hacia algo grande!...

Leer másDetails
Sincategoria

La inteligencia artificial empodera la oferta de HP en el entorno del puesto de trabajo

septiembre 4, 2024

La inteligencia artificial se ha integrado en la oferta de HP en el entorno, crítico, del puesto de trabajo. Ordenadores,...

Leer másDetails
Sincategoria

HP avanza en su objetivo de conseguir un mundo más justo y sostenible

septiembre 18, 2024

Recientemente HP publicó su Informe de Impacto Sostenible 2023 donde se detallan los avances alcanzados por la compañía en materia...

Leer másDetails

SOBRE NOSOTROS

CiberseguridadTIC es una publicación de T.a.i. Editorial con información y análisis para las empresas y profesionales de seguridad

Contáctanos: correo@taieditorial.es

SÍGUENOS EN:

T.a.i. Editorial S.A. ®, marca registrada 2023 | Aviso Legal | Política de Privacidad | Política de Cookies | Anúnciese aquí

No Result
Ver todos los resultados
  • Inicio
  • Datos
    • Actualidad Datos
    • Entrevistas
    • Vídeos
    • Opinión
  • Endpoint
    • Actualidad Endpoint
    • Entrevistas
    • Vídeos
    • Opinión
  • Identidades
    • Actualidad Identidades
    • Entrevistas
    • Vídeos
    • Opinión
  • Infraestructuras
    • Actualidad Infraestructura
    • Entrevistas
    • Vídeos
    • Opinión
  • Mercado
  • Debates
    • Almuerzos TAI
      • Menos riesgos, más control: Descubre cómo simplificar la gestión de proveedores 2025
      • La videocolaboración segura como palanca estratégica: soberanía, interoperabilidad e inteligencia artificial 2025
      • Identidad digital: clave en la gestión de riesgos y cumplimiento normativo 2024
      • Desenmascarando al enemigo, Threat Attribution Engine y servicios de IA aplicada 2024
      • Colaboración segura nunca compromete la seguridad 2024
      • Unificar para identificar 2023
      • Transformando el comportamiento de los usuarios 2023
    • Debates TAI
      • El futuro es ahora: Innovación, regulación y seguridad en la era digital 2025
      • Debate endpoints: XDR, IoT 2025
      • DSPM la nueva frontera de la seguridad de los datos 2025
      • Tendencias de ciberseguridad 2025
      • La seguridad empieza por la identidad 2024
      • Debate MDR 2024
      • Debate CSPM – CNAPP 2024
      • SASE: Protegiendo su negocio en un mundo cada vez más conectado 2024
      • Debate ciberinteligencia 2024
      • Debate seguridad OT 2024
      • Debate ransomware 2024
      • Debate seguridad en movilidad 2024
      • Debate seguridad sector sanitario 2024
      • Debate Zero Trust 2024
      • Debate seguridad de las aplicaciones 2023
  • Reportajes
  • Revista Online
    • Mayo 2023
    • Abril 2023
    • Marzo 2023
    • Febrero 2023
  • FORO TAI
    • BLINDANDO EL FUTURO DIGITAL EN UN MUNDO INTERCONECTADO
    • LA INNOVACIÓN COMO ALIADA DE LA CIBERSEGURIDAD
    • EMPRESA TECNOLÓGICAMENTE MODERNA Y SEGURA
    • INNOVACIÓN DISRUPTIVA
  • Suscripciones

© 2025 JNews - Premium WordPress news & magazine theme by Jegtheme.

Este sitio web almacena cookies técnicas esenciales para el buen funcionamiento de la página. Estas cookies sirven para mejorar nuestro sitio web y poder ofrecer su funcionalidad completa. No utilizamos cookies de seguimiento para publicidad, ni para redes sociales, ya que cuando comparte información con una red social, será al entrar en ésta cuando le pidan el consentimiento a esas cookies. Para conocer más acerca de las cookies que utilizamos, pulse en Política de cookies. Puede visitar nuestra política de privacidad para saber más sobre el tratamiento de sus datos Política de privacidad. Pulse en aceptar, para minimizar