sábado, julio 5, 2025
Ciberseguridadtic
  • Inicio
  • Datos
    • Actualidad Datos
    • Entrevistas
    • Vídeos
    • Opinión
  • Endpoint
    • Actualidad Endpoint
    • Entrevistas
    • Vídeos
    • Opinión
  • Identidades
    • Actualidad Identidades
    • Entrevistas
    • Vídeos
    • Opinión
  • Infraestructuras
    • Actualidad Infraestructura
    • Entrevistas
    • Vídeos
    • Opinión
  • Mercado
  • Debates
    • Almuerzos TAI
      • Seguridad del dato más IA: hacia una protección real, automatizada y transversal 2025
      • Menos riesgos, más control: Descubre cómo simplificar la gestión de proveedores 2025
      • La videocolaboración segura como palanca estratégica: soberanía, interoperabilidad e inteligencia artificial 2025
      • Identidad digital: clave en la gestión de riesgos y cumplimiento normativo 2024
      • Desenmascarando al enemigo, Threat Attribution Engine y servicios de IA aplicada 2024
      • Colaboración segura nunca compromete la seguridad 2024
      • Unificar para identificar 2023
      • Transformando el comportamiento de los usuarios 2023
    • Debates TAI
      • Más allá del perímetro. Nuevos desafíos y soluciones para la seguridad de redes 2025
      • El futuro es ahora: Innovación, regulación y seguridad en la era digital 2025
      • Debate endpoints: XDR, IoT 2025
      • DSPM la nueva frontera de la seguridad de los datos 2025
      • Tendencias de ciberseguridad 2025
      • La seguridad empieza por la identidad 2024
      • Debate MDR 2024
      • Debate CSPM – CNAPP 2024
      • SASE: Protegiendo su negocio en un mundo cada vez más conectado 2024
      • Debate ciberinteligencia 2024
      • Debate seguridad OT 2024
      • Debate ransomware 2024
      • Debate seguridad en movilidad 2024
      • Debate seguridad sector sanitario 2024
      • Debate Zero Trust 2024
      • Debate seguridad de las aplicaciones 2023
  • Reportajes

    Kaspersky Horizons 2025 analiza los grandes desafíos de la ciberseguridad del futuro

    DES 2025: visión de mercado desde el corazón la innovación empresarial

    IA agéntica, motor de adquisiciones y lanzamientos

    Seguridad para la inteligencia artificial: el nuevo frente crítico

  • Revista Online
    • Mayo 2023
    • Abril 2023
    • Marzo 2023
    • Febrero 2023
  • FORO TAI
    • BLINDANDO EL FUTURO DIGITAL EN UN MUNDO INTERCONECTADO
    • LA INNOVACIÓN COMO ALIADA DE LA CIBERSEGURIDAD
    • EMPRESA TECNOLÓGICAMENTE MODERNA Y SEGURA
    • INNOVACIÓN DISRUPTIVA
  • Suscripciones
No Result
Ver todos los resultados
  • Inicio
  • Datos
    • Actualidad Datos
    • Entrevistas
    • Vídeos
    • Opinión
  • Endpoint
    • Actualidad Endpoint
    • Entrevistas
    • Vídeos
    • Opinión
  • Identidades
    • Actualidad Identidades
    • Entrevistas
    • Vídeos
    • Opinión
  • Infraestructuras
    • Actualidad Infraestructura
    • Entrevistas
    • Vídeos
    • Opinión
  • Mercado
  • Debates
    • Almuerzos TAI
      • Seguridad del dato más IA: hacia una protección real, automatizada y transversal 2025
      • Menos riesgos, más control: Descubre cómo simplificar la gestión de proveedores 2025
      • La videocolaboración segura como palanca estratégica: soberanía, interoperabilidad e inteligencia artificial 2025
      • Identidad digital: clave en la gestión de riesgos y cumplimiento normativo 2024
      • Desenmascarando al enemigo, Threat Attribution Engine y servicios de IA aplicada 2024
      • Colaboración segura nunca compromete la seguridad 2024
      • Unificar para identificar 2023
      • Transformando el comportamiento de los usuarios 2023
    • Debates TAI
      • Más allá del perímetro. Nuevos desafíos y soluciones para la seguridad de redes 2025
      • El futuro es ahora: Innovación, regulación y seguridad en la era digital 2025
      • Debate endpoints: XDR, IoT 2025
      • DSPM la nueva frontera de la seguridad de los datos 2025
      • Tendencias de ciberseguridad 2025
      • La seguridad empieza por la identidad 2024
      • Debate MDR 2024
      • Debate CSPM – CNAPP 2024
      • SASE: Protegiendo su negocio en un mundo cada vez más conectado 2024
      • Debate ciberinteligencia 2024
      • Debate seguridad OT 2024
      • Debate ransomware 2024
      • Debate seguridad en movilidad 2024
      • Debate seguridad sector sanitario 2024
      • Debate Zero Trust 2024
      • Debate seguridad de las aplicaciones 2023
  • Reportajes

    Kaspersky Horizons 2025 analiza los grandes desafíos de la ciberseguridad del futuro

    DES 2025: visión de mercado desde el corazón la innovación empresarial

    IA agéntica, motor de adquisiciones y lanzamientos

    Seguridad para la inteligencia artificial: el nuevo frente crítico

  • Revista Online
    • Mayo 2023
    • Abril 2023
    • Marzo 2023
    • Febrero 2023
  • FORO TAI
    • BLINDANDO EL FUTURO DIGITAL EN UN MUNDO INTERCONECTADO
    • LA INNOVACIÓN COMO ALIADA DE LA CIBERSEGURIDAD
    • EMPRESA TECNOLÓGICAMENTE MODERNA Y SEGURA
    • INNOVACIÓN DISRUPTIVA
  • Suscripciones
No Result
Ver todos los resultados
Ciberseguridadtic
No Result
Ver todos los resultados

Inicio Opinión

Cumplir con el Reglamento europeo de IA: todo debe estar listo antes del 2 de febrero de 2025

Analizando Reglamento de Inteligencia Artificial de la UE ,Neil Thacker, CISO de Netskope, asegura en este artículo que, si bien es importante comprender qué se prohíbe utilizar y cuáles solo pueden considerarse de alto riesgo, el primer paso para cualquier empresa es comprender cómo puede que esté ya utilizando la IA en sus operaciones del día a día.

Rosalía ArroyoPor: Rosalía Arroyo
diciembre 9, 2024
40
Visualizaciones
TwitterLinkedin

El Reglamento de Inteligencia Artificial de la UE, que entró en vigor el 1 de agosto de 2024, adopta un criterio en función de los niveles de riesgo para regular los sistemas de inteligencia artificial, dividiéndolos en cuatro categorías: riesgo mínimo, propósito general, riesgo alto y prohibido. La fecha límite para que las empresas cumplan los requisitos de la nueva legislación europea es el 2 de febrero de 2025.

El reglamento enumera ocho casos de uso prohibidos de la IA, incluidos los sistemas que emplean técnicas de manipulación cognitiva conductual, la puntuación ciudadana, la actuación policial predictiva, la creación de bases de datos de reconocimiento facial, el reconocimiento de emociones de empleados o estudiantes, el uso de datos biométricos para recopilar información personal sensible (según la definición del RGPD) y el uso de sistemas de identificación biométrica en tiempo real en lugares públicos con fines policiales.

Si bien es importante comprender qué se prohíbe utilizar y cuáles solo pueden considerarse de alto riesgo, el primer paso para cualquier empresa es comprender cómo puede que esté ya utilizando la IA en sus operaciones del día a día.

Descubriendo la inteligencia artificial encubierta

Inventariar y gestionar los activos de TI es un cometido vital para las empresas, pero además de las muchas aplicaciones y servicios en la nube permitidos que utilizan, sus empleados suelen utilizar otras muchas aplicaciones y servicios no supervisados, y esos activos a menudo incorporan IA.

Un Cloud Access Security Broker (CASB) puede identificar aplicaciones gestionadas y no gestionadas en el ecosistema de TI de la empresa y clasificarlas en función de varios criterios, incluido su uso de IA. Una vez identificados todos los sistemas de IA, el mapeo de los flujos de datos en toda la organización puede proporcionar visibilidad sobre qué datos están siendo consumidos por qué aplicaciones de IA.

Con esta información, los CISO y los administradores de TI pueden tomar decisiones más informadas sobre el posible impacto empresarial de incorporar o eliminar varias aplicaciones.

Como parte de este proceso, las políticas de prevención de pérdida de datos (DLP) pueden ayudar a las empresas a etiquetar los datos sensibles y rastrear o impedir su consumo por los sistemas de IA. Las políticas de DLP también pueden etiquetar el contenido generado por IA.

Soluciones de gestión como Cloud Security Posture Management (CSPM) y SaaS Security Posture Management (SSPM) también pueden utilizarse para supervisar los activos de IA y evitar la «desviación de la configuración», garantizando que el uso de aplicaciones y servicios impulsados por IA se mantiene dentro de los parámetros definidos por la propia empresa.

Protección de empleados, clientes y público en general

Algunos ejemplos de usos prohibidos de IA son especialmente importantes para las empresas. Entre ellos figuran la prohibición del reconocimiento de emociones, la puntuación ciudadana y el uso de datos biométricos para obtener información personal de carácter delicado. Una vez más, las políticas de DLP pueden ayudar a identificar este tipo de datos, tal como se definen en el RGPD, incluso cuando han sido generados por un sistema de IA.

En cuanto al reconocimiento de emociones, es importante distinguirla de las herramientas corrientes de análisis de sentimiento que se han utilizado durante muchos años para conocer el estado de ánimo de los empleados y su respuesta a los cambios en la política de la empresa. Aunque los términos se utilizan a menudo indistintamente, el análisis de sentimientos se limita normalmente a detectar una respuesta positiva o negativa, mientras que el reconocimiento de emociones es mucho más precisa, abarca una gama más amplia de emociones concretas y, por tanto, es más probable que se pueda explotar o manipular.

Herramientas de supervisión de personal como User and Entity Behaviour Analytics (UEBA) suelen incorporar IA para construir modelos de referencia del comportamiento normal de los usuarios. Esto se puede utilizar para detectar cuando un comportamiento se desvía de la norma, como posible indicador de peligro. Algunas soluciones UEBA avanzadas también pueden asignar a los usuarios una puntuación de riesgo basada en su uso de los recursos informáticos, y esa puntuación se puede utilizar en tiempo real para modular los privilegios de acceso o incluso remitir a los usuarios a formación adicional sobre la política de la empresa.

Aunque la Ley prohíbe la puntuación ciudadana, probablemente no esté pensada para este tipo de soluciones UEBA, por un par de razones. En primer lugar, la ley sólo prohíbe la puntuación ciudadana si perjudica a una persona en un contexto distinto de aquel en el que se recogieron los datos, o si el perjuicio es desproporcionado en relación con el comportamiento de la persona.

En el caso de UEBA, las puntuaciones de riesgo sólo se utilizan en el contexto del ecosistema informático de la empresa y se limitan a la aplicación de medidas cautelares o disciplinarias normales relacionadas con el uso de los activos de información de la empresa.

Las empresas han de pensar en utilizar una herramienta avanzada de UEBA que les ayude a cumplir la normativa sobre IA. Al analizar las interacciones de los usuarios con los sistemas de IA, las empresas pueden detectar y prevenir mejor las actividades no autorizadas y lesivas.

La puntuación ciudadana, por otro lado, conlleva un mayor peligro de que afecte negativamente a los clientes. Esto puede suceder especialmente en determinados sectores, como el financiero, o cuando los datos generados por la IA se comparten con otras empresas vinculadas. Esta situación no hace sino reforzar la importancia de contar con políticas de DLP para etiquetar los datos generados por IA, y la necesidad de conocer cómo fluyen los datos de los clientes hacia o desde las aplicaciones impulsadas por IA.

Finalmente, pero no por ello menos importante, las empresas deben tener mucho cuidado de que su utilización de la IA no genere contenidos -o dé lugar a opciones de diseño de sitios web o aplicaciones- que puedan interpretarse como manipulativos o con fines de explotación. Por ejemplo, aunque las plataformas de redes sociales no suelen ser responsables de los contenidos que suben sus usuarios humanos, según la legislación de la UE y de Estados Unidos pueden ser responsables del diseño de algoritmos basados en IA que promuevan contenidos peligrosos, especialmente cuando se dirigen a poblaciones vulnerables como niños y jóvenes.

Las empresas, además de formar a sus empleados en el uso ético de la IA, deben ser también conscientes de cómo los actores maliciosos están utilizando nuevas técnicas, como los ataques de “inyección de prompts», para engañar a un sistema de IA para que realice acciones o revele información que infringe la normativa o las políticas de la empresa.

Implementando un software avanzado de protección contra amenazas con la capacidad de identificar y mitigar los peligros para los sistemas de IA, las empresas pueden garantizar que su uso de la IA se mantiene dentro de los límites de la ley.

Neil Thacker, CISO, Netskope

Tags: NIS2Normativa

DESTACADO

Destacado

Utimaco: “La criptografía post-cuántica será la tecnología estándar de seguridad en el futuro”

junio 23, 2025 - Actualizado en junio 25, 2025

El desarrollo de la computación cuántica está acelerando una carrera silenciosa pero crucial: la actualización de los sistemas de cifrado...

Leer másDetails
Actualidad Endpoint

PHASR: la solución de Bitdefender que actúa antes de que empiece el ataque

junio 19, 2025

Cada vez es más difícil detectar una amenaza cuando no se comporta como tal. Y eso es precisamente lo que...

Leer másDetails
Sincategoria

Cinco claves para un sistema DLP eficaz: lo que diferencia a Symantec en la era de la IA

junio 18, 2025

Cinco claves para un sistema DLP eficaz: lo que diferencia a Symantec en la era de la IA En un...

Leer másDetails
Sincategoria

Facilite a sus clientes la adopción de Copilot AI de forma segura con Symantec Data Loss Prevention (DLP)

junio 16, 2025

La habilitación segura de Copilot con Symantec© DLP es rápida y sencilla, ¡y puede ser el camino hacia algo grande!...

Leer másDetails
Entornos

Factum: “La mediana empresa tiene que madurar mucho en seguridad, pero no saben cómo hacerlo”

septiembre 2, 2024 - Actualizado en septiembre 17, 2024

Factum es una empresa española. Nació en 2009 como compañía integradora especializada en todos los ámbitos de la seguridad IT...

Leer másDetails
Destacado

WatchGuard: “Nuestra obsesión es ser simples, muy efectivos y ofrecer sólo lo que se necesita”

junio 20, 2025

WatchGuard ha cambiado. Quien aún la asocie únicamente al firewall se está quedando corto. La compañía, con una larga trayectoria...

Leer másDetails
Entornos

“Sophos es la opción más sencilla, completa y consistente para cumplir con NIS2”

septiembre 2, 2024 - Actualizado en febrero 26, 2025

En un panorama de amenazas en constante evolución, las empresas no solo deben hacer frente a la seguridad de sus...

Leer másDetails
Entrevistas

Vasu Jakkal (Microsoft): “La transformación de la IA agéntica está dando lugar a la Empresa Frontera” 

junio 18, 2025 - Actualizado en junio 19, 2025

La inteligencia artificial está redefiniendo el concepto mismo de ciberamenaza. Es un hecho. La respuesta de Microsoft es la de...

Leer másDetails
Actualidad Infraestructura

Asegurar el futuro en la era de la IA: la apuesta de Microsoft por una ciberseguridad inteligente, responsable y europea

junio 12, 2025

Durante el Microsoft Security Summit España celebrado en Madrid, Microsoft reafirmó su apuesta por la ciberseguridad como pilar estratégico, profundizando...

Leer másDetails
Sincategoria

La inteligencia artificial empodera la oferta de HP en el entorno del puesto de trabajo

septiembre 4, 2024

La inteligencia artificial se ha integrado en la oferta de HP en el entorno, crítico, del puesto de trabajo. Ordenadores,...

Leer másDetails
Sincategoria

HP avanza en su objetivo de conseguir un mundo más justo y sostenible

septiembre 18, 2024

Recientemente HP publicó su Informe de Impacto Sostenible 2023 donde se detallan los avances alcanzados por la compañía en materia...

Leer másDetails

SOBRE NOSOTROS

CiberseguridadTIC es una publicación de T.a.i. Editorial con información y análisis para las empresas y profesionales de seguridad

Contáctanos: correo@taieditorial.es

SÍGUENOS EN:

T.a.i. Editorial S.A. ®, marca registrada 2023 | Aviso Legal | Política de Privacidad | Política de Cookies | Anúnciese aquí

No Result
Ver todos los resultados
  • Inicio
  • Datos
    • Actualidad Datos
    • Entrevistas
    • Vídeos
    • Opinión
  • Endpoint
    • Actualidad Endpoint
    • Entrevistas
    • Vídeos
    • Opinión
  • Identidades
    • Actualidad Identidades
    • Entrevistas
    • Vídeos
    • Opinión
  • Infraestructuras
    • Actualidad Infraestructura
    • Entrevistas
    • Vídeos
    • Opinión
  • Mercado
  • Debates
    • Almuerzos TAI
      • Seguridad del dato más IA: hacia una protección real, automatizada y transversal 2025
      • Menos riesgos, más control: Descubre cómo simplificar la gestión de proveedores 2025
      • La videocolaboración segura como palanca estratégica: soberanía, interoperabilidad e inteligencia artificial 2025
      • Identidad digital: clave en la gestión de riesgos y cumplimiento normativo 2024
      • Desenmascarando al enemigo, Threat Attribution Engine y servicios de IA aplicada 2024
      • Colaboración segura nunca compromete la seguridad 2024
      • Unificar para identificar 2023
      • Transformando el comportamiento de los usuarios 2023
    • Debates TAI
      • Más allá del perímetro. Nuevos desafíos y soluciones para la seguridad de redes 2025
      • El futuro es ahora: Innovación, regulación y seguridad en la era digital 2025
      • Debate endpoints: XDR, IoT 2025
      • DSPM la nueva frontera de la seguridad de los datos 2025
      • Tendencias de ciberseguridad 2025
      • La seguridad empieza por la identidad 2024
      • Debate MDR 2024
      • Debate CSPM – CNAPP 2024
      • SASE: Protegiendo su negocio en un mundo cada vez más conectado 2024
      • Debate ciberinteligencia 2024
      • Debate seguridad OT 2024
      • Debate ransomware 2024
      • Debate seguridad en movilidad 2024
      • Debate seguridad sector sanitario 2024
      • Debate Zero Trust 2024
      • Debate seguridad de las aplicaciones 2023
  • Reportajes
  • Revista Online
    • Mayo 2023
    • Abril 2023
    • Marzo 2023
    • Febrero 2023
  • FORO TAI
    • BLINDANDO EL FUTURO DIGITAL EN UN MUNDO INTERCONECTADO
    • LA INNOVACIÓN COMO ALIADA DE LA CIBERSEGURIDAD
    • EMPRESA TECNOLÓGICAMENTE MODERNA Y SEGURA
    • INNOVACIÓN DISRUPTIVA
  • Suscripciones

© 2025 JNews - Premium WordPress news & magazine theme by Jegtheme.

Este sitio web almacena cookies técnicas esenciales para el buen funcionamiento de la página. Estas cookies sirven para mejorar nuestro sitio web y poder ofrecer su funcionalidad completa. No utilizamos cookies de seguimiento para publicidad, ni para redes sociales, ya que cuando comparte información con una red social, será al entrar en ésta cuando le pidan el consentimiento a esas cookies. Para conocer más acerca de las cookies que utilizamos, pulse en Política de cookies. Puede visitar nuestra política de privacidad para saber más sobre el tratamiento de sus datos Política de privacidad. Pulse en aceptar, para minimizar