Un nuevo informe de ISACA alerta sobre el desfase que existe entre la adopción de herramientas de inteligencia artificial en las organizaciones europeas y la implantación de políticas que regulen su uso. Aunque el 83 % de los profesionales de IT y negocio reconoce que en sus empresas ya se está utilizando la IA —especialmente la generativa—, sólo un 31 % dispone de una política formal y completa que oriente a los empleados sobre cómo usarla de forma segura y eficaz.
Este desequilibrio es cada vez más evidente: en apenas un año, el número de profesionales que confirman el uso de IA generativa en el entorno laboral ha subido diez puntos. Sin embargo, las organizaciones no están reaccionando con la misma agilidad a la hora de establecer normas, guías de uso o invertir en formación específica.
Entre el entusiasmo y el riesgo
Los beneficios inmediatos del uso de la IA son palpables. Más de la mitad de los encuestados (56 %) considera que ha mejorado la productividad de su organización, y un 71 % destaca avances en eficiencia y ahorro de tiempo. La visión de futuro también es positiva: un 62 % espera que la IA tenga un impacto favorable en su empresa en los próximos doce meses.
Pero este potencial también implica riesgos crecientes. Casi dos tercios (63 %) se muestran muy preocupados ante la posibilidad de que tecnologías como la IA generativa puedan ser utilizadas con fines maliciosos. Y un 71 % teme que los deepfakes se perfeccionen y se difundan más en el próximo año. A pesar de ello, sólo el 18 % de las organizaciones ha invertido en herramientas específicas para detectar este tipo de manipulaciones, lo que deja una importante brecha de seguridad.
Del cumplimiento a la confianza
“Con la nueva Ley de IA de la Unión Europea marcando nuevos estándares de transparencia y gestión del riesgo, es urgente pasar de la concienciación a la acción”, afirma Chris Dimitriadis, Chief Global Strategy Officer de ISACA. Según explica, la mayoría de las organizaciones todavía no está invirtiendo en herramientas ni formación que les permitan mitigar estos riesgos, lo que no solo pone en peligro la innovación, sino también la confianza en la economía digital.
Desde ISACA insisten en que disponer de políticas claras y formación específica —adaptada a cada perfil dentro de la organización— es la única manera de sacar verdadero partido a la inteligencia artificial sin convertirla en una amenaza.
El desarrollo de políticas no sirve de nada si no va acompañado de un esfuerzo real por formar a los equipos. Según los datos del informe, el 42 % de los profesionales cree que necesitará mejorar sus competencias en IA en los próximos seis meses para conservar su puesto o progresar en su carrera. Y esta cifra sube al 89 % si se extiende el plazo a los próximos dos años.
Dimitriadis subraya que, sin directrices, formación o límites claros sobre cómo y cuándo usar la IA, los empleados podrían utilizar estas herramientas de forma inadecuada o insegura. También podrían tener dificultades para detectar contenidos falsificados o manipulados si no cuentan con los conocimientos necesarios. “Los atacantes están al día de las últimas innovaciones tecnológicas, y las están usando para realizar ataques más sofisticados. Por eso, la capacitación no puede esperar. La formación debe ser una prioridad con su correspondiente presupuesto, y debe ir de la mano de políticas corporativas comprensibles y accesibles para todos”, concluye.