Europa empieza a poner orden en la seguridad de la inteligencia artificial. El Instituto Europeo de Normas de Telecomunicaciones (ETSI) ha publicado la norma ETSI EN 304 223, un estándar europeo que establece requisitos básicos de ciberseguridad para modelos y sistemas de IA, incluidos aquellos basados en redes neuronales profundas y tecnologías de IA generativa destinados a su uso en entornos reales.
El documento parte de una idea clara: la IA introduce riesgos de seguridad propios, distintos de los del software tradicional. El propio texto señala que estas tecnologías presentan “características distintas en comparación con el software tradicional”, citando amenazas como el data poisoning, la model obfuscation, la indirect prompt injection o los riesgos asociados a la gestión de datos y modelos a lo largo de todo su ciclo de vida.
ETSI EN 304 223 Vs AI Act
La publicación del estándar coincide con la aplicación progresiva del Reglamento Europeo de Inteligencia Artificial (AI Act) y ayuda a entender cómo aterrizarlo en la práctica. Mientras la AI Act define el marco legal —clasificación por niveles de riesgo, obligaciones para proveedores y entidades que despliegan sistemas de IA y mecanismos de supervisión—, ETSI EN 304 223 se sitúa en el plano técnico y operativo, abordando cómo proteger de forma efectiva los modelos y sistemas de IA frente a amenazas concretas.
De este modo, la regulación establece qué deben garantizar las organizaciones, y el estándar de ETSI explica cómo hacerlo desde el punto de vista de la ciberseguridad. No es casual que el propio documento cite la AI Act como referencia y adopte su enfoque basado en riesgos, especialmente relevante para los sistemas de alto riesgo, que requieren evidencias técnicas sólidas de seguridad.
13 principios de seguridad
ETSI EN 304 223 estructura sus requisitos en cinco fases del ciclo de vida de la IA —diseño, desarrollo, despliegue, mantenimiento y fin de vida— y define 13 principios de seguridad que abarcan desde la evaluación continua de amenazas y la protección de la cadena de suministro hasta la documentación de modelos, datos y prompts o la eliminación segura de activos cuando un sistema se retira. El mensaje es claro: “los sistemas de IA deben diseñarse para la seguridad, además de para la funcionalidad y el rendimiento”.
El estándar delimita responsabilidades para desarrolladores, operadores de sistemas, custodios de datos y usuarios, asumiendo que una misma organización puede desempeñar varios roles, algo alineado con la lógica de la AI Act. También reconoce que el riesgo nunca desaparece por completo, por lo que insiste en la monitorización continua del comportamiento de los modelos y la revisión periódica de amenazas.
Desde ETSI destacan el valor estratégico del nuevo estándar en un contexto de adopción acelerada de la IA. “ETSI EN 304 223 representa un paso importante para establecer una base común y rigurosa para asegurar los sistemas de IA”, afirma Scott Cadzow, presidente del comité técnico de ETSI para la seguridad de la IA, subrayando la importancia de contar con orientaciones prácticas que reflejen la realidad del despliegue de estas tecnologías.
















