El National Institute of Standards and Technology (NIST) ha anunciado el lanzamiento de la AI Agent Standards Initiative, una iniciativa que busca sentar las bases técnicas y de seguridad para la próxima generación de inteligencia artificial: los agentes de IA capaces de actuar de forma autónoma.
El anuncio también busca garantizar que estos sistemas puedan desplegarse con confianza, operar de forma segura en nombre de sus usuarios y, sobre todo, interoperar sin fricciones en el ecosistema digital.
El movimiento llega en un momento en el que los agentes de IA han evolucionado rápidamente. Según explica el propio NIST, estos sistemas ya son capaces de “trabajar de forma autónoma durante horas, escribir y depurar código, gestionar correos electrónicos y calendarios o realizar compras”, entre otros casos de uso emergentes.
Sin embargo, la promesa de productividad que ofrecen estos agentes choca con una limitación estructural: su capacidad para interactuar de manera fiable con sistemas externos y con datos internos. En ausencia de estándares comunes y de garantías claras sobre seguridad e identidad, el riesgo es un mercado fragmentado y una adopción más lenta de lo esperado.
Desde el regulador estadounidense se advierte de que, sin confianza en la fiabilidad de los agentes y sin interoperabilidad entre agentes y recursos digitales, los innovadores podrían enfrentarse a un ecosistema desarticulado.
Tres pilares: estándares, código abierto y seguridad
La AI Agent Standards Initiative se articula en torno a tres grandes ejes:
- Impulsar el desarrollo de estándares liderados por la industria y reforzar el liderazgo de Estados Unidos en organismos internacionales de normalización.
- Fomentar el desarrollo y mantenimiento de protocolos abiertos, promovidos por la comunidad.
- Avanzar en la investigación en seguridad e identidad de agentes de IA, con el fin de habilitar nuevos casos de uso y favorecer una adopción confiable en distintos sectores económicos.
Este último punto es especialmente relevante desde la perspectiva de ciberseguridad. La identidad y la autorización de agentes autónomos plantean desafíos inéditos: ¿cómo se autentica un agente? ¿Qué permisos puede asumir en nombre de una organización? ¿Cómo se evita que un agente comprometido escale privilegios o acceda a información sensible?
Consulta pública y próximos pasos
NIST ha anunciado que en los próximos meses publicará investigaciones, guías y otros documentos vinculados a la iniciativa. Para ello, abrirá distintos canales de participación pública, incluidos procesos de Request for Information (RFI) y sesiones sectoriales de escucha.
De hecho, ya están en marcha dos consultas clave: una sobre seguridad de agentes de IA, impulsada por CAISI, y otra sobre identidad y autorización de agentes, promovida por ITL. A partir de abril se celebrarán sesiones específicas para identificar barreras sectoriales a la adopción de agentes de IA.
















