F5 ha anunciado la ampliación de su solución BIG-IP Next for Kubernetes, ahora optimizada mediante las DPU NVIDIA BlueField-3 y el framework NVIDIA DOCA. Esta integración busca responder a las crecientes demandas de rendimiento, seguridad y escalabilidad en entornos de inteligencia artificial (IA). La nueva propuesta ya ha sido validada por Sesterce, un operador europeo centrado en infraestructura de próxima generación e IA soberana.
Gracias a la ejecución nativa sobre DPU BlueField-3, la plataforma BIG-IP Next for Kubernetes proporciona una gestión del tráfico más eficiente y segura en arquitecturas de IA a gran escala. Entre los beneficios destacados tras la validación por parte de Sesterce se encuentran mejoras en rendimiento, gestión multicliente (multi-tenancy) y protección, con un incremento del 20 % en el aprovechamiento de GPU en sus primeras pruebas.
Enrutamiento inteligente y menor latencia en modelos LLM
La solución se integra con herramientas como NVIDIA Dynamo y KV Cache Manager, lo que permite reducir la latencia en los sistemas de inferencia de modelos de lenguaje (LLM) y optimizar el uso de GPU y recursos de memoria. Además, incorpora capacidades para enrutar dinámicamente el tráfico entre distintos modelos de lenguaje, mejorando la eficiencia y la personalización según el tipo de consulta.
Según F5, esta lógica de enrutamiento implementada directamente sobre las DPU permite distribuir las peticiones hacia modelos más ligeros o específicos de dominio, lo que mejora tanto la respuesta como la experiencia del usuario.
Optimización de la inferencia distribuida
Con NVIDIA Dynamo, F5 amplía el soporte para entornos distribuidos a gran escala, permitiendo una gestión más fluida de tareas como el enrutamiento y el almacenamiento en caché. Esto se traduce en un menor uso de memoria GPU al reutilizar información previamente almacenada a través de mecanismos KV Cache.
Ash Bhalgat, responsable de soluciones de redes y seguridad de IA en NVIDIA, subraya que esta solución unificada facilita a empresas y proveedores de servicios optimizar el uso de recursos para tareas como la ingesta de datos, entrenamiento de modelos, inferencia y procesamiento con agentes de IA.
Seguridad reforzada en entornos MCP
El protocolo MCP (Model Context Protocol), desarrollado por Anthropic, estandariza cómo se proporciona contexto a los LLM. F5 actúa como proxy inverso frente a los servidores MCP, añadiendo una capa de seguridad y control. La integración con iRules permite adaptar rápidamente la solución ante nuevos protocolos o amenazas, facilitando su uso en entornos donde se desarrollan agentes de IA autónomos.
Greg Schoeny, vicepresidente senior de World Wide Technology, destaca que esta colaboración entre F5 y NVIDIA ofrece funciones integradas de IA en Kubernetes con capacidades de programabilidad y automatización que no están disponibles en otras soluciones del mercado.