Akamai Technologies ha presentado Akamai Inference Cloud, una nueva plataforma que amplía la capacidad de inferencia de inteligencia artificial (IA) desde los centros de datos hasta el Edge de Internet, acercando el procesamiento a los usuarios y los dispositivos. El anuncio, realizado en Cambridge (Massachusetts), supone un paso relevante en la evolución hacia una IA más distribuida, autónoma y de baja latencia, en la que las decisiones se toman en tiempo real y lo más cerca posible de donde se generan los datos.
La propuesta de Akamai se apoya en la infraestructura de IA de NVIDIA, incluyendo las GPU RTX PRO 6000 Blackwell Server Edition, las DPU BlueField-3 y el software NVIDIA AI Enterprise, integrados sobre la red global de Akamai, que cuenta con más de 4.200 ubicaciones distribuidas. Este enfoque busca ofrecer una inferencia más rápida y segura, aprovechando la experiencia de Akamai en arquitecturas distribuidas y la potencia de cómputo acelerado de NVIDIA.
“La próxima ola de inteligencia artificial requiere el mismo tipo de enfoque distribuido que permitió convertir a Internet en la red global que conocemos hoy”, señaló Tom Leighton, CEO y cofundador de Akamai. “Gracias a la infraestructura de NVIDIA, podremos responder a la demanda creciente de inferencia escalable y llevar la toma de decisiones inteligentes a miles de puntos en todo el mundo”.
Por su parte, Jensen Huang, fundador y CEO de NVIDIA, subrayó que “la inferencia se ha convertido en la fase más intensiva de la IA, porque exige razonamiento en tiempo real a escala planetaria. Juntos, NVIDIA y Akamai están acercando esta capacidad a los usuarios, abriendo la puerta a una nueva generación de aplicaciones inteligentes”.
IA distribuida para nuevos escenarios
Akamai Inference Cloud se ha diseñado para dar soporte a aplicaciones de nueva generación, desde agentes inteligentes y experiencias digitales personalizadas hasta sistemas físicos basados en IA —como vehículos autónomos o robots industriales—, que requieren respuestas instantáneas y capacidad de decisión autónoma.
La plataforma ofrece varios beneficios destacados:
- Extiende las fábricas de IA al Edge, permitiendo que los agentes digitales trabajen con contexto local y personalicen su comportamiento según la ubicación o la intención del usuario.
- Reduce la latencia en procesos de inferencia secuencial, facilitando flujos de trabajo autónomos o financieros que dependen de respuestas inmediatas, como la detección de fraude o la ejecución de pagos.
- Permite una IA física en tiempo real, capaz de procesar datos de sensores y coordinar acciones con precisión de milisegundos en entornos críticos.
- Simplifica la gestión de cargas distribuidas, gracias a una capa de coordinación inteligente que decide automáticamente dónde ejecutar cada tarea, combinando Edge e infraestructuras cloud de forma transparente.
Inicialmente, Akamai Inference Cloud estará disponible en 20 ubicaciones y se ampliará progresivamente. La compañía lo presenta como un paso hacia una infraestructura global de inferencia distribuida, capaz de responder al auge de la IA generativa y autónoma sin depender únicamente de grandes centros de datos centralizados.
















