NOTICIAS

Akamai y NVIDIA llevan la inteligencia artificial al edge de Internet



Dirección copiada

Akamai Inference Cloud es una nueva plataforma que redefine la inferencia de inteligencia artificial (IA).

Publicado el 30 oct 2025

Rufino Contreras

Redactor Jefe



akamai

Preguntas frecuentes (FAQ)
1. ¿Qué es Akamai Inference Cloud?
Es una plataforma distribuida que permite ejecutar inferencia de inteligencia artificial directamente en el Edge de Internet, reduciendo la latencia y aumentando la escalabilidad.
2. ¿Qué papel juega NVIDIA en este proyecto?
NVIDIA aporta su tecnología de hardware (GPU y DPU) y su software de IA para impulsar el rendimiento y la seguridad de la inferencia en el Edge.
3. ¿Qué diferencia a Akamai Inference Cloud de otras plataformas de IA?
Su capacidad para operar a escala global y ejecutar procesos de IA autónomos en tiempo real cerca del usuario, sin depender de grandes centros de datos.
4. ¿Qué aplicaciones se beneficiarán más?
Desde agentes inteligentes y comercio digital hasta robots, vehículos autónomos, sistemas financieros y ciudades inteligentes.

Akamai y NVIDIA: alianza estratégica para una IA global

La irrupción de Akamai Inference Cloud marca un punto de inflexión en la evolución de la inteligencia artificial. Al combinar la infraestructura distribuida de Akamai —con más de 4200 ubicaciones en todo el mundo— con la potencia de cómputo de NVIDIA, la compañía ha creado un entorno de inferencia capaz de operar a escala planetaria con baja latencia y máxima seguridad.

“La próxima oleada de IA requiere la misma aproximación que convirtió a Internet en una plataforma global”, afirmó Tom Leighton, CEO de Akamai. “Gracias a NVIDIA, podemos llevar la toma de decisiones inteligentes al punto más cercano al usuario”.

Inferencia en tiempo real: la IA se acerca al usuario

A diferencia de los modelos tradicionales, que dependen de centros de datos centralizados, Inference Cloud permite que la IA procese y actúe directamente en el borde de la red, donde los datos se generan.
Esto se traduce en respuestas instantáneas, menores costes de transferencia y un rendimiento adecuado incluso para sistemas físicos autónomos, como robots o vehículos inteligentes.

Jensen Huang, fundador y CEO de NVIDIA, destacó que “la inferencia es hoy la fase más intensiva de la IA”. Con Akamai, señaló, “acercamos la computación a los usuarios, habilitando una IA generativa más rápida y escalable”.

De la nube al Edge: nuevas fronteras para la IA autónoma

La plataforma combina servidores NVIDIA RTX PRO 6000 Blackwell Server Edition, DPU NVIDIA BlueField-3 y el software NVIDIA AI Enterprise. Esta integración con la red global de Akamai permite que la inferencia se ejecute de forma inteligente y dinámica, adaptándose a la ubicación y las necesidades de cada aplicación.

Entre los beneficios más destacados:

  • Extensión de las fábricas de IA al Edge, impulsando agentes inteligentes de comercio y experiencias digitales personalizadas.
  • Inferencia secuencial de baja latencia, crucial para análisis financieros y toma de decisiones en tiempo real.
  • IA física con latencias de milisegundos, fundamental para vehículos autónomos, robots industriales o sistemas médicos.
  • Optimización del coste y el rendimiento, gracias a una capa de coordinación que dirige las cargas de trabajo al punto óptimo.

El Edge como nuevo cerebro digital

La visión de Akamai Inference Cloud es clara: que la IA funcione donde los datos nacen.
Esta nueva arquitectura distribuida acelera la transición hacia un modelo de computación más eficiente, resiliente y autónomo, donde la inteligencia ya no vive solo en la nube, sino en cada punto del planeta conectado.

Artículos relacionados