Akamai Inference Cloud es una plataforma de infraestructura de IA distribuida diseñada para ejecutar la inferencia más cerca de los usuarios y los datos.
Puntos clave:
La infraestructura de IA ha alcanzado un punto de inflexión crítico en el que la distancia física entre las fábricas de IA centralizadas y los usuarios finales se ha convertido en un cuello de botella para las aplicaciones en tiempo real. En este informe de IDC Link, Dave McCarthy, de IDC, analiza cómo Akamai está abordando este problema mediante la superposición de un plano de orquestación inteligente en su nube distribuida geográficamente. Lea más para:
- Descubrir cómo Akamai Inference Cloud hace avanzar la IA empresarial desde proyectos piloto hasta una infraestructura de nivel de producción.
- Entender cómo superar los obstáculos físicos y económicos centrales del modelo de hiperscala tradicional, como los retrasos de ida y vuelta de más de 100 ms y los altos costes de salida de las nubes centralizadas.
- Implemente casos de uso de alta concurrencia en ámbitos que requieren una latencia ultrabaja, como los videojuegos, los servicios financieros y el contenido multimedia en directo, para obtener el máximo rendimiento.
Preguntas frecuentes
Akamai está implementando miles de GPU NVIDIA RTX PRO™ 6000 Blackwell Server Edition, interconectadas con las unidades de procesamiento de datos (DPU) NVIDIA BlueField-3® en más de 4400 ubicaciones en el Edge. Una capa de orquestación inteligente actúa como intermediario rápido, dirigiendo las solicitudes de IA a niveles de procesamiento óptimos en función de la proximidad, el coste y la disponibilidad de GPU.
Al implementar la inferencia de IA en el Edge de red, reducimos significativamente la distancia física entre los recursos informáticos y los usuarios finales. Esto permite una latencia ultrabaja y determinista, un requisito esencial para aplicaciones en tiempo real en sectores como los videojuegos, los servicios financieros y el contenido multimedia en directo.